写在前面
智能助手赛道正在经历一场深刻的范式转换。2025年6月,OPPO小布助手完成DeepSeek R1大模型升级,并推出多格式报告生成功能-1;同年10月,ColorOS 16系统新增AI实景对话能力,支持摄像头实时识别场景并在线解答-1;2026年2月,小布助手进一步接入联网能力,实现了从“离线问答”到“实时”的关键跨越-3。

小布助手变AI这一转型,本质上是智能助手从“被动应答式工具”向“主动规划式智能体”的技术跃迁。这一变化不仅改变了交互体验,更重新定义了AI在端侧设备中的角色——从执行指令的“手”,转变为理解意图、规划路径、自主检索的“脑”。
本文将从传统的痛点切入,讲解RAG(检索增强生成)与Agentic Search(智能体)的核心原理,剖析小布助手背后的技术架构,并通过极简代码示例帮助读者建立完整的技术认知链路。

一、痛点切入:为什么“语音助手+”不够用
我们先看一个典型场景。用户对小布说:“帮我找一下上个月杭州西湖附近评分4.8以上的民宿,还要对比一下这几家的价格变化趋势。”
传统实现方式大致是这样的:
传统流程: 1. 语音转文字 → “上个月杭州西湖附近评分4.8以上的民宿” 2. 关键词提取 → [“杭州西湖”,“民宿”,“评分4.8”,“上个月”] 3. 发起一次请求 → 返回top-10结果列表 4. 读取出结果 → 生成回复 5. 用户追问价格趋势 → 需要重新发起新的
这段流程存在几个明显的短板:
单轮交互局限:一次只能满足一个具体需求,无法支持多轮探索式的查询。
关键词覆盖依赖:如果信息分散在多个来源或需要推理才能找到,关键词匹配很难命中。
缺乏上下文理解:无法在多次对话中保持“记忆”,每次查询都是独立的。
无法主动规划:传统RAG(检索增强生成)采用固定的“索引-检索-生成”流水线,面对复杂意图缺乏自主决策能力-29。
在小布助手向AI转型的过程中,一个关键升级就是引入了联网能力,让助手能够从静态知识库扩展到实时网络信息源-3。但这只是第一步,真正让“小布助手变AI”发生质变的,是引入了一套全新的技术框架。
二、核心概念讲解:Agentic Search(智能体)
定义:Agentic Search(智能体)是一种AI范式,其中模型自主规划并执行多步策略,利用工具(如引擎、数据库、API等)完成复杂查询任务-。其核心架构基于ReAct(Reason + Act,推理+行动)框架——模型交替进行推理与工具调用,持续迭代直至找到完整答案-19。
拆解理解:传统是一次性的“关键词匹配”,而Agentic Search更像一个研究员在查资料:
接到任务后,先思考:这个问题需要哪些信息?
然后行动:用工具A → 分析结果 → 发现缺口 → 再B → 整合 → 输出。
循环迭代:直到找到足够支撑完整答案的证据。
简单示例:用户问“小米SU7和特斯拉Model 3哪个更适合家庭使用?”Agentic Search会自主规划:
“小米SU7 家庭用车 空间 安全”
“特斯拉Model 3 家庭用车 空间 安全”
“小米SU7 vs 特斯拉Model 3 对比评测”
整合三方信息 → 输出结构化对比答案
这种“规划-执行-整合”的能力,正是传统RAG无法做到的。
三、关联概念讲解:RAG(检索增强生成)
定义:RAG(Retrieval-Augmented Generation,检索增强生成)是一种扩展LLM能力的模式,通过将LLM的回答“锚定”在专有内容中,减少幻觉并提升答案的事实可靠性-。
工作机制:RAG采用“索引→检索→增强→生成”的固定流水线-29:
预先将文档分块、向量化,存入向量数据库
用户提问时,检索最相关的k个文档片段
将检索片段与原始问题拼接,形成增强提示
LLM基于增强提示生成答案
它与Agentic Search的关系:RAG是Agentic Search的能力子集。在一个Agentic Search系统中,RAG可以作为智能体的一个“工具箱”——当需要检索静态知识库时,智能体可以调用RAG工具来获取相关信息-29。两者的本质差异在于:RAG是被动的一次性检索,Agentic Search是主动的多轮规划和执行。
四、概念关系与区别总结
| 维度 | RAG | Agentic Search |
|---|---|---|
| 核心模式 | 固定流水线:检索→生成 | 动态循环:思考→行动→反思→迭代 |
| 检索策略 | 单次、预先确定 | 多轮、策略可动态调整 |
| 是否自主规划 | 否 | 是 |
| 多步推理 | 有限 | 原生支持 |
| 工具使用 | 仅知识库检索 | 引擎、API、数据库等多工具 |
| 适用场景 | 文档问答、知识库检索 | 复杂信息整合、多源对比、实时查询 |
| 响应速度 | 快 | 较慢(需多轮迭代) |
一句话记忆:RAG是“翻书找答案”,Agentic Search是“做课题研究”——前者按图索骥,后者自主规划和执行。
五、代码示例:极简实现
下面用一个极简的Python示例来直观展示Agentic Search的实现逻辑。
import requests import json class SimpleAgenticSearch: def __init__(self, llm_api_url, search_api_url): self.llm_api = llm_api_url self.search_api = search_api_url self.context = [] 存储已获取的信息 def think(self, question, context): """让LLM决定下一步该做什么""" prompt = f""" 问题:{question} 已有信息:{context} 请决定下一步行动。输出格式(JSON): {{"need_more_info": true/false, "search_query": "词"}} """ response = self.call_llm(prompt) return json.loads(response) def act(self, query): """执行,获取新信息""" result = requests.get(f"{self.search_api}?q={query}") return result.json()["results"] def solve(self, question, max_steps=5): for step in range(max_steps): decision = self.think(question, self.context) if not decision["need_more_info"]: return self.generate_answer(question, self.context) 需要更多信息,执行 new_info = self.act(decision["search_query"]) self.context.append({ "source": decision["search_query"], "content": new_info }) return self.generate_answer(question, self.context) 使用示例 agent = SimpleAgenticSearch( llm_api_url="http://localhost:8000/generate", search_api_url="http://localhost:8000/search" ) answer = agent.solve("对比DeepSeek V3和GPT-4o在代码生成方面的表现")
关键步骤说明:
第27-32行:
think()让LLM判断当前信息是否充足,不足则生成新的词第35-37行:
act()执行实际,获取外部信息第40-51行:主循环不断迭代,直到信息充分或达到步数上限
这个示例虽然极简,但包含了Agentic Search的核心三要素:规划(think)、执行(act)、迭代(loop)。
六、底层原理:端云协同与知识图谱
小布助手变AI的背后,依赖两大底层技术支撑。
1. AndesGPT大模型与端云协同
OPPO自研的AndesGPT大模型采用“端云协同”架构,提供从10亿到千亿多种参数规模,实现在本地与云端协同运作-11。端侧处理保障隐私和低延迟,云端大模型处理复杂推理任务。当前端侧已实现300 tokens/s的峰值推理速度和128k上下文窗口-13。
2. 大规模知识图谱
OPPO自建的知识图谱已达到数亿实体和数十亿三元组的规模,主要落地于小布助手的知识问答场景-。知识图谱将实体间的关系结构化存储,当用户问“周杰伦的哪首歌是写给女儿的”这类关系型问题时,系统可以快速在图谱中定位关系路径,而不是依赖关键词匹配。
七、高频面试题与参考答案
Q1:请解释Agentic Search与RAG的核心区别。
参考答案:RAG是固定流水线的检索增强生成,一次检索即生成答案;Agentic Search采用ReAct框架,模型自主规划多步策略,可迭代优化。核心区别在于:RAG是被动的一次性检索,Agentic Search是主动的多轮规划执行。
Q2:小布助手向AI转型的关键技术升级是什么?
参考答案:①接入DeepSeek R1大模型增强推理能力;②引入联网打破知识库边界;③集成端侧128k上下文窗口支持长对话;④自研知识图谱支撑关系型问答。
Q3:ReAct框架中“Reason”和“Act”分别指什么?如何协同工作?
参考答案:Reason指模型对问题的思考分析和策略规划,Act指执行具体工具调用。两者在循环中协同:模型先推理决定下一步做什么(Reason),执行后获取新信息(Act),然后基于新信息再次推理,形成闭环直到问题解决。
Q4:端云协同架构解决了AI中的哪些关键问题?
参考答案:端侧处理解决隐私安全和响应延迟,云端处理解决复杂推理的计算需求。端云协同在保障用户数据本地处理的同时,通过云端大模型提供深度推理能力,实现了隐私保护与高性能的平衡。
Q5:知识图谱在AI中的作用是什么?
参考答案:知识图谱以三元组形式存储实体间的关系,支持关系型查询和推理。与传统关键词检索不同,知识图谱能直接回答“A和B的关系是什么”这类问题,减少了对关键词覆盖和语义匹配的依赖。
八、结尾总结
本文围绕小布助手变AI这一技术转型,梳理了从传统语音助手到自主智能体的演进逻辑:
传统的痛点在于单轮、缺乏规划、信息获取碎片化
RAG解决了静态知识库的检索生成问题,但依然是被动的一次性流程
Agentic Search引入ReAct框架,让AI具备了主动规划和多步执行的能力
小布助手通过AndesGPT端云协同、DeepSeek R1升级、知识图谱构建,完成了从“语音助手”到“AI智能体”的质变
重点回顾:核心差异在于“被动检索 vs 主动规划”;技术实现关键在于多轮推理循环和工具调用能力;面试时注意区分概念层次,讲清楚“RAG是工具,Agentic Search是框架”的逻辑关系。
下一步可以深入了解:智能体的记忆管理机制、多智能体协作框架、以及端侧大模型的轻量化部署技术。