2026年4月10日:小布助手变AI搜索——从语音助手到自主智能体的技术演进与实现解析

小编 11 0

写在前面

智能助手赛道正在经历一场深刻的范式转换。2025年6月,OPPO小布助手完成DeepSeek R1大模型升级,并推出多格式报告生成功能-1;同年10月,ColorOS 16系统新增AI实景对话能力,支持摄像头实时识别场景并在线解答-1;2026年2月,小布助手进一步接入联网能力,实现了从“离线问答”到“实时”的关键跨越-3

小布助手变AI这一转型,本质上是智能助手从“被动应答式工具”向“主动规划式智能体”的技术跃迁。这一变化不仅改变了交互体验,更重新定义了AI在端侧设备中的角色——从执行指令的“手”,转变为理解意图、规划路径、自主检索的“脑”。

本文将从传统的痛点切入,讲解RAG(检索增强生成)与Agentic Search(智能体)的核心原理,剖析小布助手背后的技术架构,并通过极简代码示例帮助读者建立完整的技术认知链路。

一、痛点切入:为什么“语音助手+”不够用

我们先看一个典型场景。用户对小布说:“帮我找一下上个月杭州西湖附近评分4.8以上的民宿,还要对比一下这几家的价格变化趋势。”

传统实现方式大致是这样的:

text
复制
下载
传统流程:
1. 语音转文字 → “上个月杭州西湖附近评分4.8以上的民宿”
2. 关键词提取 → [“杭州西湖”,“民宿”,“评分4.8”,“上个月”]
3. 发起一次请求 → 返回top-10结果列表
4. 读取出结果 → 生成回复
5. 用户追问价格趋势 → 需要重新发起新的

这段流程存在几个明显的短板:

  • 单轮交互局限:一次只能满足一个具体需求,无法支持多轮探索式的查询。

  • 关键词覆盖依赖:如果信息分散在多个来源或需要推理才能找到,关键词匹配很难命中。

  • 缺乏上下文理解:无法在多次对话中保持“记忆”,每次查询都是独立的。

  • 无法主动规划:传统RAG(检索增强生成)采用固定的“索引-检索-生成”流水线,面对复杂意图缺乏自主决策能力-29

在小布助手向AI转型的过程中,一个关键升级就是引入了联网能力,让助手能够从静态知识库扩展到实时网络信息源-3。但这只是第一步,真正让“小布助手变AI”发生质变的,是引入了一套全新的技术框架。

二、核心概念讲解:Agentic Search(智能体)

定义:Agentic Search(智能体)是一种AI范式,其中模型自主规划并执行多步策略,利用工具(如引擎、数据库、API等)完成复杂查询任务-。其核心架构基于ReAct(Reason + Act,推理+行动)框架——模型交替进行推理与工具调用,持续迭代直至找到完整答案-19

拆解理解:传统是一次性的“关键词匹配”,而Agentic Search更像一个研究员在查资料:

  • 接到任务后,先思考:这个问题需要哪些信息?

  • 然后行动:用工具A → 分析结果 → 发现缺口 → 再B → 整合 → 输出。

  • 循环迭代:直到找到足够支撑完整答案的证据。

简单示例:用户问“小米SU7和特斯拉Model 3哪个更适合家庭使用?”Agentic Search会自主规划:

  1. “小米SU7 家庭用车 空间 安全”

  2. “特斯拉Model 3 家庭用车 空间 安全”

  3. “小米SU7 vs 特斯拉Model 3 对比评测”

  4. 整合三方信息 → 输出结构化对比答案

这种“规划-执行-整合”的能力,正是传统RAG无法做到的。

三、关联概念讲解:RAG(检索增强生成)

定义:RAG(Retrieval-Augmented Generation,检索增强生成)是一种扩展LLM能力的模式,通过将LLM的回答“锚定”在专有内容中,减少幻觉并提升答案的事实可靠性-

工作机制:RAG采用“索引→检索→增强→生成”的固定流水线-29

  • 预先将文档分块、向量化,存入向量数据库

  • 用户提问时,检索最相关的k个文档片段

  • 将检索片段与原始问题拼接,形成增强提示

  • LLM基于增强提示生成答案

它与Agentic Search的关系:RAG是Agentic Search的能力子集。在一个Agentic Search系统中,RAG可以作为智能体的一个“工具箱”——当需要检索静态知识库时,智能体可以调用RAG工具来获取相关信息-29。两者的本质差异在于:RAG是被动的一次性检索,Agentic Search是主动的多轮规划和执行。

四、概念关系与区别总结

维度RAGAgentic Search
核心模式固定流水线:检索→生成动态循环:思考→行动→反思→迭代
检索策略单次、预先确定多轮、策略可动态调整
是否自主规划
多步推理有限原生支持
工具使用仅知识库检索引擎、API、数据库等多工具
适用场景文档问答、知识库检索复杂信息整合、多源对比、实时查询
响应速度较慢(需多轮迭代)

一句话记忆:RAG是“翻书找答案”,Agentic Search是“做课题研究”——前者按图索骥,后者自主规划和执行。

五、代码示例:极简实现

下面用一个极简的Python示例来直观展示Agentic Search的实现逻辑。

python
复制
下载
import requests
import json

class SimpleAgenticSearch:
    def __init__(self, llm_api_url, search_api_url):
        self.llm_api = llm_api_url
        self.search_api = search_api_url
        self.context = []   存储已获取的信息
    
    def think(self, question, context):
        """让LLM决定下一步该做什么"""
        prompt = f"""
        问题:{question}
        已有信息:{context}
        请决定下一步行动。输出格式(JSON):
        {{"need_more_info": true/false, "search_query": "词"}}
        """
        response = self.call_llm(prompt)
        return json.loads(response)
    
    def act(self, query):
        """执行,获取新信息"""
        result = requests.get(f"{self.search_api}?q={query}")
        return result.json()["results"]
    
    def solve(self, question, max_steps=5):
        for step in range(max_steps):
            decision = self.think(question, self.context)
            if not decision["need_more_info"]:
                return self.generate_answer(question, self.context)
            
             需要更多信息,执行
            new_info = self.act(decision["search_query"])
            self.context.append({
                "source": decision["search_query"],
                "content": new_info
            })
        
        return self.generate_answer(question, self.context)

 使用示例
agent = SimpleAgenticSearch(
    llm_api_url="http://localhost:8000/generate",
    search_api_url="http://localhost:8000/search"
)

answer = agent.solve("对比DeepSeek V3和GPT-4o在代码生成方面的表现")

关键步骤说明

  1. 第27-32行think()让LLM判断当前信息是否充足,不足则生成新的词

  2. 第35-37行act()执行实际,获取外部信息

  3. 第40-51行:主循环不断迭代,直到信息充分或达到步数上限

这个示例虽然极简,但包含了Agentic Search的核心三要素:规划(think)、执行(act)、迭代(loop)。

六、底层原理:端云协同与知识图谱

小布助手变AI的背后,依赖两大底层技术支撑。

1. AndesGPT大模型与端云协同

OPPO自研的AndesGPT大模型采用“端云协同”架构,提供从10亿到千亿多种参数规模,实现在本地与云端协同运作-11。端侧处理保障隐私和低延迟,云端大模型处理复杂推理任务。当前端侧已实现300 tokens/s的峰值推理速度和128k上下文窗口-13

2. 大规模知识图谱

OPPO自建的知识图谱已达到数亿实体和数十亿三元组的规模,主要落地于小布助手的知识问答场景-。知识图谱将实体间的关系结构化存储,当用户问“周杰伦的哪首歌是写给女儿的”这类关系型问题时,系统可以快速在图谱中定位关系路径,而不是依赖关键词匹配。

七、高频面试题与参考答案

Q1:请解释Agentic Search与RAG的核心区别。

参考答案:RAG是固定流水线的检索增强生成,一次检索即生成答案;Agentic Search采用ReAct框架,模型自主规划多步策略,可迭代优化。核心区别在于:RAG是被动的一次性检索,Agentic Search是主动的多轮规划执行。

Q2:小布助手向AI转型的关键技术升级是什么?

参考答案:①接入DeepSeek R1大模型增强推理能力;②引入联网打破知识库边界;③集成端侧128k上下文窗口支持长对话;④自研知识图谱支撑关系型问答。

Q3:ReAct框架中“Reason”和“Act”分别指什么?如何协同工作?

参考答案:Reason指模型对问题的思考分析和策略规划,Act指执行具体工具调用。两者在循环中协同:模型先推理决定下一步做什么(Reason),执行后获取新信息(Act),然后基于新信息再次推理,形成闭环直到问题解决。

Q4:端云协同架构解决了AI中的哪些关键问题?

参考答案:端侧处理解决隐私安全和响应延迟,云端处理解决复杂推理的计算需求。端云协同在保障用户数据本地处理的同时,通过云端大模型提供深度推理能力,实现了隐私保护与高性能的平衡。

Q5:知识图谱在AI中的作用是什么?

参考答案:知识图谱以三元组形式存储实体间的关系,支持关系型查询和推理。与传统关键词检索不同,知识图谱能直接回答“A和B的关系是什么”这类问题,减少了对关键词覆盖和语义匹配的依赖。

八、结尾总结

本文围绕小布助手变AI这一技术转型,梳理了从传统语音助手到自主智能体的演进逻辑:

  • 传统的痛点在于单轮、缺乏规划、信息获取碎片化

  • RAG解决了静态知识库的检索生成问题,但依然是被动的一次性流程

  • Agentic Search引入ReAct框架,让AI具备了主动规划和多步执行的能力

  • 小布助手通过AndesGPT端云协同、DeepSeek R1升级、知识图谱构建,完成了从“语音助手”到“AI智能体”的质变

重点回顾:核心差异在于“被动检索 vs 主动规划”;技术实现关键在于多轮推理循环和工具调用能力;面试时注意区分概念层次,讲清楚“RAG是工具,Agentic Search是框架”的逻辑关系。

下一步可以深入了解:智能体的记忆管理机制、多智能体协作框架、以及端侧大模型的轻量化部署技术。