金磊 发自 凹非寺
量子位 | 公众号 QbitAI

如果想让AI大模型在作答的时候,能够做到既准确丰富,还能观点鲜明有态度,该怎么办?

或许,给它一个RAG(检索增强生成)就够了。

例如我们问这样一个问题:

苹果、三星和华为三家手机,谁在国内的市场未来发展前景最好?

现在的AI在回答的时候,就会非常有态度:



它直接是给出了一个非常明确的答案,还给了总结——

华为的市场未来发展前景最好。

并且在作答的过程中,会从市场份额和增长趋势、产品创新与竞争力,以及市场策略与消费者认可等多个维度来做证明。

这就和以往AI(例如ChatGPT)一碗水端平的回答风格产生了差别:



而这不得不说,国内大模型里文心一言在RAG方面还是挺牛的。

昨天看到MacTalk的一篇文章,里面详细解读了检索增强早在百度2023年3月发布文心一言的时候就已经提出来。

现在将近两年时间过去了,检索增强的价值,从百度最早推出到现在已经成为业界共识。

百度检索增强技术深度融合大模型能力和搜索系统,构建了“理解-检索-生成”的协同优化技术。

一言蔽之,就是以自身搜索的优势,结合RAG技术,所做到的AI原生检索。

那么如此打法还能应对什么的问题?

我们这就一波实测走起~

各种刁钻问题伺候

信息、数据整合,应当是我们大多数人希望AI能够帮我们处理的任务之一。

但往往AI回答的结果,要么信息过于冗余,要么就是重点不够清晰。

因此在这方面,我们先来测试一下文心一言的实力。如下测试,我们使用的是文心大模型4.0 Turbo版,请听题:

李永乐全网粉丝有多少?



可以看到,文心一言作答的内容非常简洁,一目了然。

它先是直击问题,给出了超过3000万的数字;然后利用总分的方式,列举了抖音、西瓜视频和B站上各自拥有的粉丝。

然后它还简单的对李永乐老师做了人物介绍,整体的感觉可以用恰到好处来形容了。

类似的问题要是给到ChatGPT,例如“马斯克全网粉丝有多少”,虽然也是采用总分方式罗列了各个平台的粉丝数,但最核心的总数却没做统计:



有些时候我们的问题可能并不只是一个,会出现围绕一个话题或关键词连续提问的情况。

而这也是考验大模型能否精准捕捉用户意图的一个点。

于是乎,我们接下来提这样一个问题:

什么是三⼈制篮球⽐赛?⽐赛时间、胜出条件、场地和⽤球分别是什么规则,和五⼈制篮球有什么区别?

来看一下这一次文心一言的表现:



从回答的内容来看,文心一言是把连续的几个问题都get到了。

值得一提的是,它还会根据问题的内容,采用较为合适的方式来回答。

例如在三人制篮球方面,文心一言会以文字的形式为主,用清晰的展示方式回答各种细节。

但在三人制与五人制篮球区别的问题上,文心一言则是采用表格的形式,而这种形式是更容易让用户一看出细节对比。

最后,文心一言还提供了几个相关内容的视频,可以说是把多模态这事儿给玩儿明白了。

那么对于非常专业的知识,文心一言的回答又会和其它AI有什么样的区别呢?

请听题:

傅里叶变化的时候,函数应该具有频率、相位和幅度三个重要参数,为什么其中的相位在频域图上是没有的?



文心一言在做到的最开头,就直接回答了问题的核心关键,即“主要涉及到频域图的表示方式和目的”

(PS:即便我们的Prompt中有错别字,文心一言也会按照正确内容输出哦~)

然后依旧是像剥洋葱一样,层层剖析,给最终的结论做证明。

可以看到,对用户提出的专业知识问题里的意图这一块,文心一言是拿捏住了。

那么再接下来,我们再来考验一下文心一言是否有明确态度鲜明观点的能力。

题目是这样的:

微软和谷歌2024年在大模型上的发展,哪个对生态有更大的影响?



嗯,回答的还是一针见血——微软的影响力更大

但在评价微软和谷歌的优劣时,文心一言也是尽量保持了客观和中立的态度,没有过度偏向某一方。是基于事实和数据进行了分析,并尝试从多个角度呈现问题,以便读者能够形成自己的判断。

并且从参考链接来看,回答的内容还注重实用性,尽量提供了具体的信息和例子来支持论点,使得回答更加具有说服力和实用性。

最后的一波测试,我们来考验一下文心一言的“心智”——连环“弱智吧”问题提问:

一个半小时是几个半小时?陨石为什么总是落在陨石坑里?人如果只剩一个心脏还能活吗?



嗯,毫不相干的弱智吧三连提问,文心一言是统统都hold了。



怎么做到的?

在实测完后,我们继续来扒一扒文心一言背后的技术。

即为什么给大模型一个RAG,就能让它回答的内容不仅降低了幻觉,还能像人一样有态度和观点。

首先,对于RAG(检索增强生成)来说,检索是方法,生成是目的

通过高质量的检索系统,RAG能够解决大型语言模型生成过程中的幻觉现象、垂类细分场景下的知识更新较慢,以及在回答中缺乏透明度等一系列问题。

检索质量的优劣在很大程度上影响了生成模型的最终生成结果的优劣。

RAG技术通过引入检索机制,使得模型在生成回答时能够参考更多的信息,从而提高了回答的准确性和丰富性。

而文心一言基于百度在中文互联网领域的深厚积累,具备中文深度理解能力,能够更准确地理解中文语境和语义,从而在RAG任务中表现出色。

从我们刚才的实测内容来看,它还支持多模态检索,能够处理图像、文本等多种类型的数据,进一步拓宽了模型的信息来源。



而且对于大型模型而言,人类易读的搜索结果往往并不适用于模型的处理需求。

因此,我们需要找到一种创新的架构解决方案,它能够同时高效地满足搜索业务场景的需求以及大型模型的生成场景。

为了应对这一挑战,百度将自身高质量的搜索结果融入大模型进行检索增强,能为大模型提供准确率高、时效性强的参考信息,从而更好地满足用户需求。

自文心一言发布以来,百度便强调检索增强的重要性,历经近两年时间,检索增强的价值已获得业界广泛认可。

百度研发的“理解 - 检索 - 生成”协同优化检索增强技术,提升了大模型技术及应用效果。

在理解阶段,借助大模型剖析用户需求,拆解知识点。

检索阶段,则针对大模型优化搜索排序,统一处理搜索返回的异构信息后提供给大模型。

而在生成阶段,综合多源信息进行判断,利用大模型的逻辑推理能力消解信息冲突,进而生成准确率高、时效性优的答案。

因此,如何让大模型回答得更准更丰富更有态度,文心一言算是给出了一种解法。

RAG技术堪称大模型的根基所在,它对大模型输出结果的影响极为关键且直接。

从回答的基础特性来看,其左右着回答内容的真实性,能否基于可靠事实给出回应;把控着时效性,确保答案贴合当下动态,不滞后于现实发展。

在丰富性层面,决定了回答是否能旁征博引、多元呈现;于专业性维度,关乎能否以专业知识深度剖析问题。

就连回答的结构搭建以及所呈现出的立场态度,也与RAG技术紧密相连。

当下,大模型领域竞争激烈,新技术、新成果不断涌现,各方似乎都热衷于展现前沿、高超的能力。

然而,无论如何 “炫技”,大模型最终的落脚点必然是切实的现实场景应用。

毕竟,只有扎实地掌握像RAG技术这类基础 “看家本领”,夯实根基,才能在实际运用中站稳脚跟,真正发挥大模型的价值。

ad1 webp
ad2 webp
ad1 webp
ad2 webp