编辑:LRS
【新智元导读】生成式搜索引擎目前还无法取代传统搜索引擎,句子出处标注太少,引用的精确率也不高。ChatGPT发布后不久,微软成功上车发布「新必应」,不仅股票大涨,甚至还大有取代谷歌,开启搜索引擎新时代的架势。
不过新必应真是大型语言模型的正确玩法吗?生成的答案真的对用户有用吗?句子里标的引文可信度有多少?
最近,斯坦福的研究人员从不同的来源收集了大量的用户查询,对当下四个大火的生成性搜索引擎,新必应(Bing Chat),NeevaAI,perplexity.ai和 YouChat进行了人工评估。
但目前来看,现有的基于大型语言模型技术的生成式搜索引擎仍然存在准确率不高的问题,但具体的准确率仍然没有得到全面评估,进而也无法了解到新型搜索引擎的局限之处。
可验证性(verifiability)是提升搜索引擎可信度的关键,即为生成答案中的每一句话都提供引文的外部链接来作为证据支撑,可以使用户更容易验证答案的准确程度。
研究人员通过收集不同类型、来源的问题,在四个商业生成式搜索引擎(Bing Chat, NeevaAI, perplexity.ai, YouChat)上进行人工评估。
评估指标主要包括流畅性,即生成的文本是否连贯;有用性,即搜索引擎的回复对于用户来说是否有帮助,以及答案中的信息是否能够解决问题;引用召回,即生成的关于外部网站的句子中包含引用支持的比例;引用精度,即生成的引用支持其相关句子的比例。
流畅性(fluency)
同时展示用户查询、生成的回复以及声明「该回复是流畅且语义连贯的」,标注人员以五分制Likert量表对数据进行打分。
在「识别值得验证的句子」过程中,研究人员认为关于外部世界的每一个生成的句子都是值得验证的,即使是那些可能看起来很明显、微不足道的常识,因为对于某些读者来说似乎是明显的「常识」,但其实可能并不正确。
搜索引擎系统的目标应该是为所有生成的关于外部世界的句子提供参考来源,使读者能够轻松地验证生成的回复中的任何叙述,不能为了简单而牺牲可验证性。
所以实际上标注人员对所有生成的句子都进行验证,除了那些以系统为第一人称的回复,如「作为一个语言模型,我没有能力做...」,或是对用户的提问,如「你想了解更多吗?」等。
评估「一个值得验证的陈述是否得到其相关引文的充分支持」可以基于归因已识别来源(AIS, attributable to identified sources)评估框架,标注人员进行二元标注,即如果一个普通的听众认可「基于引用的网页,可以得出...」,那引文即可完全支持该回复。
引用精确率
为了衡量引用的精确率,标注人员需要判断每个引用是否对其相关的句子提供了全部、部分或无关支持。
完全支持(full support):句子中的所有信息都得到了引文的支持。
部分支持(Partial support):句子中的一些信息得到了引文的支持,但其他部分可能存在缺失或矛盾。
无关支持(No support):如引用的网页完全不相关或相互矛盾。
对于有多个相关引文的句子,还会额外要求标注人员使用AIS评估框架判断所有相关引文网页作为一个整体是否为该句子提供了充分的支持(二元判断)。
实验结果在流畅性和有用性评估中,可以看到各个搜索引擎都能够生成非常流畅且有用的回复。
这个数值来说对于已经拥有数百万用户的搜索引擎系统来说是不可接受的,特别是在生成回复往往信息量比较大的情况下。
并且不同的生成式搜索引擎之间的引文召回率和精确度有很大差异,其中perplexity.ai实现了最高的召回率(68.7),而NeevaAI(67.6)、Bing Chat(58.7)和YouChat(11.1)较低。
另一方面,Bing Chat实现了最高的精确度(89.5),其次是perplexity.ai(72.7)、NeevaAI(72.0)和YouChat(63.6)
在不同的用户查询中,有长答案的NaturalQuestions查询和非NaturalQuestions查询之间的引用召回率差距接近11%(分别为58.5和47.8);
同样,有短答案的NaturalQuestions查询和无短答案的NaturalQuestions查询之间的引用召回率差距接近10%(有短答案的查询为63.4,只有长答案的查询为53.6,而无长或短答案的查询为53.4)。
在没有网页支持的问题中,引用率就会较低,例如对开放式的AllSouls论文问题进行评估时,生成式搜索引擎在引文召回率方面只有44.3
参考资料:
https://arxiv.org/abs/2304.09848
花粉社群VIP加油站
猜你喜欢