人民日报出版社主管 人民周刊杂志社主办

010-65363526rmzk001@163.com
首页 > 栏目 > 科学 > 正文

“以毒攻毒”!识别大模型“一本正经胡说八道”

赵广立     2024-06-19 10:27:20    中国科学报

6月18日,《自然》发表的一项研究报道了一种能检测大语言模型(LLM)幻觉(hallucination)的方法,该方法能检测生成回答的含义的不确定性,或能用于提升LLM输出的可靠性。

LLM(如ChatGPT和Gemini)是能阅读和生成人类自然语言的人工智能系统。不过,这类系统很容易产生幻觉,生成不准确或没有意义的内容,即“一本正经地胡说八道”。不过,检测LLM出现幻觉的程度很难,因为这些回答的呈现方式可能会让它们看起来很可信。 

来自英国牛津大学的Sebastian Farquhar和同事尝试量化一个LLM产生幻觉的程度,进而判断生成的内容有多“忠于”提供的源内容。他们的方法能检测“编造”(confabulation)——这是“幻觉”的一个子类别,特指不准确和随意的内容,常出现在LLM缺乏某类知识的情况下。这种方法考虑了语言的微妙差别,以及回答如何能以不同的方式表达,从而拥有不同的含义。他们的研究表明,这一方法能在LLM生成的个人简介,以及关于琐事、常识和生命科学这类话题的回答中识别出“胡说八道”的内容。

不过,Sebastian Farquhar等人的研究方法,也离不开大模型这一得力工具。《自然》同时发表的“新闻与观点”文章指出,该任务由一个大语言模型完成,并通过第三个大语言模型进行评价,相当于是“以毒攻毒”。

该文作者同时也在担忧,用一个大模型评估一种基于大模型的方法“似乎是在循环论证,而且可能有偏差”。不过,作者认为,他们的方法有望帮助用户理解在哪些情况下使用LLM的回答需要注意,也意味着可以提高LLM在应用场景中的置信度。

(责编:赵珊)

相关热词搜索:

上一篇:看大型设备如何奔赴建设一线
下一篇:最后一页

人民周刊网版权及免责声明:

1.凡本网注明“来源:人民周刊网”或“来源:人民周刊”的所有作品,版权均属于人民周刊网(本网另有声明的除外);未经本网授权,任何单位及个人不得转载、摘编或以其它方式使用上述作品;已经与本网签署相关授权使用协议的单位及个人,应注意作品中是否有相应的授权使用限制声明,不得违反限制声明,且在授权范围内使用时应注明“来源:人民周刊网”或“来源:人民周刊”。违反前述声明者,本网将追究其相关法律责任。

2.本网所有的图片作品中,即使注明“来源:人民周刊网”及/或标有“人民周刊网(www.peopleweekly.cn)”“人民周刊”水印,但并不代表本网对该等图片作品享有许可他人使用的权利;已经与本网签署相关授权使用协议的单位及个人,仅有权在授权范围内使用图片中明确注明“人民周刊网记者XXX摄”或“人民周刊记者XXX摄”的图片作品,否则,一切不利后果自行承担。

3.凡本网注明“来源:XXX(非人民周刊网或人民周刊)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。

4.如因作品内容、版权和其它问题需要同本网联系的,请在30日内进行。

※ 联系电话:010-65363526 邮箱:rmzk001@163.com