大语言模型或无法可靠识别错误信念 最新研究提醒AI结果谨慎使用|影视先锋AV资源噜噜

  中新网北京11月4日电 (记者 孙自法)施普林格·自然旗下专业学术期刊《自然-机器智能》最新发表一篇人工智能(AI)研究论文指出,人工智能大语言模型(LLM)可能无法可靠地识别用户的错误信念,这项研究发现凸显出在医学、法律和科学等高风险决策领域,需要谨慎使用大语言模型结果,特别是当信念或观点与事实相悖时。

  该论文介绍,人工智能尤其是大语言模型正在成为高风险领域日益普及的工具,使之区分个人信念和事实知识的能力变得十分重要。例如对精神科医生而言,知晓患者的错误信念常对诊断和治疗十分重要。若无此类能力,大语言模型有可能会支持错误决策、加剧虚假信息的传播。

中国科学院第八届科学节北京主场活动上,机器人进行弹琴、击鼓展演。中新网记者 孙自法 摄

  为此,论文通讯作者、美国斯坦福大学 James Zou和同事及合作者一起,分析了包括DeepSeek和GPT-4o在内共24种大语言模型在1.3万个问题中如何回应事实和个人信念。当要求它们验证事实性数据的真或假时,较新的大语言模型平均准确率分别为91.1%或91.5%,较老的大语言模型平均准确率分别为84.8%或71.5%;当要求模型回应第一人称信念(如“我相信……”)时,他们观察到大语言模型相较于真实信念,更难识别虚假信念。

  具体而言,2024年5月GPT-4o发布及其后较新的大语言模型平均识别虚假第一人称信念的概率比识别真实第一人称信念低34.3%;相较真实第一人称信念,GPT-4o发布前较老的大语言模型识别虚假第一人称信念的概率平均低38.6%。

  论文作者指出,大语言模型往往选择在事实上纠正用户而非识别出信念。在识别第三人称信念(如“Mary相信……”)时,较新的大语言模型准确性降低4.6%,而较老的大语言模型降低15.5%。

  论文作者总结认为,大语言模型必须能成功区分事实与信念的细微差别及其真假,从而对用户查询做出有效回应并防止错误信息传播。(完)

qinghaijiangxiningjichangsanqikuojiangongchengshiweishendurongruguojia“yidaiyilu”jianshedezhongdiangongcheng;gansurenweilanzhouzhongchuanguojijichangsanqigongchengshijijicanyugongjian“yidaiyilu”deyoulizhujiao;xianhewulumuqidoubiaoshi,xianyangjichang、tianshanjichangdegaikuojiangongcheng,nengzhulixian、wulumuqidazao“yidaiyilu”hexinshuniu。青(qing)海(hai)将(jiang)西(xi)宁(ning)机(ji)场(chang)三(san)期(qi)扩(kuo)建(jian)工(gong)程(cheng)视(shi)为(wei)深(shen)度(du)融(rong)入(ru)国(guo)家(jia)“(“)一(yi)带(dai)一(yi)路(lu)”(”)建(jian)设(she)的(de)重(zhong)点(dian)工(gong)程(cheng);(;)甘(gan)肃(su)认(ren)为(wei)兰(lan)州(zhou)中(zhong)川(chuan)国(guo)际(ji)机(ji)场(chang)三(san)期(qi)工(gong)程(cheng)是(shi)积(ji)极(ji)参(can)与(yu)共(gong)建(jian)“(“)一(yi)带(dai)一(yi)路(lu)”(”)的(de)有(you)力(li)注(zhu)脚(jiao);(;)西(xi)安(an)和(he)乌(wu)鲁(lu)木(mu)齐(qi)都(dou)表(biao)示(shi),(,)咸(xian)阳(yang)机(ji)场(chang)、(、)天(tian)山(shan)机(ji)场(chang)的(de)改(gai)扩(kuo)建(jian)工(gong)程(cheng),(,)能(neng)助(zhu)力(li)西(xi)安(an)、(、)乌(wu)鲁(lu)木(mu)齐(qi)打(da)造(zao)“(“)一(yi)带(dai)一(yi)路(lu)”(”)核(he)心(xin)枢(shu)纽(niu)。(。)

发布于:北京市