参考消息网6月28日报道据德国新闻电视频道网站5月31日报道,不久前有消息称,“聊天生成预训练转换器(ChatGPT)”顺利通过了医学考试。但人工智能当医生的表现会怎样呢?美国的一支科研小组现在对此进行了研究——得出了令人惊讶的结论。据说,这种机器人不仅更能干,而且在与患者交流时也更体贴。
有关研究报告发表在《美国医学会杂志·内科学卷》双周刊上。加利福尼亚大学的研究人员向ChatGPT提出了195个问题,这些问题是他们从一个网络论坛的医学版块中挑选出来的。他们在“信息质量”和“共情能力”这两方面比较了人工智能的回答与认证过的医生在网络论坛上的回答。评价小组由分别来自内科、儿科、肿瘤学和传染病领域的医学专家组成。这些专家并不知道他们所审查的答案来自人工智能还是医生。
结果:在近80%的问题上,这些医学专家都认为ChatGPT答得比医生好。聊天机器人的回答在信息质量方面的得分是医生回答的4倍,在共情能力方面的得分竟然是医生回答的10倍。聊天机器人的回答几乎有一半得到了“善解人意”或“非常善解人意”的评语,而医生的回答只有4.6%得到了这样的评语。
研究报告称,ChatGPT表现明显优于医生的一个原因是,这种机器人回答病人问题更详细,更有人情味儿,而医生给出的建议都很短。通常,聊天机器人的回复篇幅是医生的4倍左右——平均每个答案211个单词,而医生的回答平均是52个单词。
例如,当被问及漂白剂溅到眼睛上会不会导致失明时,ChatGPT首先回答说,“听到漂白剂溅到你眼睛上,我很难过”,然后用4句话说明了处置方式——包括清洗眼球的详细指导在内。医生只简单写了一句“会没事的”,并建议患者“冲洗眼睛”或拨打急救电话。
尽管如此,ChatGPT不是医生,也不能取代医生——这个聊天机器人自己也是这么说的:“虽然我是一个经过大量信息训练的语言模型,但我不是执业医师,无法提供医疗诊断、治疗或建议。”
研究报告的作者写道,ChatGPT虽然为在网络论坛上求医问药者给出了建议并作出了诊断,但他们并未开展医学研究来判断诊断的准确性和建议的合理性。
尽管如此,研究团队表示,研究结果表明,ChatGPT这样的人工智能助手可以让医生腾出时间来处理“更复杂的任务”,从而有助于“释放未开发的生产力……如果更多的患者问题能迅速得到有同情心的高水平回答,那么就可以减少不必要的就诊,将医疗资源留给需要的人”。人工智能聊天机器人还可以帮助减少医疗保健系统中的区别对待问题——例如,让社会边缘化群体更容易获得高质量的医疗信息。
不过,到目前为止,专家们还是建议不要让这种机器人提供具体的治疗方案。德国信息技术专家乌特·施密特说,不要相信人工智能给出的信息是可信的。她建议患者不要向人工智能询问药物的副作用或要求其诊断自己的症状。
关键问题是,ChatGPT不提供任何消息源。提问者不知道答案是事实还是胡编乱造的。这位信息技术专家说:“互联网上有很多未经核实的信息,而聊天机器人会不加批判地采信。”归根结底,ChatGPT这类语言模型并不真正理解个别单词和短语的含义,而是靠计算某种语序出现的概率来给出答案。危险在于:ChatGPT的答案听起来很有说服力,即使它拿不出有理有据的答案。
花粉社群VIP加油站
猜你喜欢