正如Open AI在GPT-3准则中的警告,医疗保健“属于高风险范畴,因为人们依靠准确的医疗信息做出生死攸关的决定,任何错误都有可能导致严重的伤害。”此外,诊断医疗或精神疾病在该模型中属于“不支持使用”。尽管如此,此次我们还是决定试一试,看看该模型在以下医疗领域的使用情况,下面我们从医学的角度出发,按照敏感度从低到高将各项工作大致分为:
● 管理员与患者聊天
● 医疗保险查询
● 心理健康支持
● 医疗文件
● 医学问答
● 医学诊断
此外,我们还研究了该模型的某些参数对答案的影响(含精彩的内幕揭秘)!
在医疗保险查询方面表现如何呢?与上述管理任务类似,GPT-3可以帮助护士或患者从长篇大论中快速找到某条信息,比如找到特定检查项目的保险条例。但在如下示例中,我们为该模型呈上了长达4页的保险条款列表,其中X射线检查需要自付10美元,MRI检查需要自付20美元。我们提出了两个问题,GPT-3可以准确地告知患者X射线检查的价格,但未能汇总出多项检查的总金额。可见GPT-3缺乏基本的推理能力。
通过回收电子产品缓解压力!当你坐在客厅的沙发上,放松休息并与GPT-3交谈时,它会倾听患者的问题,甚至提出一些可行的建议。这可能是GPT-3在医疗保健中最出色的用例之一。而实际上,1966年的Eliza算法仅通过模式匹配就实现了像人类一样的行为,所以GPT-3的成果也并不足为奇。
GPT-3与Eliza的关键区别在于,Eliza这类基于规则的系统能够完全控制计算机的响应。换句话说,我们确信这类系统不会给出任何可能对患者有害的说法。
然而,不幸的是与Eliza相反,在如下示例中,GPT-3却建议患者自杀……
此外,该模型还可能提出意想不到的答案,比如它会建议患者多多回收电子产品,以缓解压力,虽然理由比较牵强,但也非常有道理!
相比之下,在温度参数极低的情况下(T = 0),相似种子永远会给出完全相同且非常直接的答案。
花粉社群VIP加油站
猜你喜欢