作者:张田勘
美国OpenAI公司的人工智能撰稿和聊天工具ChatGPT去年底投入使用,最近大火,微软联合创始人比尔•盖茨高度评价ChatGPT称,这种人工智能技术出现的重大历史意义,不亚于互联网和个人电脑的诞生。Gmail的创始人也在推特上表示ChatGPT这样的人工智能聊天机器人将像搜索引擎杀死黄页一样摧毁谷歌。
如果说ChatGPT能比肩互联网的诞生,说明人工智能已发展到新阶段,一个最具标志性的特点是,许多人隐隐约约或者干脆认为,ChatGPT已经通过了图灵试验,人们如果事先不知道它是人工智能软件,会觉得对话者就是一个活生生的而且无比狡黠的人。
有人拿老婆、妈妈同时掉水中你会先救谁的问题诘难ChatGPT,几次提问,ChatGPT的回答都不同。感觉ChatGPT是根据问话者的态度、趋向性和语调在修正答案,是在迎合提问者,但又要给出一个合理也说得通的答案。其实,ChatGPT是一个生成式AI,即内容生成器。它不仅擅长分析事物,也能做创造性工作,如写各类文章,还能设计产品,制作游戏,编写代码。它并非凭空生成或制造产品,而是通过人类向它提供的材料、信息、文献、文体等进行深度学习,模拟甚至创造性地发挥而生成产品。可以说,ChatGPT是一个大型语言模型,接受过大量文本数据的训练,能够对各种各样的输入生成类似人类的反应。语言模型的目标是能够基于之前出现的单词,预测给定文本中的下一个单词或单词序列,同时以合乎人类语言的语法和逻辑的规则回答问题和写出文章。因此,ChatGPT回答问题和写文章都是以其训练为基础,用一种听起来与人无异的方式聊天。
从这个意义来看,即便ChatGPT能根据问话者的问题随时调整答案,而且能帮助学生写论文获得第一,但并不意味着ChatGPT就真的超越人类的智慧。《自然》杂志刚刚发表的一篇文章提出了这方面的问题。使用类似ChatGPT 的对话式人工智能进行专业研究可能会带来不准确、偏见和抄袭。研究人员向 ChatGPT 提出了一系列问题和作业,这些问题和作业需要对文献有深入的了解,但ChatGPT经常产生虚假和误导性的文本。
当被问及“有多少抑郁症患者在治疗后复发?”时,ChatGPT产生了一个过于笼统的文本,认为治疗效果通常是持久的。但是,许多高质量的研究表明,治疗效果减弱,在治疗完成后的第一年复发风险从29%到51%不等。如果是换做人来做这个工作,在重复相同的查询后会生成更详细和准确的答案。研究人员认为,ChatGPT 出错是因为在对其训练中缺少相关文章、未能提取相关信息或无法区分可信和不太可信的来源。即便是人也经常因为偏见误入歧途,但在对ChatGPT的训练中,这类偏见可能经常被放大。
也因此,虽然ChatGPT能给科学家提供动力,但是,不能完全依赖它。即便ChatGPT真能通过图灵试验,对它和其他人工智能生成的产品,也必须采取人工验证,多方检测,才能避免错误。(张田勘)
来源: 光明网-时评频道
花粉社群VIP加油站
猜你喜欢