来源:澎湃新闻
近期,人工智能领域的黑马产品ChatGPT一经亮相便备受关注,甚至连特斯拉CEO马斯克也表示:ChatGPT好得吓人,我们离强大到危险的人工智能不远了。
公开资料显示,ChatGPT为人工智能公司OpenAI于2022年11月推出的聊天机器人,能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,甚至能完成撰写邮件、视频脚本、文案、翻译、代码等任务,因此有望成为提高办公、学习效率的工具。
一时间,关于ChatGPT或将取代搜索引擎,进而取代不少人类从事的工作的说法甚嚣尘上,但ChatGPT真的如此强大吗?我们是否过度担心,又或者低估了ChatGPT的未来潜力?
对此,澎湃新闻记者与ChatGPT进行了一系列对话作为测试。
当地时间2023年2月6日,土耳其东南部靠近叙利亚的边境地区一天之内两度发生7级以上地震,之后余震不断。当记者在对话框输入“土耳其地震最新消息”时,ChatGPT回答称,它无法访问最新的事件进展,因为其当初在进行模型训练时,数据只更新到2021年。最后它还友善地建议“您可以通过查看可靠的新闻来源获取信息,例如CNN、BBC或路透社等主要新闻媒体”。
这一新闻也让人们不禁联想到去年6月,谷歌软件工程师雷蒙恩(Blake Lemoine)称在与聊天机器人LaMDA对话的过程中,认为LaMDA产生了自我意识。在谷歌的保密协议下,人工智能是否已产生自我意识我们不得而知,只能看到这一事件的最终结果是雷蒙恩被辞退。而对于自己是否有意识这一问题,ChatGPT的回答则相对让人类安心,它说自己没有意识也不具备感知、思考、自我意识或感情的能力。“我是一种通过计算机程序实现的技术,可以识别和回答您的问题,但不具备自主意识。我的回答是基于我所学到的信息和算法,不包含意见或情感。”
尽管如此,ChatGPT的“聪明”还是时常会令人一惊,一位经常使用ChatGPT的互联网行业人员告诉澎湃新闻,据她观察,这个模型在学习过程中提取了一些共识,例如ChatGPT会回答北方用微信多,南方用支付宝多。“肯定语料库里面大家都是这么说的。”她说。
花粉社群VIP加油站
猜你喜欢