人工智能在过去十年取得了巨大的进步,但我们从未见过人工智能研究人员像现在这样兴奋——一种名为GPT-3的新系统的问世改变了人工智能的格局。那么GPT-3是什么,它将带来什么影响呢?
GPT-3的今生前世
GPT是生成前训练(Generative Pre-training Transformer)的简称,是一种语言模型,2018年由埃隆·马斯克的人工智能研究实验室OpenAI发布。它采用了生成式语言模型,通过对不同的书面材料集与长篇连载文本的预训练,能够获取世界知识并自主处理文本。这意味着,你向它输入一些文本,它可以自主以文本响应。经过数次测试,研究人员表明,由它生成的新闻文章通常很难判断是机器人编写的。
GPT-3的前身GPT于2018年发布,包含1.17亿个参数。2019年发布的GPT-2包含15亿个参数。相比之下,GPT-3是AI世界最新、最强大的工具,它在一系列任务中都达到了最先进的水平。它的主要突破是不再需要针对特定任务进行微调编码(它会自主调整)。在规模方面,这个模型再次大幅扩展,达到了1750亿个参数,是其前身的116倍。虽然GPT-3完全不需要人为训练,但经过一次或几次学习后,原本就已出类拔萃的性能还会更加登峰造极。
另一个严重的问题是GPT-3的输出存在偏见。英伟达的AI专家安纳库玛(Anima Anandkumar)教授指出,GPT-3在部分程度上接受了很多歧视性语言,并且根据此数据构建的模型产生的文本有“令人震惊的偏向性”。
人工智能越来越聪明不一定是好消息
在过去的几年里,“狭义人工智”能取得了非凡的进步。人工智能系统在翻译、国际象棋和围棋等游戏、重要的生物学研究问题(如预测蛋白质折叠和生成图像)方面都有了显著的改进。
但是狭义的人工智能正在变得不那么狭义,人类开始让计算机系统自己学习,这逐渐带来了一些问题——在美国,当你训练一个计算机系统来预测哪些罪犯会再次犯罪时,你使用的是一个对黑人和低收入人群有偏见的刑事司法系统的输入,所以它的输出结果很可能也会对黑人和低收入人群有偏见。当你发布一个写有说服力的假评论或假新闻的程序,可能会让这些评论或假新闻广为传播,让真相更难被曝光。
加州大学伯克利分校人类兼容人工智能中心(Center for human compatible AI)的罗西•坎贝尔(Rosie Campbell)教授认为,这些例子说明了专家们对未来人工智能的巨大担忧。但关于GPT-3最令人不安的事情之一是,它反馈给人类的是我们所要求的,而不是我们想要的。
如果你给GPT-3一个“这是一个小故事”的提示,它会写出一个明显平庸的故事。如果你用“这是一个获奖的短篇故事”来提示它,它会写得更好。因为它是在互联网上训练的,而互联网上的大多数故事都是不好的,而它的动机不是想出最好的文本或我们最想要的文本,只是看起来最符合我们给出的提示的文本。
目前,尽管人们已经用GPT-3来写关于GPT-3欺骗人类的计划的宣言,但GPT-3还远没有强大到足以造成人工智能科学家警告的风险。但可以预见,总有一天,我们会拥有能够像人类一样推理的计算机系统。所以,尽管从算法的角度来看,GPT-3机器学习模型并不是革命性的,但它仍将开创人机交互的新时代,GPT-3预示着一场科技的民主革命。
iWeekly周末画报独家稿件,未经许可,请勿转载
花粉社群VIP加油站
猜你喜欢