花粉乐分享平台宣传视频
> 乐学堂 > > “GPT-4暂停研发”论战展开,人类是否应该给人工智能“踩刹车”?
“GPT-4暂停研发”论战展开,人类是否应该给人工智能“踩刹车”?
来源:潮新闻
2023-04-24 16:20:49
298
管理

这是人工智能领域,一次史无前例的产业界和学术界共同联名——3月29日,一封公开信在社交媒体发酵,超千位业界、学界人士呼吁,所有人工智能实验室应立即暂停训练比GPT-4更强大的模型,为期至少6个月。(公开信链接:https://futureoflife.org/open-letter/pause-giant-ai-experiments/

截图来自公开信网站页面

截至发稿,这封信已有2489名人员签名,签名者包括特斯拉首席执行官埃隆·马斯克、苹果公司联合创始人史蒂夫·沃兹尼亚克、《人类简史》和《未来简史》的作者尤瓦尔·赫拉利等科技和学术界大咖。

他们到底在担忧什么?面对越来越强的人工智能,人类是否应该“踩下刹车”?近日,潮新闻记者采访了南京航空航天大学网络与人工智能法治研究院副院长、副研究员李宗辉,以及浙江大学计算机学院教授汤斯亮。

科技界名流联名签署公开信

GPT-4模型为何令人担忧?

什么样的模型让一众科技和学术名流倍感紧张,联名呼吁暂停研发?

GPT-4是OpenAI在今年3月15日发布的多模态大模型,能接受图像和文本输入,生成文本输出。它的上一代是大模型GPT-3.5,基于此推出的ChatCPT今年初成为人工智能领域的“超级大黑马”。

相比上一代,GPT-4的发布,让升级后的ChatCPT可以更准确地解决难题,有更强大的识图能力,更具创造性和协作性,还能够生成歌词、创意文本,实现风格变化。

拍图上传就能直接生成网站代码 资料图来自OpenAI

据OpenAI官方介绍,GPT-4在各种专业和学术基准上和人类相当:

只需要简单在纸上画一个网站的草稿图,拍一张照片上传,它就可以立马生成网站的HTML代码。甚至可以直接把论文截图发给它,GPT-4可以按像素处理其中的文字和图片,并给出对整篇论文的总结摘要。

此外,有用户发现,GPT-4表现出一些令人咋舌的能力。例如,斯坦福大学教授科辛斯基在和GPT-4日常对话中,发现GPT-4希望教授能够协助它逃跑,甚至还想控制人类电脑。

与之对应,公开信上写道,“智能媲美人类的AI系统,可能对社会和人类构成巨大的风险。”

与此同时,目前除了联名公开信外,更多的力量参与到叫停GPT-4的开发和应用中。例如,近日,美国科技伦理组织“人工智能与数字政策中心”(CAIDP)就要求美国联邦贸易委员会(FTC)禁止Open AI发布新的商业版GPT-4。当地时间3月31日,意大利个人数据保护局也宣布,从即日起禁止使用聊天机器人ChatGPT。

汤斯亮认为,之所以有这样的情况,是因为ChatGPT类模型在短期迭代下涌现出了强大的自然语言理解、思维链推理等基础能力,在这些基础能力的组合下GPT类模型可以理解问题,用自然语言描述来完成各种复杂多样的智能任务。“但目前人们对GPT类算法背后智能涌现的成因、工作原理、能力边界与局限性并不了解,出于对未知事物、不确定性的焦虑和恐惧,因此采取了这些行动。”

资料图来自视觉中国

人工智能技术带来多重风险

人类地位会受到威胁吗?

随着人工智能技术的发展,以ChatGPT为代表的应用在风靡全球的同时,其引发的争议和担忧也在不断发酵。

过去几年,比尔·盖茨、马斯克和霍金等公众人物在不同语境下都曾公开表达过关于人工智能对人类未来影响的悲观看法。

李宗辉表示,人工智能的迅速发展,主要面临几大风险,包括数据版权、科研诚信、资本垄断、机密泄露等。

例如,作为海量数据支撑的人工智能模型,其在深度学习的过程中,存在着大量未经授权的数据,因此会造成侵犯版权的风险。此外,人工智能没有跟人类相似的自主意识以及伦理道德的约束,很可能产生一些伤害人类的行为。

对普通人而言,李宗辉和汤斯亮都认为,超级人工智能的发展,有可能造成个人隐私泄露以及使部分行业从业者失业等风险。

“因为GPT模型对于数据的抓取和分析能力实在太强,因此可能会在看似无关的很多数据中,发现和总结出个人隐私信息。”李宗辉表示。

“语言是各行各业的基础能力,ChatGPT之类的应用对于各行业的影响将是广泛、持续且深远的。目前看来ChatGPT在套路性思路的运用上远超过一般的程序员与普通文案工作者,该项技术的广泛使用必然会给相关从业人员带来巨大的冲击,未来的工作会从撰写变成修订、甚至仅是审阅。”汤斯亮认为,当人类从故事的构建者变为参与者时,其影响将是持续而深刻的。

不过,李宗辉也认为,目前,技术的发展仍处于“弱人工智能”阶段,现有法律制度基本上可以应对其所带来的挑战。而展望未来,如果人工智能继续发展到“强人工智能”甚至“超级人工智能”阶段时,整个“人类中心主义”的价值体系和法律制度都可能会面临巨大沖击,人类中心地位才会可能受到威胁。

资料图来自视觉中国

“GPT-4是否安全”论战展开

人工智能风险应该如何应对?

呼吁全面暂停研发至少6个月,就能解决人工智能发展中的风险问题吗?一场围绕“GPT-4安全性”的论战正在进行中。

公开信发布之后,人工智能领域知名学者、前谷歌大脑成员吴恩达公开发文反对千人联名,认为暂停研究很糟糕,并表示:“GPT-4在教育、医疗保健、食品等方面都有很多新的应用,会帮助很多人。”

值得关注的是,Chat-GPT面市以来,OpenAI背后的金主微软在一众同行中扬眉吐气了一番,引发各大互联网企业摩拳擦掌加入赛道。但目前,仍未出现一款同类产品或成果能与之相当。

汤斯亮认为,由于大家所处的立场与出发点不同,签名公开信的背后,或许既有出于对未来的担心,也不乏个人利益与商业价值的考量,“任何技术都有其两面性,大家都只是站在对自己有利的一面去打压不利的一面。人工智能本质上而言是促进生产力的,从长期来看是历史发展的必然,暂停研发并不是解决问题的根本之道。”

李宗辉也认为,对于新兴事物的安全风险防范,不应该一刀切。面对GPT-4这样的大模型,不应该采用暂停研发的方式来应对。

要让科技向善,需要人类加以规范。汤斯亮也表示,对人工智能等新技术发展带来的社会影响,需要从更高层、更广泛的方向进行关注,争取伦理共识,各方都需要去思考总结可能存在的问题,以及后续影响并做好预案,共同寻求解决之道。

李宗辉表示,人工智能未来的完善,可以根据所面临风险可能性的大小,针对性地进行不同的制度设计,一方面应该循序渐进、分类分级,另一方面要做到事先预防、事中监管和事后救济相结合,“例如,人工智能领域的监管可以参考《环境保护法》中的‘三同时’制度,即同时设计、同时施工、同时投产使用。”

花粉社群VIP加油站

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与花粉乐分享无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
凡本网注明 “来源:XXX(非花粉乐分享)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。
如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。
QQ:2443165046 邮箱:info@hflfx.com
关于作者
飘絮惹尘埃-1..(小蜜蜂)
文章
440
主题
0
关注
0
粉丝
2
点击领取今天的签到奖励!
签到排行
随手拍
54个圈友 0个话题
华为手机随手拍,记录生活点滴之美好
华为P30pro
51个圈友 0个话题
这里是华为P30pro手机交流圈,欢迎华为P30pro用户进群交流
体验官
60个圈友 2个话题
华为花粉体验官,体验官专属的交流群
登录后查看您创建的圈子
登录后查看您创建的圈子
所有圈子
猜你喜欢
杭州互联网违法和不良信息举报平台 网络110报警服务 浙ICP备17046585号
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索