大家好,我是水皮,欢迎各位来到ESG会客厅,我们今天跟大家聊一聊ChatGPT的下半场该怎么走?
假到真时真亦假。
我不知道大家还有没有印象,当初克隆技术出现之后,马上我们就面临一个问题:“克隆人”算不算人?实际上,这是一个科研伦理的问题,也是一个道德的问题。现在大家好像很少再讨论这个问题了,这个问题好像已经翻篇了。
我想,作为一门技术,它是没什么边界的,但是人们使用它是有边界的,是不是这个道理?
真假难分是好事还是坏事?
实际上,现在ChatGPT也面临这么一个问题。一方面,它特别火爆,因为这种应用大家觉得非常新鲜,而且能够提高劳动效率。但另外一方面,大家也会发现,如果真的都用ChatGPT来写文章的话,很难知道这篇文章究竟是水皮写的,还是ChatGPT写的,是吧?
包括以后视频动画技术再成熟一点的话,你很难判断现在面对的跟大家说话的人,究竟是真的水皮,还是假的水皮?因为从技术角度来讲,已经有人跟我探讨过,这完全是OK的,就是你现在面对的水皮完全是一个模型,手势、动作、表情基本上跟真的一样,文章也好,讲话也好,根本就不是他自己出镜,而是有一篇稿件机器在读,然后仿声仿行这么一种结果。所以,我脑子里就出现这么一种概念,真的还是假的?
ChatGPT的潜在风险
当然,水皮能够想到这些问题,我想市场上很多朋友也都会想到这样的问题。
我们看到,3月29日的时候,包括世界首富、OpenAI联合创始人、马斯克等人在内的1000多名科技大佬联名呼吁立即暂停训练比GPT-4更强大的AI系统至少6个月。
现在从国家层面上来看,第一个跳出来反对的是意大利,意大利已经宣布禁止使用ChatGPT,而且限制OpenAI公司处理意大利用户信息,同时开始立案调查。理由就是没有任何法律表明,ChatGPT为了“训练”平台背后的算法而大量收集和储存个人数据是合法的。
意大利禁用之后,德国监管机构也表示考虑暂时禁用ChatGPT,法国、爱尔兰、西班牙这些欧洲国家也开始考虑对AI聊天机器人采取更严格的一个监管。
各国企业也抛出了负面的反馈,比如说,三星电子引入ChatGPT不到20天就泄漏了三星内部机密,涉及半导体设备测量资料、产品良率等等。原因就在于三星员工使用过ChatGPT,从而使得ChatGPT留下了三星的相关信息。也就是说,三星的机密信息很有可能已经存入到ChatGPT的数据库里面去了。
目前,三星、韩国SK海力士、摩根大通、亚马逊、微软和沃尔玛等公司都在限制或者要求员工谨慎使用ChatGPT,就是防止信息泄露。纽约的教育系统更是全面“封杀”ChatGPT。
最近两天,ChatGPT平台突然大量封禁OpenAI账号,尤其是使用中文对话的用户。因为大家都知道,我们的好奇心是特别强的,技术应用的开发中国人说第二,没有人敢说第一。实际上,ChatGPT面临着被中国用户玩废了的一个风险。
上述这些话兜兜转转实际上还是集中在一个风险问题上面,特别值得注意的是,里面还涉及我们一开始就跟大家说的道德风险。因为现在有一个最新例子,比利时有人因为跟AI聊天机器人Chai聊天,聊着聊着情绪不断被引导,最后自杀了。
你看,是不是把潜在的风险变成了一个非常现实的风险?因为并不是所有的人都能自控自己的意识的,如果意志力薄弱一点的话,真有可能被ChatGPT带着跑,那最后不就是电脑主导人脑了吗?如果真的那一天发生了的话,是不是一个很恐怖的事情?
花粉社群VIP加油站
猜你喜欢