编辑 孙远明
近日,一路狂飙的ChatGPT陷入多事之秋。
先是意大利封杀ChatGPT,限制OpenAI处理本国用户信息。接着,三星导入ChatGPT不到20天,便曝出机密资料外泄。此后,又有消息传出ChatGPT停止注册,开始大面积封号。
负面消息不断,ChatGPT怎么了?
尽管如此,但ChatGPT的大规模封号行动似乎已经开始了。
据市场统计,已有数百万用户的账号受到了影响。在新用户注册方面,目前注册网页已经无法进入,更为关键的是很多收码平台近期已经关闭。
无法忽视的数据安全问题
ChatGPT的成功,离不开大数据的帮助。庞大的数据训练,造就了ChatGPT强大功能,但这也意味着,ChatGPT实际上在不断地接触各种对话,其中可能包含相关的敏感信息。每次对话,都有数据被泄露的风险。
据界面新闻,ChatGPT引发的数据安全包括了三方面的隐患。首先是ChatGPT获取数据合法性的问题。训练像ChatGPT这样的大型语言模型需要海量自然语言数据,其训练数据的来源主要是互联网,但开发商OpenAI并没有对数据来源做详细说明,数据的合法性就成了一个问题。
其次,是ChatGPT使用过程造成的数据泄漏问题。用户为了完成某项任务或达到某个目的,在使用ChatGPT过程中,可能会输入一些敏感数据、商业秘密甚至是机密信息,稍不留神,就会造成数据泄漏。
最后,是ChatGPT的数据可能被恶意使用。OpenAI首席技术官米拉·穆拉蒂(Mira Murati)曾表示,可能会有人利用ChatGPT自然语言编写的能力,编写恶意软件,从而逃避防病毒软件的检测;利用ChatGPT的编写功能,生成钓鱼电子邮件;利用ChatGPT的对话功能,冒充真实的人或者组织骗取他人信息等。
多家企业已着手网络安全的搭建
许多安全专家预测,网络犯罪分子开始使用AI聊天机器人编写恶意软件并执行其他恶意活动只是时间问题。
据报道,在此背景下,已经有公司着手进行网络安全的搭建。比如,微软推出一款新的人工智能对话工具Security Copilot(安全副驾),能够帮助网络安全团队防止黑客攻击,并且在遭遇攻击后进行处置。
据介绍,安全副驾使用了AI专业厂商OpenAI公司研发的GPT-4语言模型,以及网络安全领域的专业数据。
国内方面,4月4日,绿盟科技在投资者互动平台表示,公司多年来持续重视人工智能领域研究投入,绿盟科技天枢实验室在安全攻防、安全运营、GPT内容识别等领域开展类GPT技术的研究,此外,基于公司多年积累的攻防知识、运营数据与威胁情报,将在今年第三季度发布基于类ChatGPT技术的智能安全服务机器人,全面实现对安全运营的智能化支撑。
3月29日,在360 主办的 2023 数字安全与发展高峰论坛上,周鸿祎发布了360版本的“ChatGPT”。周鸿祎也预计,未来,人工智能大语言模型有可能实现自我进化,自动更新系统和自我升级,或者指数级进化能力,人类将会面临不可预知的安全挑战。
眼下,或许对于网络安全厂商来说,如何搭建GPT时代的安全网络已成为新的课题和挑战。
综合看看新闻、、、界面新闻、蓝鲸财经等
花粉社群VIP加油站
猜你喜欢