最近,ChatGPT陷入了一系列不顺利的事件。首先,意大利对其进行了封杀,限制OpenAI处理本国用户信息,而且三星也曝出了ChatGPT机密资料外泄的问题。此外,还有消息称ChatGPT已经停止注册,大面积封号。
为了避免类似事情再次发生,三星公司已经告知员工要谨慎使用ChatGPT。如果后续仍发生类似事件,公司将考虑禁止员工在公司内网上使用ChatGPT。据报道,除了三星公司之外,许多公司也已经限制员工使用ChatGPT,如数据安全服务Cyberhaven就检测到并阻止了其客户公司160万名员工中4.2%的人将数据输入ChatGPT的请求,以避免泄露机密信息、客户数据、源代码或监管信息等风险。
还有一些分析认为,可能是因为访问量过大导致的技术问题,毕竟OpenAI此前也出现过宕机问题。很多安全专家认为,网络犯罪分子利用AI聊天机器人编写恶意软件并实施其他恶意行为只是时间问题。在这种情况下,一些公司已经开始提高网络安全。微软推出了一款名为Security Copilot(安全副驾)的新人工智能对话工具,可以帮助网络安全团队防止黑客攻击,以及在受到攻击后进行处置。该工具使用了AI专业厂商OpenAI公司开发的GPT-4语言模型,以及网络安全领域的专业数据。国内方面,绿盟科技表示其天枢实验室一直致力于人工智能领域的研究投入,在安全攻防、安全运营、GPT内容识别等领域开展类GPT技术的研究。
基于公司多年积累的攻防知识、运营数据与威胁情报,该公司计划在今年第三季度发布基于类ChatGPT技术的智能安全服务机器人,全面实现对安全运营的智能化支撑。此外,周鸿祎在3月29日360主办的2023数字安全与发展高峰论坛上发布了360版本的“ChatGPT”。他预计未来,人工智能大语言模型有可能实现自我进化,自动更新系统和自我升级,或者指数级进化能力,人类将会面临不可预知的安全挑战。因此,对于网络安全厂商来说,如何搭建GPT时代的安全网络已经成为新的课题和挑战。
花粉社群VIP加油站
猜你喜欢