花粉乐分享平台宣传视频
> 乐学堂 > > OpenAI:4年内控制超级智能,提升ChatGPT等安全
OpenAI:4年内控制超级智能,提升ChatGPT等安全
来源:AIGC开放社区
2023-07-08 15:06:52
289
管理

7月6日, OpenAI在官网宣布,将组建一支由Ilya Sutskever(OpenAI联合创始人兼首席科学家)和Jan Leike领导的人工智能对齐团队,用来引导、控制超级智能,同时提升ChatGPT等产品的安全性。

OpenAI表示,4年之内将解决这些难题,并将目前20%的算力用于该项目。

超级智能将是人类发明的最具影响力的技术之一,可以帮助我们解决世界上许多难题。但超级智能的巨大力量也可能非常危险,并导致人类失去控制权,甚至灭绝人类。虽然超级智能还很遥远,但OpenAI认为,10年之内就很有可能实现。

目前,OpenAI还没有一个明确的解决方案来引导或控制超级人工智能。当下可控制的人工智能技术,例如,根据人类反馈进行强化学习,依赖于人类监督的AI能力等。

但人类无法可靠地监督,比我们聪明多的AI系统, 因此,我们目前的对齐技术无法扩展到超级智能,需要新的科学技术突破。

4年内解决超级智能对齐问题

为了控制、引导超级智能对齐问题,OpenAI组建了一支由Ilya Sutskever(OpenAI联合创始人兼首席科学家)和Jan Leike领导的人工智能对齐团队——Superalignment。

超级智能对齐从根本上来说是一个机器学习问题,所以,OpenAI寻求全球优秀的机器学习人才加入这个团队共同实现这一伟大目标。

同时该团队也是对OpenAI现有工作的补充,可提升ChatGPT等产品的安全性,包括非法滥用、经济破坏、虚假信息、偏见和歧视、数据隐私和其他可能出现的问题。

OpenAI的方法

建立一个大致达到人类水平的自动对齐系统。然后,可以使用大量算力来扩展工作,并调整超级智能。

1、开发可扩展的训练方法:为了针对人类难以评估的任务提供训练方法,可以通过人工智能系统来协助评估,其他人工智能系统 (可扩展的监督)。此外,OpenAI希望了解和控制其模型,将监督应用到无法监督的任务(泛化)上。

2、验证生成的模型:为了验证系统的一致性,OpenAI将自动搜索有问题的行为 (稳定性)和有问题的内部结构(自动可解释性)。

3、对整个对齐管道进行压力测试:可以通过故意训练未对准的模型,来测试整个安全流程,并确认技术检测到最差的未对准类型(对抗性测试)。

OpenAI预计,随着对超级智能对齐了解越来越多,研究重点将会发生重大变化,可能会增加全新的研究领域。未来,会分享更多有关技术研究路线图的信息。

关于AI对齐

AI对齐是指,使人工智能系统的目标和行为,与人类价值观和目标保持一致。这是AI安全和伦理中的一个重要环节。

AI对齐问题涉及到如何设计和实施人工智能系统,以便它们执行的任务或做出的决策能够反映出设计者或用户的意图和价值观。这个问题在高级AI(例如,通用人工智能或超级人工智能)中更为重要。

因为这些AI可能具有极大的自主性和能力,如果它们的目标与人类的目标不一致,可能会带来严重的后果。

解决AI对齐问题需要在伦理、决策理论、机器学习等多个领域进行深入的研究。例如,需要研究如何在没有明确指示的情况下,让AI推断出人类的价值观,以及如何设计可以安全地学习和改进其行为的AI系统。

花粉社群VIP加油站

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与花粉乐分享无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
凡本网注明 “来源:XXX(非花粉乐分享)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。
如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。
QQ:2443165046 邮箱:info@hflfx.com
关于作者
不吃点心会饿..(小蜜蜂)
文章
472
主题
0
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行
随手拍
54个圈友 0个话题
华为手机随手拍,记录生活点滴之美好
华为P30pro
51个圈友 0个话题
这里是华为P30pro手机交流圈,欢迎华为P30pro用户进群交流
体验官
60个圈友 2个话题
华为花粉体验官,体验官专属的交流群
登录后查看您创建的圈子
登录后查看您创建的圈子
所有圈子
猜你喜欢
杭州互联网违法和不良信息举报平台 网络110报警服务 浙ICP备17046585号
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索