在阅读此文之前,辛苦点击右上角的“关注”,既方便您进行讨论与分享,又能给您带来不一样的参与感,感谢您的支持!
文章共计1700多字,阅读预计需要8分钟
想象一下这样的未来一个实体拥有地球上每个人及其习惯的大量信息(因为互联网搜索),它可以用我们无法意识到的方式控制我们。
最糟糕的场景并不是人类与机器人之间的战争。
最糟糕的是,我们没有意识到自己被操纵了,因为我们与一个比我们聪明得多的实体分享这个星球。
华为发布盘古大模型
ChatGPT、Midjourney、Bard等人工智能产出的文本(从散文、诗歌和笑话到计算机代码)和图像(如图表、照片和艺术品),几乎与人类自己的作品一模一样,难以区分。
专家认为设计为具有自动学习功能的系统,如ChatGPT,可能会进入下一个发展阶段。
第二阶段:人工通用智能(Artificial General Intelligence)当机器能够完成人类所能完成的任何智力任务时,人工通用智能AGI(Artificial General Intelligence)就将到来, 也被称为“强人工智能”。
人工智能专家博斯特罗姆(Nick Bostrom)
牛津大学哲学家、人工智能专家博斯特罗姆(Nick Bostrom)将超智能定义为“在几乎所有领域,包括科学创造力、一般智慧和社交技能,都远远超过最优秀的人类大脑的智能”
杰弗里·欣顿(Geoffrey Hinton)
所谓的“人工智能教父”杰弗里·欣顿(Geoffrey Hinton)警告:
现在AI机器并不比我们聪明,但他们可能很快就会这样。
试想以下,参与者决定赋予机器人创造自己的子目标的能力,机器最终可能会创造出“我需要更多权力,这样的子目标,这将带来“生存风险”
永生还是灭绝科幻作家预测,到2030年,因为AI纳米机器人(非常小的机器人)在我们体内工作,能够修复和治愈任何损伤或疾病,人类将实现永生。
英国物理学家斯蒂芬·霍金在2014年,曾发出过严厉的警告,具有这种智能水平的机器将自行发展,并以越来越快的速度重新设计自己。人工智能的全面发展可能意味着人类的终结。
当面对人工智能的巨大挑战和潜在风险时,全球需要紧密合作,共同建立有效的监管和治理机制。只有这样,我们才能确保AI技术的安全发展,为人类创造一个充满希望和繁荣的未来。
花粉社群VIP加油站
猜你喜欢