Pine 发自 凹非寺
量子位 | 公众号 QbitAI
LeCun现在是彻底不搞技术了???
最近他开始从社会科学的角度分析起了爆火的聊天机器人:
为啥ChatGPT很容易就会胡说八道?
只因它是外星人。
那LeCun在论文里具体都讲了些啥?
一起来看~
ChatGPT为什么不能像人一样?当然,要把ChatGPT这类聊天机器人和人放在一起比较,那就得先从人开始入手了。
第一个问题:
一般情况下,人为什么不会胡说八道,甚至说出一些“反人类”的话?
文章给出了三点原因:
(1) 社会规范:人们不仅要主动遵守外部社会规范,还要受到人体内在规范的约束。(2) 惩罚违反者:这里的惩罚更侧重在社交层面的惩罚,违反交谈规范的人容易遭到群体的“排斥”甚至“孤立”。(3) 规范已经内化于情感:违反规范时会愤怒,被冒犯会厌恶,被抓住说谎时会羞耻……
而基于这些原因,人们在讲话之前都会自然而然过滤掉一些言论,以确保更符合社会规范以及自己的内在规范。
(嗯嗯。当代年轻人现状:表面笑嘻嘻,内心mmp)
反过来再看看ChatGPT这些聊天机器人。
相较于人类,它们讲话似乎就更随心所欲,我们没说出来的潜台词它全说出来了。(Doge)
比如说,ChatGPT的老毛病:胡说八道,最初提示词稍微换个说法,就能让ChatGPT写出毁灭人类计划书。
甚至还能生成一些带有种族歧视的答案:
甚至还有人直接开启嘲讽模式:
现在一个机器人心理学家在解释糟糕的程序设计。
作者介绍Yann LeCun,就不用再多说了,图灵奖得主,纽约大学教授,Meta的首席AI科学家,大家都已经很熟悉。
另外一位作者需要好好介绍下。
Jacob Browning,纽约大学计算机科学系的博士后,主要研究人工智能哲学,具体来讲,是研究人工智能和认知科学是如何改变传统观念、学习和思维的。
而人工智能哲学,也在试图回答这几个问题:
AI可以有智慧的运作吗,可以解决人透过思考处理的所有问题吗?AI和人类智慧本质上是一样的吗?AI会有精神、心理状态和意识吗,能感知东西吗?对于LeCun在论文中的观点,你是怎么看的呢?
论文地址:https://www.noemamag.com/ai-chatbots-dont-care-about-your-social-norms/?utm_source=noematwitter&utm_medium=noemasocial参考链接:https://twitter.com/ylecun/status/1633459264508542978
— 完 —
量子位 QbitAI · 头条号签约
关注我们,第一时间获知前沿科技动态
花粉社群VIP加油站
猜你喜欢