最近的大新闻是,谷歌的副总裁和工程研究员杰弗里·辛顿(Geoffrey Hinton),在这里工作了十年后选择离开。他是深度学习的先驱,开发了现代人工智能领域一些最核心的重要技术。不过现在,我们需要讨论一下人工智能中的“用户同意”问题。
前不久,OpenAI 宣布将推出一种“隐身”模式,该模式不会保存用户的对话历史,也不会用它来改进其人工智能工具 ChatGPT(及其背后的 GPT 模型)。
新功能允许用户禁止 OpenAI 对历史聊天数据进行使用和训练,并允许用户将这些数据导出。这是一个受欢迎的举措,让人们可以更好地控制科技公司去使用他们的数据。
(来源:Pixabay)
在 OpenAI 决定给予人们选择权之际,该公司在数据使用和收集方式上,面临着来自欧洲数据保护监管机构越来越大的压力。
直到 4 月 30 日,OpenAI 才同意意大利的要求,即遵守欧盟严格的《通用数据保护条例(GDPR)》。在 OpenAI 允许用户自主选择数据使用方式之后,意大利取消了对 ChatGPT 的封禁。
该监管机构曾表示,OpenAI 在未经用户同意的情况下使用了他们的个人数据,并且没有赋予用户决定数据使用方式的权力。
在前不久接受采访时,OpenAI 的首席技术官米拉·穆拉蒂(Mira Murati)说,隐身模式是该公司几个月来一直在“迭代开发”的功能,也是 ChatGPT 用户所要求的。OpenAI 还曾表示,其新的隐私功能与欧盟的 GDPR 调查无关。
穆拉蒂说:“当涉及到如何使用用户的数据时,我们想让用户能够掌控局面。”OpenAI 表示,它仍将存储用户数据 30 天,以监控错误使用和滥用情况。
但是,不管 OpenAI 怎么说,数字权利组织 Access Now 的高级政策分析师丹尼尔·勒弗(Daniel Leufer)认为,GDPR 和欧盟施加的压力,在迫使该公司遵守法律方面发挥了作用。在这个过程中,全球用户都从中受益。
他在推特上表示:“良好的数据保护措施使产品更安全、更好,并让用户获得控制他们数据的真正权力。”
很多人不喜欢欧盟的 GDPR,称其是一个扼杀创新的无聊法案。但正如勒弗指出的,这套法律证明公司在被逼无奈的情况下,是可以做得更好的。它也是我们现在拥有的唯一一个工具,可以让人们在一个日益自动化的世界中控制自己的数字权益。
在人工智能领域,尝试给用户更多控制的其他实验项目表明,用户对这些功能有明显的需求。自 2022 年底以来,个人用户和企业用户已经可以选择不把他们的图像包含在开源的 LAION 数据集中,此前该数据集已被用于训练图像生成人工智能模型 Stable Diffusion。
一个名为 Spawnin 的组织开发了这个“图像删除”功能。该组织的联合创始人马特·德里赫斯特(Mat Dryhurst)表示,自 2022 年 12 月以来,大约有 5000 人和多个大型的艺术和图像平台,包括 Art Station 和 Shutterstock,要求从数据集中删除超过 8000 万张图片。这意味着他们的图像将不会被用于下一个版本的 Stable Diffusion。
德里赫斯特认为,人们有权知道他们的成果是否已经被用于训练人工智能模型,以及他们应该做到从一开始就能决定自己的工作,是否要成为人工智能系统的一部分。他说:“我们的最终目标是为人工智能建立一个‘用户同意’机制,(而)现在它根本不存在。”
支持:Ren
原文:
https://www.technologyreview.com/2023/05/02/1072556/we-need-to-bring-consent-to-ai/
花粉社群VIP加油站
猜你喜欢