如果生成式人工智能能够公平竞争,为什么要抄袭创意人员呢?

近年来,人工智能伦理学家的工作很艰难。 开发生成式人工智能工具的工程师们一直在竞相前进,相互竞争以创建具有更令人惊叹的能力的模型,这让监管机构和伦理学家都对已经完成的工作发表评论。

致力于改变这种范式的人之一是 Alice Xiang,人工智能道德全球负责人 索尼。 向先生致力于在索尼内部和更大的人工智能社区中创建道德优先的人工智能开发流程。 她与 光谱 关于从数据入手,以及一半业务从事内容创作的索尼是否可以在构建新型生成人工智能方面发挥作用。

Alice Xiang on…

  1. 负责任的数据收集
  2. 她在索尼的工作
  3. 新人工智能法规的影响
  4. 以创作者为中心的生成式人工智能

负责任的数据收集

IEEE 频谱你的工作起源是什么 负责任的数据收集? 在这项工作中,您为什么特别关注计算机视觉?

Alice Xiang: 近年来,人们越来越意识到从整个生命周期的角度看待人工智能发展的重要性,而不仅仅是在终点考虑人工智能伦理问题。 这也是我们在公司内部进行人工智能道德评估时在实践中看到的:如果只看最后,有多少人工智能道德问题确实很难解决。 许多问题都源于数据收集过程,例如同意、隐私、公平、知识产权等问题。 许多人工智能研究人员没有足够的能力来思考这些问题。 当他们在学校时,这并不是他们课程中必然包含的内容。

按照 生成式人工智能,人们越来越认识到训练数据的重要性,而不仅仅是不需要仔细考虑数据来自哪里就可以从架子上拿下来的东西。 我们真的很想探索从业者应该做什么以及数据管理的最佳实践是什么。 以人为中心的计算机视觉可以说是对此最敏感的领域之一,因为你拥有生物识别信息。

光谱“以人为中心的计算机视觉”一词:这意味着 计算机视觉 识别人脸或人体的系统?

翔: 由于我们关注数据层,因此我们通常定义它的方式是任何类型 [computer vision] 涉及人类的数据。 因此,这最终将包括更广泛的人工智能。 例如,如果您想创建一个识别对象的模型 – 对象存在于有人类的世界中,因此您可能希望数据中包含人类,即使这不是主要焦点。 这种技术在高风险和低风险环境中都非常普遍。

“许多人工智能研究人员没有足够的能力来思考这些问题。 当他们在学校时,这并不是他们课程中必然包含的内容。” ——爱丽丝·项,索尼

光谱 您对隐私和公平方面的最佳实践有哪些发现?

翔: 当前以人为中心的计算机视觉领域的基线并不好。 这绝对是一个研究人员习惯于使用大型网络抓取数据集的领域,而这些数据集没有考虑这些道德维度。 因此,当我们谈论隐私等问题时,我们关注的焦点是:人们对于此类用例收集的数据是否有任何概念? 他们是否了解数据集是如何收集和使用的? 这项工作首先要问:研究人员是否真的考虑过收集数据的目的? 这听起来很微不足道,但这通常不会发生。 人们经常使用可用的数据集,而不是真正尝试以深思熟虑的方式获取数据。

这也与 公平问题。 此数据收集的范围有多广? 当我们审视这个领域时,大多数主要数据集都极其以美国为中心,我们看到的许多偏见都是由此造成的。 例如,研究人员发现,与高收入国家相比,目标检测模型在低收入国家的效果往往要差得多,因为大多数图像都来自高收入国家。 然后在人类层面上,如果数据集主要是白人个体并且主要是男性个体,那么问题就变得更加严重。 一旦你已经使用了这些,很多问题就变得很难解决 [datasets]。

所以我们从这里开始,然后我们也进入更多细节:如果您要从头开始收集数据集,那么最佳实践是什么? [Including] 这些目的声明、有关人类受试者研究的同意类型和最佳实践、对弱势个体的考虑,以及仔细考虑所收集的属性和元数据。

光谱 我最近读过 乔伊·布奥拉姆维尼揭开人工智能的面纱,其中她记录了她整理一个符合道德的数据集的艰苦过程。 这真是令人印象深刻。 您是否尝试过构建一个在所有维度上都符合道德标准的数据集?

:道德数据收集是我们研究的一个重要重点领域,我们最近针对构建更多道德数据集的一些挑战和机遇开展了其他工作,例如需要改进 肤色注释计算机视觉的多样性。 随着我们自己的道德数据收集的继续,我们将在未来几个月内就这个主题有更多的说法。

回到顶部

光谱这项工作在索尼内部是如何体现的? 您是否与一直使用此类数据集的内部团队合作? 你是说他们应该停止使用它们吗?

翔: 我们道德评估流程的一个重要部分是询问人们他们使用的数据集。 我领导的治理团队花费大量时间与业务部门讨论具体用例。 对于特定的数据集,我们会问:有哪些风险? 我们如何减轻这些风险? 这对于定制数据收集尤其重要。 在研究和学术领域,人们倾向于从中提取数据集的主要语料库,但在工业界,人们经常创建自己的定制数据集。

“我认为,对于与人工智能伦理相关的一切,成为纯粹主义者是不可能的。” ——爱丽丝·项,索尼

光谱 我知道你已经谈到了人工智能设计的道德规范。 索尼内部已经有了这样的东西吗? 人工智能伦理是否从产品或用例的初始阶段就开始讨论?

翔: 确实。 有许多不同的流程,但最具体的可能是我们针对所有不同电子产品的流程。 为此,我们有几个检查点作为标准质量管理体系的一部分。 从设计和规划阶段开始,然后进入开发阶段,最后是产品的实际发布。 因此,我们从一开始就在讨论人工智能道德问题,甚至在编写任何类型的代码之前,当时它只是关于产品的想法。

回到顶部

新人工智能法规的影响

光谱最近有很多动作 人工智能法规 以及世界各地的治理举措。 中国 已经有了人工智能法规,欧盟通过了 人工智能法案,在美国我们有总统 拜登的行政命令。 这些是否改变了您的实践或您对产品设计周期的思考?

翔: 总体而言,这对于提高整个公司人工智能道德的相关性和可见性非常有帮助。 索尼是一家独特的公司,因为我们同时是一家主要的技术公司,也是一家主要的内容公司。 我们的很多业务都是娱乐,包括电影、音乐、视频游戏等等。 我们一直与技术开发方面的人员密切合作。 我们越来越多地花时间与内容方面的人们交谈,因为现在人们对人工智能产生了巨大的兴趣,包括他们所代表的艺术家、他们传播的内容以及如何保护权利。

“当人们说‘去获得同意’时,我们并没有就什么是合理的进行辩论或谈判。” ——爱丽丝·项,索尼

生成式人工智能也极大地影响了这一领域。 例如,我们见过我们的一位高管 索尼音乐 制作 声明 关于的重要性 同意、补偿和信用 对于那些数据被用来训练人工智能模型的艺术家。 所以 [our work] 已经超出了仅考虑特定产品的人工智能道德的范围,还包括更广泛的权利领域,以及我们如何保护我们的艺术家? 我们如何让人工智能朝着更加以创造者为中心的方向发展? 这是索尼的独特之处,因为在这个人工智能领域非常活跃的大多数其他公司在保护数据权利方面没有太大的动力。

回到顶部

以创作者为中心的生成式人工智能

光谱 我很想看看更加以创作者为中心的人工智能会是什么样子。 你能想象这是一个这样的场景:制作人工智能模型的人会在艺术家使用他们的材料进行训练时获得同意或补偿他们吗?

翔: 这是一个非常具有挑战性的问题。 我认为这是我们在道德数据管理方面的工作有望成为起点的一个领域,因为我们在生成人工智能中看到了与更经典的人工智能模型相同的问题。 但它们更重要,因为现在这不仅仅是我的图像是否被用来训练模型的问题 [the model] 也许能够生成与我相似的人的新图像,或者如果我是版权所有者,它也许能够生成我风格的新图像。 因此,我们正在努力推动的许多事情——同意、公平、知识产权等等——当我们考虑时,它们变得更加重要 [generative AI]。 我希望我们过去的研究和未来的研究项目都能真正有所帮助。

光谱您能透露索尼是否正在开发生成式人工智能模型吗?

“我认为我们不能只是说,‘好吧,今天解决这个问题对我们来说太难了,所以我们只能尝试在最后过滤输出。’” ——爱丽丝·项,索尼

:我不能代表索尼的全部,但我们当然相信人工智能技术,包括生成式人工智能,有潜力增强人类的创造力。 在我的工作中,我们思考了很多需要通过构建创作者可以放心使用的人工智能系统来尊重包括创作者在内的利益相关者的权利。

光谱 我最近一直在思考生成式人工智能 版权和知识产权问题。 你认为这是可以用我们现在拥有的 Gen AI 系统进行修补的东西,还是你认为我们真的需要重新开始如何训练这些东西? 这完全是您的意见,而不是索尼的意见。

翔: 在我个人看来,我认为与人工智能伦理相关的一切,成为纯粹主义者是不可能的。 尽管我们非常大力推动这些最佳实践,但我们在所有研究论文中也承认这是多么困难。 例如,如果您坚持获得同意的最高做法,则很难想象您可以拥有当今许多模型所需的规模数据集。 您必须与世界各地数十亿人保持关系,告知他们他们的数据如何被使用并让他们撤销同意。

现在的部分问题是,当人们说“去获得同意”时,我们并没有就什么是合理的进行辩论或谈判。 现在的趋势要么是把婴儿和洗澡水一起倒掉而忽视这个问题,要么走向另一个极端,根本没有技术。 我认为现实总是介于两者之间。

因此,当谈到复制知识产权侵权内容的问题时,我认为现在针对这个特定主题进行了大量研究,这是一件好事。 人们提出了很多补丁和过滤器。 也就是说,我认为我们还需要更仔细地考虑数据层。 我认为我们不能只是说:“好吧,今天解决这个问题对我们来说太难了,所以我们只能尝试在最后过滤输出。”

我们最终会看到法庭会做出什么决定,看看这是否可以接受。 法律视角。 但从道德角度来看,我认为我们现在需要就受益于人工智能技术的公司与创造人工智能技术的人之间的关系进行深入对话。 我希望索尼能够在这些对话中发挥作用。

回到顶部

来自您网站的文章

网络上的相关文章

2024-01-28 14:00:02
1706504391

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​