Meta 使用版权来保护其人工智能,但为其他人反对法律

元 强烈主张当在线内容被免费用于构建时,版权法不应适用 人工智能 楷模。 除非相关内容属于 Meta。 这家前身为 Facebook 的公司正在大力投资人工智能,发布模型和 生成式人工智能 赶上 OpenAI 爆炸性流行趋势的工具 聊天GPT。 Meta 与谷歌和微软等大型科技公司一起向美国版权局提出,大量受版权保护的文本、图像和数据 免费刮擦并用于训练 AI 模型不受保护 版权法。 Meta 有效地认为,互联网上提供的所有内容都属于“合理使用”范围,因为像 Llama 这样的人工智能模型不会利用或复制受版权保护的作品。 (虽然他们, 实际上, 常常, 做)。 然而,在推动这一版权立场的几个月前,Meta 试图主张对 Llama 进行更广泛的版权保护。 Meta 的删除请求 2023 年初,Llama 的初始版本在网上泄露,导致大型语言模型及其规范被下载并发布到 GitHub,微软旗下的在线编码网站。 根据 GitHub 在其网站上托管的请求副本,Meta 向 GitHub 发送了立即删除或“停止访问”该模型的要求。 富兰克林·格雷夫斯 (Franklin Graves) 注意到了这一删除请求,他是一名律师,也是有关创作者经济的时事通讯的作者,他最近在 X 上发布了有关 Meta 请求的信息。 Meta 在请求中辩称:“我们真诚地相信,在网站上使用上述 Meta […]

如果生成式人工智能能够公平竞争,为什么要抄袭创意人员呢?

近年来,人工智能伦理学家的工作很艰难。 开发生成式人工智能工具的工程师们一直在竞相前进,相互竞争以创建具有更令人惊叹的能力的模型,这让监管机构和伦理学家都对已经完成的工作发表评论。 致力于改变这种范式的人之一是 Alice Xiang,人工智能道德全球负责人 索尼。 向先生致力于在索尼内部和更大的人工智能社区中创建道德优先的人工智能开发流程。 她与 光谱 关于从数据入手,以及一半业务从事内容创作的索尼是否可以在构建新型生成人工智能方面发挥作用。 Alice Xiang on… 负责任的数据收集 她在索尼的工作 新人工智能法规的影响 以创作者为中心的生成式人工智能 负责任的数据收集 IEEE 频谱: 你的工作起源是什么 负责任的数据收集? 在这项工作中,您为什么特别关注计算机视觉? Alice Xiang: 近年来,人们越来越意识到从整个生命周期的角度看待人工智能发展的重要性,而不仅仅是在终点考虑人工智能伦理问题。 这也是我们在公司内部进行人工智能道德评估时在实践中看到的:如果只看最后,有多少人工智能道德问题确实很难解决。 许多问题都源于数据收集过程,例如同意、隐私、公平、知识产权等问题。 许多人工智能研究人员没有足够的能力来思考这些问题。 当他们在学校时,这并不是他们课程中必然包含的内容。 按照 生成式人工智能,人们越来越认识到训练数据的重要性,而不仅仅是不需要仔细考虑数据来自哪里就可以从架子上拿下来的东西。 我们真的很想探索从业者应该做什么以及数据管理的最佳实践是什么。 以人为中心的计算机视觉可以说是对此最敏感的领域之一,因为你拥有生物识别信息。 光谱: “以人为中心的计算机视觉”一词:这意味着 计算机视觉 识别人脸或人体的系统? 翔: 由于我们关注数据层,因此我们通常定义它的方式是任何类型 [computer vision] 涉及人类的数据。 因此,这最终将包括更广泛的人工智能。 例如,如果您想创建一个识别对象的模型 – 对象存在于有人类的世界中,因此您可能希望数据中包含人类,即使这不是主要焦点。 这种技术在高风险和低风险环境中都非常普遍。 “许多人工智能研究人员没有足够的能力来思考这些问题。 当他们在学校时,这并不是他们课程中必然包含的内容。” ——爱丽丝·项,索尼 光谱: 您对隐私和公平方面的最佳实践有哪些发现? 翔: 当前以人为中心的计算机视觉领域的基线并不好。 […]

人工智能高管变身人工智能斗士,为艺术家挺身而出

埃德·牛顿-雷克斯 (Ed Newton-Rex) 表示,生成式人工智能存在伦理问题。 他应该知道,因为他曾经是快速发展行业的一员。 Newton-Rex 曾是 TikTok 的首席人工智能设计师,然后是 Stability AI 的高管,直到 11 月因厌恶而辞职。 公司的立场 关于收集训练数据。 在高调离职后,牛顿-雷克斯投入到一次又一次的谈话中,讨论在实践中以道德方式构建人工智能会是什么样子。 “让我震惊的是,有很多人想要使用公平对待创作者的生成人工智能模型,”他说。 “如果你能为他们提供更好的决策工具,那就很有帮助。” Ed Newton-Rex 的非营利组织正试图鼓励公司在为人工智能项目采购培训数据时更加谨慎。 由埃德·牛顿-雷克斯提供 现在 Newton-Rex 推出了一个新的非营利组织, 训练有素,为人们提供正是这种类型的决策工具。 它提供了一个认证计划来识别授权其培训数据的人工智能公司。 人工智能行业现在有了自己版本的咖啡上看到的“公平贸易”认证标签。 获得 Fairly Trained 的认证标签(它称之为) L认证,公司必须证明其培训数据要么已明确许可用于培训目的,在公共领域,根据适当的开放许可提供,要么已经属于该公司。 到目前为止,已有九家公司获得了认证,其中包括图像生成器 Bria AI(专门根据 Getty Images 等来源授权的数据进行训练)和音乐生成平台 LifeScore Music(授权所有主要唱片公司的作品)。 其他几个人即将完成他们的认证。 该非营利组织收取 500 至 6,000 美元的费用,具体取决于申请人的业务规模。 开放人工智能——全球领先的生成式人工智能公司——最近争论 如果不使用未经许可的数据,就不可能创建像 ChatGPT 这样的生成式人工智能服务。 Newton-Rex 和第一批获得 Fairly […]

诈骗人工智能生成的书籍充斥亚马逊

作家莎拉·斯坦科布就是这样一位作家。 今年夏天,她出版了 不听话的妇女:一小群忠心的妇女如何揭露虐待行为,打倒强大的牧师,并引发福音派清算。 几天之内,摘要就出现在亚马逊上。 她怀疑其中一份是基于通常分发给审稿人的预发本,该副本于当天出现 前 她的书出版了。 斯坦科尔布惊呆了。 不听话的女人 是多年仔细报道的产物。 “让我感到不安,从多个道德层面来看,从故事中抽离情感和敏感性似乎是错误的,”她说。 “还有语言——看起来他们只是通过某种同义词库程序运行它,结果真的很奇怪。” 将文本并排比较,模仿是明目张胆的。 斯坦科布的开场白是:“在我早期的报道中,我可能会采访一位妈妈企业家,然后花整个下午仔细研究皮尤研究中心有关美国人脱离宗教的统计数据。” 摘要的开场白是:“在报道的最初几年,他们可能会进行一次妈妈企业家访谈,然后花一天时间深入研究皮尤研究中心有关放弃宗教信仰的美国人的统计数据。” 现实捍卫者评级 摘要 Stankorb 书中的内容 99% 可能是人工智能生成的。 法律上模糊 当米切尔发现自己的人工智能模仿者时,她发泄了 邮政 在 X 上,询问:“这合法吗?” 现在,她怀疑自己能否成功地将任何人告上法庭。 “有人告诉我,你不能对书名进行版权保护,”米切尔说。 不知道她是否有任何追索权,她还没有联系亚马逊。 一些版权学者表示,只要不存在明显的逐字抄袭,摘要就是合法的。 乔治城大学知识产权法教授克里斯特莉亚·加西亚 (Kristelia Garcia) 将其与摘要世界最初的大片 CliffsNotes 进行了比较,CliffsNotes 是长期运行的学习指南系列,提供学生友好的文学解释。 “CliffsNotes 不合法,因为它们属于合理使用。 它们是合法的,因为它们实际上并不复制书籍。 他们只是解释这本书的内容,”加西亚通过电子邮件说道。 其他知识产权专家则不太确定。 毕竟,CliffsNotes(除了总结之外还提供对一本书的实质性分析,并且是由人类编写的)与堵塞亚马逊的新一波摘要之间存在很大差异。 康奈尔大学互联网法教授詹姆斯·格里梅尔曼 (James Grimmelmann) 表示:“简单地总结一本书是很难辩护的。” “在主题的选择和安排上仍然存在很大的相似性,而且在语言上也可能有一些相似性。” 美国作家协会的拉森伯格将 2017 年企鹅兰登书屋起诉创作儿童版图书的作者视为先例,可以帮助作家对抗人工智能生成的摘要。 法院 成立 孩子们的摘要不合法,因为他们主要致力于重述受版权保护的故事。 […]

商人:人工智能行业计划解决版权问题

2023年的这个时候, 世界已被奴役 OpenAI 令人眼花缭乱的聊天机器人的崛起。 ChatGPT 正在像真菌感染一样转移、聚集 每月数千万用户。 数十亿美元的合作伙伴关系得以实现,投资大量涌入。大型科技公司也加入了这个行列。 像 Midjourney 这样的人工智能图像生成器开始流行。 仅仅一年后,气氛就变得黯淡了。 惊喜 解雇 和 快速恢复 OpenAI 首席执行官 Sam Altman 向公司表示 皇帝无衣的尴尬时刻。 利润 整个行业都稀缺,并且计算成本非常高。 但有一个问题最为突出,并有可能使这个新兴行业重回现实:版权。 法律投诉表明 去年全年突然出现 科技公司表示,它们现在对生成式人工智能(能够生成文字、图片、音乐等的人工智能)构成了生存威胁。 如果说 2023 年是全世界对人工智能内容生成器惊叹不已的一年,那么 2024 年可能是那些创造出使这些内容成为可能的原材料的人类进行报复的一年,甚至可能收回一些基于其工作的价值。 在十二月的最后几天, 《纽约时报》提起重磅诉讼 针对微软和 OpenAI,声称“其数以百万计的文章被用来训练自动聊天机器人,这些机器人现在作为可靠信息的来源与新闻媒体竞争。” 《纽约时报》的诉讼加入了许多其他诉讼——由 插画家, 经过 照片服务盖蒂 图片, 经过 乔治·R·R·马丁和作家协会, 经过 匿名社交媒体用户举几个例子——所有这些公司都指控那些希望从生成人工智能中获利的公司在未经同意或补偿的情况下使用作家、记者、艺术家和其他人的作品,在此过程中侵犯了他们的版权。 我们的实验几乎可以肯定这些系统实际上是在受版权保护的材料上进行训练。 ——认知科学家加里·马库斯 这些诉讼各有其道理,但灰女士的介入改变了游戏规则。 一方面,《纽约时报》在塑造国家叙事方面具有影响力。 为了另一个, 泰晤士报诉讼 是独一无二的诅咒; 它载有一个又一个的例子,说明 ChatGPT […]

ChatGPT 创建者承认,在不侵犯版权的情况下训练他的人工智能是“不可能的”

聊天GPT 在不违反规定的情况下无法发挥作用 版权。 在过去的几个月里,来自多个领域的公司和艺术家在对流行音乐的抱怨中都支持了这一论点。 应用 的 人工智能 (人工智能)。 创建此文本生成器的公司, 开放人工智能周一承认他们是对的。 使用生成式人工智能,例如ChatGPT,担心可能的数据泄露和经济损失 该初创公司由 萨姆·奥特曼 上周一认识到“不可能训练当前的模型 IA 没有受版权保护的材料”,当他前进时 电讯报。 他在提交给英国议会上议院的一份文件中这样做了,英国议会正在研究解决该问题的可能立法。 聊天GPT 是一个’应用程序‘ 能够与用户交互并根据他们的请求生成所有类型的文本。 这是可能的,因为您的系统已经接受过从以下内容中提取的大量数据的训练: 互联网其中大部分作品受到所谓的保护 版权。 这种受到质疑的模型使得 OpenAI 得以实现,并得到了来自 微软估值将超过800亿美元。 因此,OpenAI 认识到其模型无法尊重这一权利。 “由于今天的版权几乎涵盖了所有类型的人类表达,包括博客、照片、论坛帖子、代码片段、 软件 和政府文件——如果不使用受版权保护的材料,就不可能训练当今领先的人工智能模型。” 该公司保证,不诉诸这些工作将会产生糟糕的人工智能系统。 他们解释说:“将训练数据限制在一个多世纪前创建的公共领域书籍和绘图可能会成为一项有趣的实验,但它不会提供满足当今公民需求的人工智能系统。” 从 作家 包括《纽约时报》等大型媒体在内的平面艺术家已起诉该公司,称该公司未经同意或事先付款而将其作品用于商业用途,他们认为这是“盗用”。 然而,OpenAI 认为“合法版权并不禁止人工智能系统的训练”。 1705097359 #ChatGPT #创建者承认在不侵犯版权的情况下训练他的人工智能是不可能的 2024-01-11 17:45:55

《中途》可能未经许可使用了 16,000 名艺术家的内容

在…后面 纽约时报对 OpenAI 和微软提起诉讼 在利用他们的新闻来培训法学硕士后,我们知道不久之后就会出现这种情况 争议 获得文本之外的其他知识支持。 一旦音频阶段结束,尽管 坏兔子的愤怒很明显,克隆任何人的声音或创造一个新的声音几乎是儿戏,我们必须认识到 那些失踪的人。 我们谈论的是 图像 很快,您的屏幕上就会出现相同的图像,但处于运动状态: 视频。 其中第一个,即静态图像,已经受到了很大的损害。 这次兔子跳下了 “意外”泄漏 (“偶然”是一个必须越来越多地放在引号中的词)超过 16,000 名艺术家 谁的工作本来就是 未经许可在中途训练中使用当今人工智能图像生成领域最著名的人物之一 稳定扩散 哦 给她,OpenAI 的图像生成 AI。 去年艺术家提起的集体诉讼中已经包含了这 16,000 个名字中的一部分,其中包括 稳定性人工智能《Stable Difussion》和《Midjourney》的创造者,以及 德维安艺术,一个国际艺术家在线社区的网站,他们可以免费展示他们的摄影、数字和传统艺术等作品。 最后两个使用 软件 来自稳定扩散,允许您从文本创建图像。 《中途》的开发者们发现了关于洗钱的讨论,并创建了一个艺术家数据库(他们的风格已经被非人化)来训练《中途》。 这已被提交作为诉讼证据。 提示工程师,你的“技能”不是你的https://t.co/wAhsNjt5Kz pic.twitter.com/EBvySMQC0P — Jon Lam #CreateDontScrape (@JonLamArt) 2023 年 12 月 31 日 这个新的、范围更广的清单的新颖之处在于它的起源: 电子表格 坐落于 谷歌文档 […]