生成式人工智能正在使一个老问题变得更加严重

听听这篇文章

由 ElevenLabs 和 News Over Audio (NOA) 使用 AI 旁白制作。

今年早些时候,泰勒·斯威夫特的露骨色情图片 被共享 这些图片几乎肯定是用生成式人工智能工具创建的,这表明该技术可以轻松地用于邪恶目的。 这个案例反映了许多其他明显相似的例子,包括描绘 逮捕 前总统唐纳德·特朗普,人工智能生成 图片 支持特朗普的黑人选民,以及 编造的 安东尼·福奇博士的照片。

媒体报道有一种倾向: 来源 因为生成式人工智能是一项许多人仍在试图理解的新技术。 但这一事实掩盖了这些图像相关的原因:它们在社交媒体网络上传播。

Facebook、Instagram、TikTok、X、YouTube 和 Google 搜索决定了数十亿人每天如何体验互联网。 这一事实在生成人工智能时代并没有改变。 事实上,随着越来越多的人更容易根据命令制作文本、视频和图像,这些平台作为看门人的责任变得越来越明显。 让合成媒体获得数百万次观看——就像 Swift 图像一样 在短短几个小时内完成——他们需要庞大、聚合的网络,这使他们能够确定最初的受众,然后进行传播。 随着生成人工智能的广泛使用,可用内容的数量不断增加,社交媒体作为策展人的角色将变得更加重要。

线上平台有 市场 敬请广大个人用户关注。 用户可能会接触到比他或她有时间看到的更多的帖子。 在 Instagram,例如,Meta 的 算法 从用户提要中实际出现的每个帖子的无数内容中进行选择。 随着生成式人工智能的兴起,可供平台选择的潜在选项可能会增加一个数量级,这意味着每个视频或图像的创作者将更加积极地争夺观众的时间和注意力。 毕竟,即使用户可用的内容量迅速增长,他们也不会花更多的时间。

那么,随着生成式人工智能变得更加普遍,可能会发生什么? 如果没有大的变化,我们应该期待更多像 Swift 图像这样的情况。 但我们也应该期待更多 一切。 随着合成介质的过剩,这种变化正在进行中 绊倒 搜索引擎,例如 Google。 人工智能工具可以通过使制作更快、更便宜来降低内容创作者的门槛,但现实是,大多数人想要在在线平台上被看到会更加困难。 例如,媒体组织即使采用人工智能工具来加快交付速度并降低成本,也不会有指数级的新闻报道; 因此,它们的内容将占用相应更少的空间。 已经有一小部分内容 收到 绝大多数人的关注: 抖音YouTube例如,大多数观看次数都集中在一小部分上传的视频上。 生成式人工智能可能只会拉大鸿沟。

为了解决这些问题,平台可以明确地改变其系统以有利于人类创造者。 这听起来比实际上更简单,科技公司已经因其在决定谁受到关注和谁不受到关注方面所扮演的角色而受到批评。 近日,最高法院 听过一个案子 这将决定佛罗里达州和德克萨斯州的激进州法律是否可以在功能上要求平台对所有内容一视同仁,即使这意味着迫使平台违背人们的意愿主动公开虚假、低质量或其他令人反感的政治材料 大多数用户。 这些冲突的核心概念是 “自由到达”,尽管不存在所谓的“中立”算法,但你的演讲被 YouTube 和 Facebook 等平台推广的权利。 甚至按时间顺序推送——有些人 提倡 for——明确优先考虑最近的内容,而不是用户的偏好或任何其他主观的价值观念。 新闻源、“下一个”默认推荐和搜索结果使平台变得有用。

平台过去对类似挑战的反应并不令人鼓舞。 去年,埃隆·马斯克用一个允许任何人购买蓝色“验证”徽章以获得更多曝光的系统取代了 X 的验证系统,从而取消了蓝色复选标记之前防止冒充知名用户的主要作用。 即时的 结果 曾是 可预测:影响力贩子和诈骗者的机会主义滥用,以及用户的降级提要。 我自己的研究表明 Facebook 未能约束 滥用超级用户的活动对算法推广产生了重大影响。 (该公司对这一发现的部分内容提出了异议。)TikTok 更加重视特定视频的病毒式参与度,而不是账户历史记录,这使得可信度较低的新账户更容易获得大量关注。

那么该做什么呢? 有三种可能性。

首先,平台可以减少对参与度(用户每天或每月花费的时间和活动量)的过度关注。 无论是来自监管还是产品领导者的不同选择,这样的改变将直接减少垃圾邮件和上传低质量的人工智能制作内容的不良激励。 也许实现这一目标的最简单方法是在排名算法中进一步优先考虑用户对内容的直接评估。 另一种方法是提升外部验证的创建者(例如新闻网站)的排名,并降低滥用用户帐户的排名。 其他 设计变更 也会有所帮助,例如通过实施更强有力的措施来打击垃圾邮件 速率限制 对于新用户。

其次,我们应该利用公共卫生工具定期评估数字平台如何影响青少年等高危人群,并在危害太大时坚持产品回滚和改变。 这个过程需要更大的 透明度 围绕 Facebook、TikTok、YouTube 和其他公司已经在进行的产品设计实验,这些实验可以让我们深入了解平台如何在增长和其他目标之间进行权衡。 一旦我们有了更多的透明度,就可以进行实验以包括诸如 心理健康评估等。 拟议的立法,例如 平台责任和透明度法案,这将允许合格的研究人员和学者与国家科学基金会和联邦贸易委员会合作访问更多的平台数据,提供了一个重要的起点。

第三,我们可以考虑社交媒体平台和大型语言模型之间的直接产品集成,但我们应该警惕风险。 一 方法 引起人们关注的是对标签的关注:主张分发平台应公开表示使用法学硕士创建的任何帖子。 就在上个月,梅塔 表明的 它正在朝这个方向前进,为怀疑是使用生成人工智能工具创建的帖子添加自动标签,并激励发帖者自我披露他们是否使用人工智能来创建内容。 但随着时间的推移,这是一个失败的提议。 法学硕士获得的越好,包括平台看门人在内的任何人(包括平台看门人)能够区分真实与合成的东西的人就越少。 事实上,我们所认为的“真实”将会改变,就像使用 Photoshop 等工具来喷枪图像一样,随着时间的推移已经被默认了。 当然,未来 YouTube 和 Instagram 等分发平台的围墙花园可能要求内容具有经过验证的来源(包括标签),以便于轻松访问。 似乎可以肯定的是,这种方法的某种形式至少会出现在某些平台上,以满足想要更精心策划的用户体验的用户。 但从规模上看,这意味着什么呢? 这将意味着一个偶数 更大 强调和依赖分销网络的决策,甚至更多地依赖其把关。

这些方法都依赖于我们在过去十年中经历过的一个核心现实:在一个几乎无限生产的世界中,我们可能希望消费者手中拥有更多权力。 但由于不可能的规模,用户实际上会经历选择瘫痪,将真正的权力置于平台默认的手中。

尽管毫无疑问会出现需要紧急关注的攻击—— 国家创造的 协调不真实用户的网络,通过新闻相邻来牟取暴利 生产者,通过领导政治 候选人——现在不是忽视正在引起我们注意的更大动态的时刻。


1710301528
#生成式人工智能正在使一个老问题变得更加严重
2024-03-12 15:23:51

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​