是时候放弃结束社交媒体的错误信息问题了

如果您不信任社交媒体,您应该知道您并不孤单。 大多数人 在世界各地进行了调查 我也有同样的感觉——事实上,十年来他们一直这么说。 Facebook 和 X 等平台上显然存在错误信息和危险言论的问题。在今年任期结束之前,最高法院可能会重新定义如何处理该问题。

在过去的几周里,法院听取了三起涉及控制网上政治言论和错误信息的案件的辩论。 在 前两个上个月,德克萨斯州和佛罗里达州的立法者声称,Facebook 等平台正在有选择地删除其版主认为有害或违反其服务条款的政治内容; 科技公司辩称,他们有权管理用户所看到的内容。 同时, 一些政策制定者 相信内容审核 还没走 足够远,而且错误信息仍然很容易通过社交网络传播; 政府官员是否(以及如何)能够直接与技术平台沟通删除此类内容是一个问题 第三种情况,本周已提交法院。

我们是哈佛大学的经济学家,研究社交媒体和平台设计。 (我们中的一员,斯科特·杜克·科米纳斯 (Scott Duke Kominers),也是 a16z,一家投资社交平台的风险投资公司,也是 Quora 的顾问。)我们的研究为有关适度性的分歧提供了一个可能违反直觉的解决方案:平台应该放弃试图阻止虚假信息的传播,而应该集中精力相反,要防止信息传播 可用于造成伤害。 这些是相关的问题,但并不相同。

随着总统选举的临近,科技平台正在为大量错误信息做好准备。 民间社会组织 说平台需要更好的计划 打击选举错误信息, 一些学者预计 今年达到新的高度。 平台 说他们有计划 为了确保网站安全,尽管投入了内容审核、事实检查等方面的资源,但人们还是难免感到科技巨头正在输掉这场战斗。

问题是:平台有权阻止、标记或静音他们认为虚假的内容。 但阻止或标记某些内容为虚假内容并不一定会阻止用户相信它。 事实上,由于许多最有害的谎言都是那些倾向于不信任“当权派”的人所相信的,因此阻止或标记虚假主张甚至会使事情变得更糟。

2020 年 12 月 19 日,时任总统唐纳德·特朗普 (Donald Trump) 于 1 月 6 日在华盛顿特区发布了一条现在臭名昭著的有关选举舞弊的信息,告诉读者“到那里去”。如果您访问 Facebook 上的那个帖子 今天,你会看到平台本身的冷静注释:“美国有法律、程序和既定机构来确保我们选举的公正性。” 该免责声明源自 两党政策中心。 但有人真的相信 1 月 6 日冲击国会大厦的人们以及其他许多为他们欢呼的人会仅仅因为两党政策中心告诉 Facebook 一切都好就相信乔·拜登获胜吗?

我们的研究 表明这个问题是内在的:除非平台的用户信任平台的动机及其流程,否则平台的任何行为都可能看起来像是事实并非如此的证据。 为了得出这个结论,我们建立了一个数学模型。 在该模型中,一个用户(“发送者”)尝试向另一用户(“接收者”)提出声明。 这种说法可能是真的,也可能是假的,也可能是有害的,也可能是无害的。 两个用户之间有一个平台(或者可能是代表其运行的算法),如果愿意的话,可以阻止发送者的内容。

我们想知道什么时候屏蔽内容可以改善结果,而不会有使结果变得更糟的风险。 与所有模型一样,我们的模型是一种抽象,因此不能完美地捕捉实际交互的复杂性。 但由于我们想要考虑所有可能的政策,而不仅仅是那些已在实践中尝试过的政策,因此我们的问题无法仅通过数据来回答。 因此,我们转而使用数学逻辑来处理它,将该模型视为一种风洞来测试不同政策的有效性。

我们的分析表明,如果用户信任该平台,他们就知道什么是正确的 做正确的事(平台确实知道什么是真的,什么是假的),那么平台就可以成功消除错误信息。 逻辑很简单:如果用户相信平台是仁慈的、无所不知的,那么如果某件事被阻止或标记,它一定是假的,如果它被允许通过,它一定是真的。

不过,您可以看到问题:正如前面提到的调查所表明的那样,许多用户不信任大型科技平台。 当用户不信任某个平台时,即使是善意地试图让事情变得更好,也可能会让事情变得更糟。 而当平台 似乎偏袒一方,这可能会火上浇油,他们试图扑灭大火。

这是否意味着内容审核总是适得其反? 离得很远。 我们的分析还表明,当适度阻止可用于做有害事情的信息时,它会非常有效。

回到特朗普 2020 年 12 月关于选举舞弊的帖子,想象一下,该平台并没有提醒用户两党政策中心的清醒结论,而是让特朗普更难传达选举日期(1 月 6 日)和地点(华盛顿) ,DC)供支持者聚集。 阻止该信息并不能阻止用户相信选举被盗——相反,它可能会助长 索赔 科技行业的精英们正试图影响结果。 尽管如此,让协调去哪里和何时去变得更加困难,可能有助于减缓最终叛乱的势头,从而限制该帖子对现实世界的危害。

与删除错误信息本身不同,即使用户根本不信任平台的动机,删除造成伤害的信息也可以发挥作用。 当信息本身造成损害时,阻止该信息也可以阻止损害。 类似的逻辑也适用于其他类型的有害内容,例如人肉搜索和仇恨言论。 在那里,内容本身——而不是它所鼓励的信念——才是危害的根源,平台确实成功地调节了这些类型的内容。

我们是否希望科技公司来决定什么是有害的、什么是无害的? 也许不会; 挑战和缺点是显而易见的。 但平台已经例行公事地对伤害做出判断——这是一篇呼吁在特定地点和时间举行聚会的帖子,其中包含这个词 暴力 煽动暴力,还是宣布举办户外音乐会? 如果您打算观看,显然是后者 暴力妇女。 通常,上下文和语言使这些判断足够明显,以至于算法可以确定它们。 当这种情况没有发生时,平台可以依靠内部专家甚至独立机构,例如 Meta 的监督委员会,该委员会负责处理与公司内容政策相关的棘手案件。

如果平台接受我们的推理,他们就可以转移 资源 从确定什么是正确的误导性任务转向仍然困难但更务实的确定什么会造成伤害的任务。 尽管错误信息是一个大问题,但这不是平台可以解决的问题。 平台可以通过关注内容审核能做什么、放弃它不能做什么来帮助我们保持安全。


1711333102
#是时候放弃结束社交媒体的错误信息问题了
2024-03-22 16:13:08

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​