人工智能伦理学家表示,对死者的数字娱乐需要紧急监管人工智能(AI)

人工智能(AI)

担心“死亡机器人”可能对其创造者和用户造成心理伤害,或以数字方式“困扰”他们

人工智能伦理学家认为,对死人的数字娱乐已经接近现实,迫切需要监管,并警告“死亡机器人”可能会对它们的创造者和用户造成心理伤害,甚至“困扰”。

剑桥大学的研究人员表示,此类服务在技术上已经可以创建并且在法律上得到允许,可以让用户上传与已故亲人的对话,以聊天机器人的形式“让奶奶起死回生”。

它们可能会被推销给身患绝症的父母,他们想要留下一些东西让孩子与之互动,或者干脆卖给仍然健康的人,他们想要记录自己的整个生活并创造互动遗产。

但该论文认为,在每种情况下,不道德的公司和轻率的商业行为都可能造成持久的心理伤害,并从根本上不尊重死者的权利。

该研究的合著者之一、剑桥 Leverhulme 未来智能中心 (LCFI )。

“人工智能的这个领域是一个道德雷区。 例如,重要的是要优先考虑死者的尊严,并确保其不会受到数字善后服务的经济动机的侵犯。”

风险之一是公司通过广告将其数字遗产服务货币化。 该论文指出,当他们的数字化重建的亲人开始建议他们点外卖而不是从头开始做饭时,这种服务的用户可能会感到震惊,从而导致他们不安地意识到,他们的数据是否可以用于其他用途。这样的方式。

当此类服务的用户是儿童时,可能会出现更糟糕的结果。 想要帮助孩子应对失去母亲或父亲的父母可能很快就会转向死亡机器人。

但几乎没有证据表明这种方法在心理上有帮助,而且很多证据表明它可能会因缩短正常的哀悼过程而造成重大损害。

该论文警告说:“没有任何再创造服务可以证明允许儿童与‘死亡机器人’互动是有益的,或者至少不会伤害这个弱势群体。”

为了维护死者的尊严以及生者的心理健康,研究人员提出了一套最佳实践,甚至可能需要监管来执行。

例如,此类服务应该有敏感地“退休”死机器人的程序,并且应该将其交互功能仅限于成年人,并且对于它们的操作方式和任何人工系统的局限性非常透明。

使用 ChatGPT 式的人工智能系统来重现死去的亲人的想法并不是科幻小说。 2021 年,Joshua Barbeau 在使用 GPT-3 创建聊天机器人后成为头条新闻 用他已故女友的声音说话六年前,开发者 Eugenia Kuyda 将她密友的短信转换为聊天机器人,最终催生了流行的聊天机器人 AI 伴侣应用 Replika

该技术也超越了聊天机器人。 2021 年,家谱网站 MyHeritage 引入了深深的怀旧,该功能可以根据静态照片创建用户祖先的动画视频。 该功能迅速传播后,该公司承认一些用户“觉得它令人毛骨悚然”。

“结果可能会引起争议,而且很难对这项技术无动于衷,”MyHeritage 当时表示。 “此功能旨在用于怀旧用途,即让心爱的祖先复活。 我们的司机视频不包含语音,以防止滥用,例如制作活人的“深度虚假”视频。”

一年后,MyHeritage 推出了 DeepStory,它允许用户生成谈话视频。

{{#ticker}}

{{#goalExceededMarkerPercentage}}{{/goalExceededMarkerPercentage}}

{{/股票代码}}

{{标题}}

{{#paragraphs}}{{/paragraphs}}{{highlightedText}}
{{#choiceCards}}

一次性 每月 每年

其他

{{/选择卡}}

我们将与您联系,提醒您做出贡献。 请留意收件箱中的消息。 如果您对贡献有任何疑问,请联系我们。

1715213612
2024-05-09 00:00:00
#人工智能伦理学家表示对死者的数字娱乐需要紧急监管人工智能AI

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​