HereAfter AI:与那些不再存在的人对话:人工智能复活死者的风险 | 技术

几位妇女在听完已故亲人的讲述后,流着泪承认了她们对此事的震惊。 展示 电视 蚁丘 (天线3) “这感觉非常真实,我需要它,我真的需要它,”一位年轻女子在镜头前抽泣着。 “声音太棒了,对这次经历非常满意,”另一位女士补充道,擦去了脸上的泪水。 巴勃罗·莫托斯的程序利用人工智能从真实音频中再现死者的声音。 他们不仅复制了它,而且由于使用了非常简单的方法而导致了错误信息问题 这些 深度造假 用乔·拜登的声音 或英国工党领袖凯尔·斯塔默(Keir Starmer)。 音频产生了向参与者提出的问题——“我们还有对话吗?” ——正如该程序所称的那样,在这种“真实的体验”中,它已经沉浸在 黄金时间 在新兴市场,利用人工智能 (AI) 重新创造死者。 心理学家警告说,它会干扰对悲伤的自然适应,并使最痛苦的阶段变成慢性。

亲密之人的去世就像失去了自己的一部分。 这是情绪健康方面的一些困难的根源 许多人愿意做任何事情来减轻这种巨大的失落感。 如果可能的话,甚至可以与所爱的人面对面交谈。 这听起来像科幻小说,但公司喜欢 此后故事文件 复制品 他们正在这样做,而且这并不是什么超自然的事情。 他们利用采访和其他内容创建死者的数字版本,以便通过聊天、语音或视频与生者互动。 在中国,这项业务已经在增长,有几家公司声称已经创建了数千个这样的数字角色或幽灵机器人。 有些人甚至声称他们可以做到。 仅对死者进行了30秒的视听记录。

美国人 故事档案 通过视频采访人们的一生,询问一系列有关关键经历的问题,例如他们的童年、婚礼或最大的挑战,以及受访者决定添加的其他问题。 根据回答并使用人工智能,生成对话视频,孩子、父母、朋友和亲戚将来可以与之互动。 据他们透露,大约有 5,000 人已经在该平台上创建了个人资料。 该服务的费用在 40 至 450 欧元之间,具体取决于您希望包含的问题数量。 他们还提供免费试用。

StoryFile 联合创始人斯蒂芬·史密斯 (Stephen Smith) 解释说,该公司诞生于十年前,旨在保存大屠杀幸存者的记忆。 但直到 2021 年底,该平台才变成了今天的样子,任何人都可以在家里或工作室使用网络摄像头录制视频。

这位联合创始人强调,该平台并不是发明内容,而是“恢复预先录制的内容”、已经存在的内容。 但可以更进一步,添加其他格式的信息。 “我们使用对话式存档方法来做到这一点。 这意味着使用人们生活中的内容,比如我们可以克隆声音的视频,然后让他们说出他们在生活中说过的话。 例如,您可以使用电子邮件,然后让其读给您听。 如果有人希望这种情况发生,那就有可能。”他通过视频会议告诉《国家报》。

上瘾的危险

也许最令人不安的因素是,有些人可能会变得依赖甚至沉迷于与虚拟化身交谈,因为他们会产生一种与死者亲近的错误感觉,正如 Antena 3 项目所显示的那样。 自愿参加的女性直接对着声音说话——“我会告诉你……”、“我想你”——就好像那个合成娱乐就是他一年前去世的祖母。

“一开始,大家松了口气。 但随后就会出现上瘾、依赖性,”专门研究悲伤过程的心理学家何塞·冈萨雷斯警告说。 “如果人工智能确实再现了一个人的样子,那么就存在很大的时间化危险,尤其是在非常紧密的联系中。 人们很容易产生他没有死的幻想。 这可能会导致否认阶段的冻结,”他继续说道。

这位专家在 25 年来与超过 20,000 名悲伤的人一起工作过,他同意对话视频有助于保持记忆、讲述轶事或在几代人之间情感地传递信息。 此外,当谈到复制一些通过协商完成的技术来解决悬而未决的问题时,这些问题无法通过谈话解决。 “我会问一些关于与死者的关系的问题,例如‘我最喜欢你的哪一点’或‘你什么时候最令我失望’。 有了这些答案,哀悼者写了一封信,并对着一张空椅子读出来,”他描述道。 他表示,只要在专业人士的密切监督下,人工智能就可以及时应用于这样的动态。

冈萨雷斯指出,这些录音中表达的内容也存在风险。 告别信息可以非常有力,有助于减轻痛苦,因为这是你告诉家人你有多爱他们的时刻,这让他们摆脱了内疚,让悲伤变得更容易忍受。 然而,如果没有专家的监督,即使是最好的意图也可能会造成不利的影响。 “想象一下,我是一个独生女的父亲,我告诉她:‘我把你作为一个重要目标,让你照顾好你的母亲。’ 它可以非常美丽,但如果将成为母亲的人病得很重,它也可以是一句话。”此时,专业人士会建议父亲以不同的方式说话,以防止创造。如果没有监督,产生误解的可能性就会增加。

道德问题

虚拟角色可以忠诚到什么程度? 谁拥有它? 什么类型的数据可用于其创建? 这些只是围绕该主题出现的一些问题。 为了 格里·哈塞尔巴赫欧洲研究委员会的一位伦理学家认为,其影响扩展到了存在主义领域:“每一项基于可以与人类竞争的事实或想法的技术都会提出这样的问题:作为人类意味着什么,我们的极限是什么?如果有可能用它来克服极限。”

哈塞尔巴尔奇 (Hasselbalch) 也是该公司的联合创始人 智库 丹麦语 数据伦理网认为死者化身的扩散代表着一个超越数据、同意或谁拥有权利的困境。 “它可能会改变人类和人类的身份,因为它质疑死亡的概念,”她说。

在几个潜在的问题中,这位人工智能伦理专家强调了一种工具的可能性,该工具不仅可以收集死者的社交网络、电子邮件和移动消息的内容,还可以收集他们的互联网搜索模式。 这可能会揭示这个人未知的爱好或兴趣,从对动物或运动的热情,到最坏的情况下,一个黑暗的秘密。

如果人工智能将这些信息与构成您身份的其他元素结合起来,但与某些方面具有更大的相关性,则可能会创建一个与现实生活中的人几乎没有相似之处的化身或机器人。 他警告说,在这种情况下,“将会失去控制”。 而且这并不是唯一的一个。 “如果你想念的亲人告诉你以某种方式投票或购买特定的东西,你有多容易被操纵? 我们不知道这背后会出现哪些公司,”她反思道。

“深度假货”和“版权”

StoryFile 的客户之一是已故的山姆·沃尔顿 (Sam Walton),他是沃尔玛巨头的创始人。 “我们处理了他的公司档案。 “我们审查了许多小时的材料,转录了他的演讲和视频,并用他所用的完全相同的词语为他一生中回答过的问题创建了 2,500 个答案,”他描述道。 结果是一个数字娱乐,其中有沃尔顿的脸、声音和真人大小的全息图。 可以很现实吗? “认识萨姆的人都会热泪盈眶,因为他太现实了,”该公司的高管艾伦·德拉诺 (Alan Dranow) 说。 商人的家人已经同意了这项生产,但是 其他著名的 在没有达成共识的情况下,人工智能重新塑造了他们的面孔和言语。

美国喜剧演员乔治·卡林 (George Carlin) 于 2008 年去世,他的声音和风格被克隆用于创作 播客 乔治·卡林:我很高兴我死了, 发布在 YouTube 上 一月初。 上周,洛杉矶联邦法院提起诉讼,要求其背后的公司 Dudesy 立即删除该音频特别节目。 他的女儿凯莉·卡林(Kelly Carlin)已经批评了这部作品,其中综合了艺术家对当前剧集的声音评论。 “我的父亲用一生的时间用他的人性、大脑和想象力来完善他的手艺。 没有任何机器可以取代他的天才。 这些人工智能生成的产品是重建永远不会再存在的思维的巧妙尝试。 “让艺术家的作品自己说话,”他在会上说道。 平台X

据 StoryFile 称,集成了该技术最先进技术的服务仅针对特定群体。 “目前我们不会在我们的网站上将其作为产品提供,而是为私人客户提供。 我们不希望我们的技术被用来创造 深度伪造 来自其他人,”史密斯限定道。

然而,还有一些替代方案可以做到这一点。 公司 嘿根例如,允许您生成具有语音克隆、口型同步和说话风格的视频。 如果不仔细看的话,几乎不可能注意到它是人工创造的。 尽管该平台被视为一种在企业界个性化和翻译内容的解决方案,但实际上它可以用于任何此类目的:与亲人告别或用它来赚钱。

您可以关注 EL PAÍS 技术 Facebook y X 或在这里注册以接收我们的 时事通讯


1706841376
#AI与那些不再存在的人对话人工智能复活死者的风险 #技术
2024-02-01 10:23:29

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​