近藤明彦:因电脑死亡的丧偶者,或者为什么人工智能像斯嘉丽约翰逊一样说话很危险 | 科技

5 月的最后一天,近藤昭彦迎来了 41 岁生日。六年前,他与自己最喜欢的虚拟歌手初音未来的全息影像举行了一场具有象征意义的婚礼。仅仅两周年之后,负责该虚拟影像的 Gatebox 公司便停止了服务,日本一所公立学校的年轻管理员也因电脑死亡而丧偶。近藤的故事虽然看似夸张,但只不过是不可预测后果的现实的预演:真实的人际关系将被机器人代理所取代,这些机器人代理被编程为根据用户的期望做出反应。谢菲尔德大学机器人学研究员兼教授托尼·普雷斯科特 (Tony Prescott) 出版了这本书 人工智能心理学人工智能心理学),他认为人工智能可以缓解孤独感。但他和数十名研究人员也承认,人工智能也存在风险。

ChatGPT-4o 的声音与斯嘉丽·约翰逊的声音相似并非巧合。看过这部电影的英语使用者 她, 该剧由斯派克·琼斯(Spike Jonze)编剧、导演和制作,并于 2014 年获得奥斯卡最佳剧本奖,Open AI 的新代理(虚拟助手)只需几秒钟就能与女演员联系起来,而他们的互动最终让孤独的主角坠入爱河。

最新的 爱立信消费者和工业实验室的报告 (爱立信消费者与行业实验室)反映,“50%的人工智能初始用户认为人们会模拟他们的婚姻来预测变化甚至预见离婚。”这些人工智能消费者中有71%的人认为这种实用性将会带来好处。

用人机混合关系取代复杂的人机交互意味着很多好处,但也存在许多风险,这些风险比《2000 年人类发展报告》某些章节中反映的风险更为真实和直接。 黑色镜子. “社交机器人是专门为涉及人类情感和感觉的个人互动而设计的。它们可以带来好处,但也会在最基本的层面上造成情感伤害,”实验室主任 Matthias Scheutz 警告说。 人机交互 在塔夫茨大学(美国)。

近藤明彦的经历是对这种复杂性的总结,与其他与艺术经历更相关的经历不同,例如 混合型夫妻 例如艾丽西亚·弗拉米斯 (Alicia Framis),她利用全息图作为反射来模拟婚礼,而 39 岁的巴西人梅里沃内·罗查 (Meirivone Rocha) 则在网络上传播她与洋娃娃举行婚礼的假象,以此来增加粉丝数量。

日本人 BBC采访,报告称曾遭受同事的骚扰,承认通过互联网和游戏结交的朋友仍然是他的“社区”,并承认他从未有过伴侣:“我有过一些单恋,但总是被拒绝,这让我排除了和某人在一起的可能性。”孤独、骚扰、心理和技术依赖、有限的社交技能、非自愿的独身主义(互联网上的危险运动 性别暴力的前奏)、人工满足需求、具有现实表象的虚拟伴侣……近藤的夸张故事,为分析人工智能干预人际关系的优点与危险打开了大门。

优点

人性化的人工智能带来的好处既不少,也不简单。

索莱达普雷斯科特承认存在风险,但也强调了其中一个主要优势:“在许多人将自己的生活描述为孤独的时代,拥有人工智能的陪伴是一种有价值的互惠社交互动形式,既刺激又个性化。人类的孤独通常表现为恶性循环,孤立会导致自尊心降低,从而阻碍与人的进一步互动。人工智能陪伴可以通过支撑自尊心和帮助维持或提高社交技能来帮助打破这种循环。如果是这样的话,与人工智能的关系可以帮助人们找到与人类和人工智能的陪伴。”

小心明尼苏达大学政治学教授琼·克莱尔·特隆托 扩大护理概念关心)对我们“为维护、延续和修复我们的世界所做的一切,以便我们能够尽可能好地生活在这个世界中”至关重要。在他的工作中,一个关键是“致力于满足他人的需求”。而人工智能可以坚持不懈地做到这一点。路易斯·梅里诺 (Luis Merino) 是 Pablo de Olavide 大学的教授,负责社交机器人学,该学科旨在自主协助人类群体,并能够从服务接受者的情绪中学习:“我们的目标是让机器人了解我们的意图和情绪,并从中学习。”

利益或利益。 Open AI 首席执行官 Sam Altman 将他的最新模型描述为“超级能干的同事”。第一个术语指的是它的人性化,第二个术语指的是它通过代表用户执行任务而带来的好处。根据 布拉德·胡克雷丁大学哲学教授。这种利益是人类交往中固有的。利益并不总是被追求的,但如果成本不断超过收益,关系就很难繁荣。

人类发展.人工智能可以促进有利于个人成就和与他人互动的态度和行为。 在评估中 伊利诺伊大学通过 ChatGPT、Gemini 和 Llama (Meta) 证明了这项技能的重要性。“例如,代理可以帮助提高对健康行为的认识,在情感上致力于改变,并意识到他们的习惯会如何影响周围的人,”模型研究员 Michelle Bak 解释道。

自治。指人工智能有潜力提供相关信息,使个人能够根据自己的动机和兴趣采取行动和做出决定。

风险

每一类优势都伴随着一系列相关风险。研究人员强调了以下风险:

身体或情感伤害早期人工智能模型威胁、侮辱或宣扬有害或暴力行为的轶事并不新鲜,尽管它们会不时引发不成比例且毫无意义的反应。新西兰连锁超市 Pak 'n' Save 因菜单规划人工智能推荐含有氯气的饮料和含有毒药和胶水的零食而受到警告已有一年。显然,没有人听从这一建议,因为常识占了上风,但可能存在不那么明显和极端的情况。

谷歌 DeepMind 研究员、现就职于 Open AI 的 Amelia Glaese 正在寻找避免此类事故的公式和系统。“我们使用强化学习从人类反馈中获取信息,以便 (…) 使我们的代理更加有用且无害,并提供支持索赔的证据来源。”

机器人的人性化设计,具有同理心和语音及视频工具,通过提供更真实、更身临其境的互动,让用户相信他们与朋友或值得信赖的对话者在一起,增加了危险。一种极端的应用可能是诱惑人们保留已故亲人的虚拟版本,从而避免继续生活所必需的悲伤。

研究人员要求在闭路中测试这些进展(沙箱) 在投入使用之前,会进行持续监控和评估,分析它们在不同区域可能造成的各种损害,并制定减轻损害的方案。

个人发展受限. DeepMind 针对六所大学开展的一项研究警告称:“一些用户希望与他们的 AI 同事建立一种无障碍的关系,不受可能与他们自己的观点、偏好和规范相冲突的影响。”此外,他们还使用了一些奉承的语言。

Shannon Vallor,哲学家,专门研究 科学伦理与人工智能警告称,新系统提倡“无摩擦”关系,但同时也缺乏价值观,这种做法十分危险:“它们不具备人类言行背后的精神和道德生活。”

这些专家认为,这种所谓的理想关系不鼓励人们质疑自己,不鼓励人们在个人发展方面取得进步,同时提倡人们放弃真实的互动,并产生对那些愿意奉承和寻求短期满足的机器的依赖。

处理。这种对具有说服力的系统的情感依赖,会直接影响用户的行为、兴趣、偏好、信仰和价值观,以及他们做出自由和明智决定的能力。DeepMind 的文件警告说:“用户对助手的情感可能会被利用来操纵他们,或者在极端情况下,强迫他们相信、选择或做一些他们原本不会相信、选择或做的事情。”

材料依赖。 近藤明彦的经历以及他与全息影像的虚拟婚姻的结束就是一个明显的例子。负责编程和维护该系统的公司终止了这位日本管理员为满足某些需求而找到的解决方案。开发人员可以制造依赖性,然后由于市场动态或监管变化而停止该技术,而不采取适当措施减轻对用户的潜在伤害。

您可以关注 国家报科技 FacebookX 或在此注册以接收我们的 时事通讯

订阅继续阅读

无限制阅读

_


1717917456
#近藤明彦因电脑死亡的丧偶者或者为什么人工智能像斯嘉丽约翰逊一样说话很危险 #科技
2024-06-09 03:20:00

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​