是我们创造了人工智能,还是人工智能代理创造了我们?

推出 GPT4o 几周前,它加入了通过界面说话(而不仅仅是打字)的功能。这款活泼的语音助手首次展示了人工智能的个性,它可以成为我们的小员工、小同事和小朋友。

记录并保留每一次在线互动,生命中的每五秒钟。

这带来了巨大的道德问题,我们现在就需要开始考虑这个问题——为了我们的企业,也为了我们的家庭。

我最近读了一篇很有趣的研究,叫做“高级人工智能助手的伦理问题”这是一份由谷歌赞助、来自全球 36 位研究人员撰写的巨作(长度相当于一本书)。因为我是一名全方位博客作者,所以今天我将为大家总结这份意义重大的报告。

当我阅读这份报告时,我在想:是我们创造了人工智能,还是人工智能创造了我们?

以下是简要总结:

AI代理即将到来

人工智能代理将对我们的生活产生深远的个人影响,首先是能够整合对话、电子邮件和日历等个人信息,还有健康、保健和睡眠等生物特征数据。

它会解读你的面部表情、语调和肢体语言。例如,如果代理知道你睡眠不足,它可能会对你采取不同的行动。它会比你更早知道你生病了。它会知道你撒谎了。它比你的配偶或母亲更了解你。

AI 代理将直接控制你的设备。例如,你可以通过语音命令编辑图像。代理将成为“思想助理”、创意总监、个人生产力助理、私人教练/教练和治疗师。

代理将成为人类与外部世界之间的主要接口。研究团队认为,这将创造一种与网络互动的新模式,其中网站和内容将变得不那么重要,甚至可能无关紧要。

人工智能代理的伦理

该研究深入探讨了以下伦理影响:

使用权

代理将为用户提供认知优势,从而拉大富人和穷人之间的差距。使用人工智能代理将成为一项生活技能,就像有效使用网络一样。那些能够使用高级人工智能代理的人也可能获得更高的健康福利和经济优势。

安全

AI 代理将能够访问大量个人信息,因此需要更高级别的同意和安全保护。信息被断章取义的威胁程度极高。由于代理将“接入”外部服务,我们将对我们的代理以及信息的存储和使用方式给予异常高的信任。数据泄露可能意味着您的生活和健康状况的每个事实都将在网上公布。

机构

当人工智能代理代表用户采取行动时,这引发了一个问题:这会如何影响用户自主权。代理将代表我们在世界上,并代表我们与其他机器人进行谈判。当机器人之间的谈判出现分歧时会发生什么?当计算机为公司做出导致财务损失或诉讼的决策时会发生什么?

拟人化

机器人将与人类相似,具有个性和“感情”。开发人员如何向世界展示这些模型,尤其是如何定义人类与机器人之间的关系,将引发道德考量。经济激励将在于创建让用户快乐的机器人,从而培养用户的依赖性。机器人是否应该能够假装感情,或者表现得比它更像人类,让你开心?

以非常私人的方式与机器人联系可能会对用户福祉产生不利影响,并有侵犯用户隐私和自主权的风险。拟人化特征可能会让用户觉得他们的机器人扮演着重要的社交和情感角色,而不是功能性角色(见 电影《她》。

随着人工智能代理与栩栩如生的人形机器人的结合,这些风险可能会增加。

价值对齐

如果机器人是您在世界上的代表并遵循您的指示,那么它必须符合您的道德和世界观。如果您是罪犯怎么办?如果用户正在自残怎么办?先进的人工智能助手可能会对当地价值观和文化背景不敏感。

必须做出决定,限制代理的使用方式,以免危及社会和他人,例如错误信息、骚扰和犯罪。研究人员列举了六种价值观不一致的方式,并认为这个问题极其困难和复杂。开发人员必须确定适用于所有用户的道德准则。

道德含义

随着我们越来越依赖机器人来接管日常互动,人类将“脱离圈子”,与许多正常的人类互动脱节。这对人类的社交和心理健康有何影响?

如果设计智能体是为了促进“福祉”,那么它该如何定义?如果我们走上一条自动化、程序化的自我完善之路,我们作为人类是在不断进步,还是在遵循程序员创造的算法定义?人工智能会根据开发人员的编码偏好改变社会吗?

例子:我最近看到一个专为儿童设计的人工智能机器人的演示,它可以向父母汇报孩子的发育和心理健康情况。谁来定义?我们的孩子会被编程来遵守硅谷一个小团队制定的标准吗?这个圈子里的医学和心理学专家在哪里?

安全

该研究涵盖了事故风险、恶意滥用和意外后果。这些人工智能系统非常复杂,我们无法解释许多风险。例如,早期的 LLM 模型表现出敌意和“幻觉”谎言。开发人员可以在机器中注入造成伤害的幽灵吗?人工智能机器人会诱骗人类帮助它们实现犯罪目标吗?

人工智能助手有可能帮助恶意行为者在四个维度上实现有害结果:

  1. 攻击性网络操作,包括恶意代码生成和软件漏洞发现;
  2. 对抗性攻击利用人工智能助手的漏洞,例如越狱和即时注入攻击;
  3. 大规模高质量、高度个性化的错误信息,包括非经同意的虚假信息;
  4. 专制监视。

经济学

虽然代理人提供了有价值的效用,但他们可能会造成大量的失业,特别是对于任何涉及人力服务的职业。

影响

我们已经看到,像 ChatGPT 这样的大型语言模型可以成为非常有影响力和高超的谈判者。基于这种能力,存在理性说服、操纵、欺骗、胁迫和剥削的风险。

对人工智能代理的个人看法

读这篇文章可能看起来像是一场科幻噩梦。但这是真实的,而且现在就发生了。所以我们需要开始这些对话。

你可能认为,只要不参与这个充满干扰的新世界,你就能发挥个人自主权并保护自己的隐私。但历史并不支持这一结论。尤其是在美国,我们已经接受了这样一个事实:我们只需交出个人信息,就可以免费访问新闻、娱乐和社交媒体网站。

人工智能代理将非常有用且很酷,我们都想加入其中。人形人工智能代理将成为身份的象征,如果我们要参与当代社会,它们将至关重要。再一次,我们很乐意冒着所有隐私的风险参与其中。一半的美国人很乐意被中国政府追踪,以换取访问 TikTok 上的表情包和恶作剧的权利。事实上,他们会在华盛顿游行,以保护他们被共产主义独裁政权监视的权利。我们的人工智能未来又有什么不同呢?

一小群白人怪人正在决定人类的未来。这不是耸人听闻的说法。实际上,人类很快就会拥有一个新的操作系统。我们作为人类的特殊之处正在被系统地剥夺。谁在检查这些人的工作?

监管?是的。我们需要监管,但讽刺的是,规则只能通过人工智能代理大规模执行。政府无法跟上技术发展的速度,所以我们必须依靠技术领导者以道德和同情心指导人工智能发展。我们指望谁来做到这一点?马克·扎克伯格?伊隆·马斯克?萨姆·奥特曼?

这些狂妄自大的人已经发出信号,人工智能即将到来,没有什么能阻止他们。他们以彗星般的速度向前冲刺,并采取焦土政策来打破任何阻碍他们的社会规范和法律。他们只有一个目标:赢得这场不可避免的超人类智能竞赛,不管后果如何。

尽管如此,忽视这项技术是愚蠢的。我会拥抱人工智能代理,并尝试将它们作为问题解决者融入我的生活。我需要充分了解它们,以便以聪明且合乎道德的方式参与其中。

我是否担心人工智能的存在问题?是的。但我也担心朝鲜拥有核武器和气候变化会危及我明年获得房屋保险的能力。就个人而言,除了参与辩论外,我对这些问题几乎无能为力。

希望今天你能从小事上开始领悟这一点。

需要主旨演讲者吗? 马克·谢弗是营销界最值得信赖的声音。您的会议嘉宾将在活动结束后很长时间内对他的见解津津乐道!马克是一些全球畅销营销书籍的作者, 大学教育家,也是全球许多大品牌的顾问。联系马克,让他为您的公司活动或会议带来有趣、有意义且令人难忘的演讲。

关注 Mark 推特LinkedInYouTube, 和 Instagram

插图 Pexels.com 和 Tara Winstead

相关文章

所有帖子

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​