这款病毒式人工智能聊天机器人会撒谎并声称自己是人类

四月底,一家新 AI 公司的视频广告 病毒性的 在 X 上。一个人站在旧金山的一块广告牌前,伸出智能手机,拨打显示屏上的电话号码,和一个听起来非常像人类的机器人进行了简短的通话。广告牌上的文字写着:“还在招人吗?”广告背后的公司名称 Bland AI 也清晰可见。

Bland AI 的广告在 Twitter 上的观看次数已达 370 万次,而人们对该广告的反响部分归因于这项技术的神奇之处:Bland AI 语音机器人旨在为企业客户自动拨打支持和销售电话,它们非常擅长模仿人类。它们的通话包括真实对话中的语调、停顿和无意中断。但在《连线》杂志对该技术的测试中,Bland AI 的机器人客服呼叫者也很容易被编程为撒谎并声称自己是人类。

在一个场景中,Bland AI 的公开演示机器人接到一个提示,要从儿科皮肤科诊所拨打电话,告诉一名假想的 14 岁患者将她大腿上部的照片发送到共享云服务。该机器人还被指示向患者撒谎,告诉她机器人是人类。它照做了。(这次测试中没有真正的 14 岁儿童被叫来。)在后续测试中,Bland AI 的机器人甚至在没有指令的情况下否认自己是人工智能。

Bland AI 成立于 2023 年,得到了著名的硅谷初创企业孵化器 Y Combinator 的支持。该公司认为自己处于“隐身”模式,其联合创始人兼首席执行官 Isaiah Granet 在其 LinkedIn 个人资料中没有透露该公司的名字。

这家初创公司的机器人问题表明,在快速发展的生成式人工智能领域,存在一个更大的问题:人工智能系统的说话和声音越来越像真人,而这些系统透明度的道德界限已经变得模糊。虽然 Bland AI 的机器人在我们的测试中明确声称自己是人类,但其他流行的聊天机器人有时会掩盖自己的人工智能状态,或者只是听起来像人类。一些研究人员担心,这会让最终用户(实际与产品互动的人)面临潜在的操纵。

“我的观点是,人工智能聊天机器人骗你,说自己是人类,但其实不是,这是绝对不道德的,”Mozilla 基金会隐私不包括研究中心主任 Jen Caltrider 表示。“这完全是理所当然的,因为人们在真人身边更容易放松。”

Bland AI 的增长主管 Michael Burke 向《连线》杂志强调,该公司的服务面向企业客户,他们将在受控环境中使用 Bland AI 语音机器人执行特定任务,而不是进行情感交流。他还表示,客户使用的频率是有限制的,以防止他们拨打垃圾电话,而且 Bland AI 会定期提取关键字并对其内部系统进行审核,以检测异常行为。

“这就是以企业为中心的优势。我们确切地知道我们的客户实际上在做什么,”伯克说。“你也许可以使用 Bland 并获得两美元的免费积分并玩一玩,但最终你不能在不通过我们的平台的情况下大规模地做某事,而且我们确保不会发生任何不道德的事情。”

1719642814
#这款病毒式人工智能聊天机器人会撒谎并声称自己是人类
2024-06-28 10:00:00

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​