当科技界领袖就人工智能法规争执不休时,其公司的法律部门正在强调早期规则的拼凑可能带来的商业风险。
DeepMind 首席执行官 Demis Hassabis、OpenAI 联合创始人 Sam Altman,甚至 Elon Musk 都呼吁采取不同程度的防护措施,他们认为这可以防止技术失控。
科技法律专家此前曾告诉《商业内幕》,不受约束的生成式人工智能可能开启一个“黑暗时代”,因为受版权保护的作品会被模型复制,从而抑制原创作品的创作积极性,而且不良行为者很容易制造和传播错误信息。
随着技术领导者和政策制定者弄清楚这些安全措施的实际内容,越来越多的财富 500 强公司开始强调法规可能带来的商业风险。
帮助企业解决生成式人工智能系统问题的初创公司 Arize AI 的分析发现,截至 5 月 1 日,财富 500 强企业中有 137 家(约占财富 500 强企业的 27%)在提交给美国证券交易委员会的年度报告中将人工智能监管视为对其业务的风险。
根据 Arize 的数据,2022 年至 2024 年间,将人工智能列为风险因素的财富 500 强公司数量飙升近 500%。
在这些年度报告中,公司列举了遵守新法律可能产生的成本、违反新法律可能遭受的处罚,或可能减缓人工智能发展的规则。
需要明确的是,他们不一定表示反对人工智能法律。相反,令人担忧的是,目前还不清楚这些法律将会是什么样子,如何执行,以及这些规则是否会在世界各地保持一致。例如,加州立法机构刚刚通过了第一项州级人工智能法案——但目前还不清楚州长加文·纽森是否会签署该法案,或者其他州是否会效仿。
Arize AI 首席执行官 Jason Lopatecki 在一封电子邮件中告诉《商业内幕》:“不断变化的监管环境所带来的不确定性显然给依赖人工智能系统的企业带来了真正的风险和合规成本,这些系统可以减少信用卡欺诈,改善患者护理或客户服务电话。我并不羡慕那些试图理解当前情况的立法者或助手。”
监管可能会减缓业务发展
企业的年度报告向投资者发出了一系列可能给企业带来打击的警告,从具体的风险(又一波新冠疫情)到一般的风险(例如遭受网络安全攻击或恶劣天气的可能性)。 现在,人工智能监管已成为未知数之一,其中就包括遵守新规则的成本。
例如,Meta 在其 2022 年年度报告中 11 次提到人工智能,在 2023 年报告中 39 次提到人工智能。该公司在其 2023年年度报告 该公司还担心其自身 AI 计划的风险,包括监管。这家科技巨头表示,“不可能预测与使用 AI 相关的所有风险”,包括监管将如何影响该公司。
摩托罗拉系统公司在其 年报 遵守人工智能法规“可能繁重且成本高昂,并且不同司法管辖区之间的法规可能不一致,从而进一步增加合规成本和责任风险”。
该公司写道:“目前还不清楚现有和未来管理人工智能、人工智能产品、生物识别和其他视频分析等问题的法律法规将如何适用于我们销售的产品和服务,或将如何执行。”
数据基础设施公司 NetApp 在其 年报 该公司的目标是“负责任地使用人工智能”,但可能“无法在问题出现之前发现或解决问题”。该公司补充说,减缓人工智能采用的监管可能会对其业务不利。
该公司写道:“如果监管实质上延迟或阻碍了人工智能的采用,我们产品的需求可能无法达到我们的预测。”
NetApp 首席执行官 George Kurian 表示 华尔街日报 他鼓励对人工智能进行监管。
库里安告诉该刊:“我们需要结合行业和消费者的自我监管,以及正式监管。如果监管重点是确保人们可以放心使用人工智能,那么这将是一大福音。”
1725248459
#一些财富 #强公司强调人工智能是一种商业风险
2024-09-02 03:02:03