加州立法者正努力引领人工智能

四年来,雅各布·希尔顿 (Jacob Hilton) 一直在湾区最具影响力的初创公司之一 OpenAI 工作。他的研究帮助测试和提高了 ChatGPT 等人工智能模型的真实性。他相信人工智能可以造福社会,但他也认识到,如果对这项技术不加以控制,将带来严重风险。 Hilton 是本月签署了一份 公开信呼吁 要求对举报人提供更多的保护,并指出广泛的保密协议存在问题。 “基本情况是,员工,最接近技术的人,也是因敢于直言而遭到报复损失最大的人,”33 岁的希尔顿说道,他现在是位于伯克利的非营利性协调研究中心的研究员。 然而,代表大型科技公司的团体认为,拟议的立法可能会扼杀创新和创造力,导致加州失去竞争优势,并极大地改变该州人工智能的发展方式。 一项由卡车司机工会共同发起的法案旨在强制对无人驾驶重型卡车进行人工监督。一项由服务雇员国际工会支持的法案试图禁止在提供公共福利服务(如 Medi-Cal)的呼叫中心使用人工智能系统进行自动化或取代工作。另一项由参议员斯科特·维纳 (Scott Wiener)(旧金山民主党人)起草的法案将要求开发大型人工智能模型的公司进行安全测试。 此前,政客们因没有对社交媒体公司进行足够严厉的打击而受到批评,随后又出台了一系列法案。 为时已晚拜登政府时期,联邦和州民主党人更加积极地追究 大型科技公司。 “我们已经看到,在其他技术上,我们直到出现大问题后才会采取行动,”维纳说。“社交媒体为社会做出了许多贡献……但我们知道社交媒体也存在重大弊端,而我们没有采取任何措施来减少或减轻这些危害。现在我们正在努力追赶。我宁愿不去追赶。” 随着人工智能工具的快速发展,这一举措应运而生。他们读到 睡前故事 对儿童进行分类 驾车通过订单 在快餐店,并帮助 音乐视频. 虽然一些技术爱好者对人工智能的潜在好处充满热情,但其他人则担心失业和安全问题。 “这让包括许多专家在内的几乎所有人都感到惊讶,因为 [the tech is] “人工智能正在不断进步,”旧金山非营利组织人工智能安全中心主任 Dan Hendrycks 表示。“如果我们只是拖延,几年内什么也不做,那么我们可能就等不到最后了。” 维纳提出的法案 SB1047 得到了人工智能安全中心的支持,该法案要求构建大型人工智能模型的公司进行安全测试,并有能力关闭他们直接控制的模型。 该法案的支持者表示,该法案将防止人工智能被用于制造生物武器或关闭电网等情况。该法案还将要求人工智能公司实施员工匿名提出担忧的方式。州检察长可以提起诉讼以执行安全规则。 维纳说:“非常强大的技术既带来好处,也带来风险,我希望确保人工智能带来的好处远远超过风险。” 该法案的反对者包括 TechNet,这是一个行业组织,其成员包括 Meta、谷歌和 OpenAI 等科技公司。他们表示,政策制定者应该谨慎行事。Meta 和 OpenAI 尚未回应置评请求。谷歌拒绝置评。 TechNet 加州和西南地区执行董事迪伦霍夫曼 (Dylan Hoffman) […]

OpenAI、谷歌 DeepMind 员工签署公开信,呼吁保护举报人,揭露人工智能风险

OpenAI 和 Google DeepMind 的一群现任和前任员工呼吁保护自己,避免因分享对这些公司和其他公司正在开发的技术的“严重风险”的担忧而受到报复。 “只要政府对这些公司没有有效的监督,现任和前任员工就是少数可以要求他们向公众负责的人,”一封公开信中写道。这封信由 13 名曾在这些公司工作过的人签署,其中 7 人签了名。 “然而,广泛的保密协议阻止我们表达我们的担忧,除非那些可能无法解决这些问题的公司。” 最近几周,OpenAI 解散了其最引人注目的安全团队之一,并遭遇一系列员工离职,其保护人工智能 (AI) 的方法引发了争议。 OpenAI 员工还表示,他们担心员工被要求签署与公司股份挂钩的互不诋毁协议,如果他们公开反对这家人工智能初创公司,他们可能会失去丰厚的股权交易。在遭到一些抵制后,OpenAI 表示将解除前员工的协议。 雅各布·希尔顿 (Jacob Hilton) 是周二签署公开信的 OpenAI 前员工之一,他在 X 上写道,公司因改变不贬低政策而值得称赞,“但员工可能仍担心因披露而遭到其他形式的报复,例如被解雇和被起诉索赔”。 OpenAI 发言人在发给彭博社的声明中表示,公司对“提供最强大、最安全的人工智能系统的记录”感到自豪,并相信我们应对风险的科学方法。 该发言人补充道:“我们同意,鉴于这项技术的重要性,严谨的辩论至关重要,我们将继续与世界各国政府、民间社会和其他社区进行接触。” 谷歌的一位代表没有立即回应置评请求。 在这封题为《对先进人工智能发出警告的权利》的信中,员工们表示,他们之所以感到担忧,是因为领先的人工智能公司“有强大的经济动机来逃避有效的监管”。 另一方面,他们表示,这些公司“只有很弱的义务”向公众分享其人工智能系统的真正危险。信中指出,普通的举报人保护措施不够充分,因为它们关注的是非法活动,而员工担心的许多风险尚未受到监管。 在他们的提案中,员工们要求人工智能公司承诺禁止与风险相关问题签订非贬损协议,并建立一个可验证的匿名流程,供员工向公司董事会和监管机构提出问题。 提案还要求公司不要对在用尽其他内部流程后公开分享风险信息的现任和前任员工进行报复。 OpenAI 表示,公司定期与董事会举行问答会议,并安排领导层办公时间,让员工表达关切。该公司还表示,公司为员工和承包商设立了一条匿名“诚信热线”。 今年早些时候离职的 OpenAI 前员工 Daniel Kokotajlo 表示,他担心公司是否做好了应对的准备。 通用人工智能(AGI)的含义这是人工智能的一种假想版本,它能够在很多任务上超越人类。科科塔伊洛表示,他相信到 2027 年实现 AGI 的可能性为 50%。 “实际上没有什么可以阻止公司构建 AGI 并将其用于各种用途,而且透明度也不高,”Kokotajlo 表示,他冒险放弃自己的股权以避免签署一份不贬低协议。 “我辞职是因为我觉得我们还没有准备好。我们作为一家公司还没有准备好,我们作为一个社会还没有准备好,我们确实需要投入更多精力去准备和思考其影响。” 1717553328 #OpenAI谷歌 […]