OpenAI、谷歌 DeepMind 员工签署公开信,呼吁保护举报人,揭露人工智能风险

OpenAI 和 Google DeepMind 的一群现任和前任员工呼吁保护自己,避免因分享对这些公司和其他公司正在开发的技术的“严重风险”的担忧而受到报复。 “只要政府对这些公司没有有效的监督,现任和前任员工就是少数可以要求他们向公众负责的人,”一封公开信中写道。这封信由 13 名曾在这些公司工作过的人签署,其中 7 人签了名。 “然而,广泛的保密协议阻止我们表达我们的担忧,除非那些可能无法解决这些问题的公司。” 最近几周,OpenAI 解散了其最引人注目的安全团队之一,并遭遇一系列员工离职,其保护人工智能 (AI) 的方法引发了争议。 OpenAI 员工还表示,他们担心员工被要求签署与公司股份挂钩的互不诋毁协议,如果他们公开反对这家人工智能初创公司,他们可能会失去丰厚的股权交易。在遭到一些抵制后,OpenAI 表示将解除前员工的协议。 雅各布·希尔顿 (Jacob Hilton) 是周二签署公开信的 OpenAI 前员工之一,他在 X 上写道,公司因改变不贬低政策而值得称赞,“但员工可能仍担心因披露而遭到其他形式的报复,例如被解雇和被起诉索赔”。 OpenAI 发言人在发给彭博社的声明中表示,公司对“提供最强大、最安全的人工智能系统的记录”感到自豪,并相信我们应对风险的科学方法。 该发言人补充道:“我们同意,鉴于这项技术的重要性,严谨的辩论至关重要,我们将继续与世界各国政府、民间社会和其他社区进行接触。” 谷歌的一位代表没有立即回应置评请求。 在这封题为《对先进人工智能发出警告的权利》的信中,员工们表示,他们之所以感到担忧,是因为领先的人工智能公司“有强大的经济动机来逃避有效的监管”。 另一方面,他们表示,这些公司“只有很弱的义务”向公众分享其人工智能系统的真正危险。信中指出,普通的举报人保护措施不够充分,因为它们关注的是非法活动,而员工担心的许多风险尚未受到监管。 在他们的提案中,员工们要求人工智能公司承诺禁止与风险相关问题签订非贬损协议,并建立一个可验证的匿名流程,供员工向公司董事会和监管机构提出问题。 提案还要求公司不要对在用尽其他内部流程后公开分享风险信息的现任和前任员工进行报复。 OpenAI 表示,公司定期与董事会举行问答会议,并安排领导层办公时间,让员工表达关切。该公司还表示,公司为员工和承包商设立了一条匿名“诚信热线”。 今年早些时候离职的 OpenAI 前员工 Daniel Kokotajlo 表示,他担心公司是否做好了应对的准备。 通用人工智能(AGI)的含义这是人工智能的一种假想版本,它能够在很多任务上超越人类。科科塔伊洛表示,他相信到 2027 年实现 AGI 的可能性为 50%。 “实际上没有什么可以阻止公司构建 AGI 并将其用于各种用途,而且透明度也不高,”Kokotajlo 表示,他冒险放弃自己的股权以避免签署一份不贬低协议。 “我辞职是因为我觉得我们还没有准备好。我们作为一家公司还没有准备好,我们作为一个社会还没有准备好,我们确实需要投入更多精力去准备和思考其影响。” 1717553328 #OpenAI谷歌 […]

OpenAI 在开始训练新模型时成立了安全委员会

OpenAI 已成立安全委员会,由董事会成员领导,包括 首席执行官 Sam Altman这家人工智能初创公司周二表示,它正开始训练其下一个人工智能模型。 OpenAI 在公司博客上表示,董事 Bret Taylor、Adam D'Angelo 和 Nicole Seligman 也将领导该委员会。 随着人工智能模型变得越来越强大,微软支持的 OpenAI 聊天机器人具有生成人工智能功能,例如进行类似人类的对话和根据文本提示创建图像,这引发了安全担忧。 前首席科学家 Ilya Sutskever 和 Jan Leike 曾是 OpenAI 超级对齐团队的负责人,该团队负责确保 AI 与预期目标保持一致, 本月初离开公司。 (如需了解当天的热门科技新闻, 订阅 关注我们的科技时事通讯《今日缓存》 据 CNBC 报道,OpenAI 于 5 月初解散了 Superalignment 团队,此时距离该公司成立还不到一年,部分团队成员被重新分配到其他部门。 新委员会将负责向董事会就 OpenAI 项目和运营的安全决策提出建议。 其首要任务是未来 90 天内评估并进一步开发 OpenAI 现有的安全实践,随后与董事会分享建议。 该公司表示,董事会审查后,OpenAI 将公开分享已采纳建议的最新消息。 委员会的其他成员包括新任命的首席科学家 Jakub Pachocki 和安全主管 Matt […]

它是如何运作的、好处和危险

简单来说什么是生成式人工智能? 生成式人工智能是一种人工智能技术,广泛描述了能够生成文本、图像、代码或其他类型内容的机器学习系统,通常是响应用户输入的提示。 生成式人工智能模型越来越多地被纳入在线工具和聊天机器人中,这些工具和聊天机器人允许用户在输入字段中输入问题或指令,然后人工智能模型将生成类似人类的响应。 下载:来自 TechRepublic Premium 的生成式 AI 指南。 生成式人工智能如何运作? 生成式人工智能使用称为深度学习的计算过程来分析大量数据中的模式,然后复制该数据以创建看似人类生成的新数据。 它通过采用神经网络来实现这一点,神经网络是一种机器学习过程,大致受到人类大脑随着时间的推移处理、解释和学习信息的方式的启发。 举个例子,如果你将大量的小说写作输入到生成式人工智能模型中,它最终将获得根据其所训练的文献来制作故事或故事元素的能力。 这是因为为生成式人工智能模型提供动力的机器学习算法从输入的信息中学习——就小说而言,这将包括情节结构、人物、主题和其他叙事手段等元素。 随着时间的推移,生成式人工智能模型变得越来越复杂——模型训练和生成的数据越多,其输出就越有说服力,也就越像人类。 生成式人工智能的例子 近年来,生成式人工智能的普及呈爆炸式增长,这在很大程度上要归功于 OpenAI 的 ChatGPT 和 DALL-E 模型的到来,它们将可用的人工智能工具交到了消费者手中。 从那时起,包括谷歌、微软、亚马逊和 Meta 在内的大型科技公司都推出了自己的生成式人工智能工具,以利用该技术的快速普及。 尽管文本和图像生成模型可以说是最著名的,但现在存在各种生成式人工智能工具。 生成式人工智能模型通常依赖于用户向引擎输入提示,引导引擎产生某种所需的输出,无论是文本、图像、视频还是一段音乐,尽管情况并非总是如此。 生成式人工智能模型的示例包括: 聊天GPT: OpenAI 开发的人工智能语言模型,可以回答问题并根据文本提示生成类似人类的响应。 从-E 3: OpenAI 的另一个 AI 模型,可以根据文本提示创建图像和艺术品。 Google Gemini: Gemini 以前称为 Bard,是 Google 的生成式 AI 聊天机器人,也是 ChatGPT 的竞争对手。 它经过 PaLM 大语言模型的训练,可以回答问题并根据提示生成文本。 克劳德2.1: Anthropic 的 […]

87% 的英国企业没有做好应对网络攻击的准备

微软和伦敦大学金史密斯学院的一份报告发现,只有 13% 的英国企业能够抵御网络攻击,其中 48% 的企业被认为容易受到攻击,其余 39% 的企业面临高风险。 对 1,039 名高级业务决策者和 1,051 名员工的调查显示,大多数英国组织缺乏足够的网络安全工具或流程。 微软警告称,当不良行为者利用人工智能发起更复杂的攻击时,87% 的组织面临安全威胁(图A)。 图A 根据微软和金史密斯学院的研究,近十分之九的英国组织没有充分防范网络攻击。 图片:微软 微软和金史密斯学院的研究亮点 在网络防御中使用人工智能每年可以为英国经济节省 520 亿英镑(660 亿美元)。 只有 27% 的英国组织正在使用人工智能来加强其网络安全。 使用人工智能网络安全的组织对攻击的抵御能力是未使用人工智能的组织的两倍,并且在受到攻击时损失的成本降低了 20%。 35% 的英国组织正在努力填补永久网络安全职位的空缺。 69% 的商业决策者认为英国需要更好的网络安全防御才能成为人工智能领域的领导者。 英国没有辜负“人工智能超级大国”的称号 据报道,题为 关键任务:通过网络安全释放英国人工智能机遇目前,网络攻击每年给英国造成的损失估计为 870 亿英镑(1110 亿美元)。 该报告的作者认为,英国企业缺乏抵御网络攻击的能力,与该国成为人工智能全球领导者的雄心相矛盾,这一点以签署 布莱切利宣言 2023 年 11 月和 国家人工智能战略 2021 年,这是一项雄心勃勃的十年计划,旨在推动人工智能在商业中的应用并吸引国际投资。 看: 网络联盟:英国 NCSC 呼吁行业专家加入对抗网络威胁的行列 微软英国首席执行官:英国组织必须做好以牙还牙的准备 在这项研究中,52% 的安全决策者和 60% 的高级安全专业人员表示担心当前的地缘政治紧张局势可能会加剧其组织的网络安全风险。 […]

新的人工智能监管白皮书谈到让英国经济为未来人工智能风险做好准备

在采取行动的压力下 AI安全相关问题英国政府发布了人工智能监管白皮书咨询,采取了更严格人工智能监管的大胆举措。 这 科学、创新及科技部宣布 2 月 6 日,新的人工智能监管白皮书将帮助英国监管机构提供超过 1 亿英镑的资金,以推进人工智能领域的研究和创新,特别是在医疗保健和药物发现领域。 作为该计划的一部分,苏纳克政府已要求英国监管机构在 4 月底之前发布一项应对人工智能风险和机遇的行动计划。 通过人工智能监管白皮书,英国政府寻求为通用人工智能系统引入未来有针对性的具有法律约束力的要求。 此举将有助于创建灵活的人工智能监管,并得到英国监管机构的支持,并拥有应对人工智能风险所需的技能和工具。 作为装备英国监管机构计划的一部分,英国监管机构已宣布拨款 1000 万英镑来提高他们的技能,以便他们能够应对风险并利用人工智能技术的机遇。 政府表示,从医疗保健、电信、金融到教育领域,这笔资金对于开发监控人工智能风险和欺诈的工具至关重要,例如开发监控人工智能系统的技术工具。 人工智能行业已经面临着压力,因为许多监管机构已经开始采取严格行动,例如信息专员办公室针对人工智能系统发布的最新数据保护法指南。 这包括人工智能系统中的个人数据保护和公平性。 如果人工智能系统不遵守法律,该指南将要求组织承担责任。 现在,苏纳克政府正在加强对人工智能的防范,进一步为英国监管机构提供详细的人工智能监管白皮书,使他们能够评估新出现的风险,并为他们提供创新和解决问题的空间。 为了创建一个灵活的人工智能监管框架来帮助英国企业并提高透明度,英国政府敦促 Ofcom 和竞争与市场管理局 (CMA) 等英国监管机构在 4 月 30 日之前发布应对人工智能威胁的展望。这些组织必须强调他们专业领域的人工智能风险和解决这些问题的技能,以及来年如何监管人工智能的详细计划。 人工智能监管白皮书阐述了英国在这一新兴领域应对监管的方式,确保其在人工智能安全方面的领先地位,以减轻阻碍创新的企业负担。 政府认为,随着人工智能安全、创新、人工智能研究和评估成为中心舞台,这种方法将帮助英国比其他国家拥有竞争优势。 英国政府明确表示,随着人工智能的快速发展,为尚未被充分理解的新型欺诈和骗局让路,英国政府将致力于制定有效的立法,而不是过时的快速修复解决方案。 英国监管机构有针对性地解决人工智能风险,是政府针对人工智能监管采取的基于情境的方法。 这是在 网络安全法正式生效 最近旨在保护英国儿童和英国消费者免受网络犯罪的侵害。 强有力的人工智能监管可以增强英国企业和公共服务的能力? 英国科学、创新和技术大臣米歇尔·多尼兰在谈到人工智能监管白皮书时表示:“英国在人工智能监管方面的创新方法使我们在人工智能安全和人工智能发展方面都处于世界领先地位。” 多尼兰强调,人工智能有潜力改变英国的公共服务,通过释放“先进技能和技术”来帮助英国经济增长,为“未来的英国经济”提供动力,并帮助治疗痴呆症和癌症等不治之症。 多尼兰表示:“通过采取灵活的、针对具体行业的方法,我们已经开始立即应对风险,这反过来又为英国成为世界上首批安全地受益于人工智能的国家之一铺平了道路。”添加。 技术大臣还宣布,已拨款 9000 万英镑,通过美英负责任的人工智能合作伙伴关系在全国各地创建九个研究中心。 这些中心将协助人工智能专家发展英国在数学、化学和医疗保健等各个领域的人工智能专业知识。 艺术与人文研究委员会 (AHRC) 已拨款约 200 万英镑用于警务、教育和创意产业的人工智能研究。 这是 AHRC 弥合负责任的人工智能鸿沟 […]