伊隆·马斯克的 xAI 获得 60 亿美元投资,人工智能竞赛升温

埃隆·马斯克 (Elon Musk) 将资源投入到他的新 AI 初创公司 xAI,此举加剧了人工智能 (AI) 领域的竞争,此举被视为对他在 OpenAI 的前同事的挑战。 在 5 月 26 日 博客文章,马斯克领导的人工智能初创公司宣布在 B 轮融资中获得 60 亿美元。xAI 的 B 轮融资金额高达 60 亿美元,参与的知名投资者包括 Andreessen Horowitz、Sequoia Capital、Valor Equity Partners、Vy Capital、Fidelity Management & Research Company 以及沙特阿拉伯王子阿尔瓦利德·本·塔拉勒和 Kingdom Holding。

谷歌的人工智能建议在披萨上加胶水

The Prompt 每周都会发布人工智能领域最热门的初创企业、最大突破和商业交易摘要。若要将其发送到您的收件箱, 在此订阅。 欢迎回来《The Prompt》。 今天,OpenAI 宣布,它最近开始训练一种新的 AI 模型,该模型将 接替GPT-4 (ChatGPT 的模型)并产生所谓的“下一级能力”(尽管它没有说明这些能力是什么)。这家人工智能公司还表示,它正在创建一个 新安全与保障委员会 评估该技术带来的风险,并在未来 90 天内提出初步建议以减轻风险。该委员会将由公司董事会成员领导,包括 Bret Taylor、Adam D'Angelo、Nicole Seligman 和首席执行官 Sam Altman。OpenAI 表示,该委员会将咨询 外部专家 比如前国家安全局网络安全主管罗布·乔伊斯和前司法部官员约翰·卡林。 现在,让我们进入头条新闻。 道德与法律 在本月早些时候发布的 TikTok 上,Cassey Ho 表示,在一段视频中,Begoing 换了她的脸,她在视频中展示了自己的衣服。 何凯西 时装设计师 人体通过 AI 进行深度伪造 工具,以便 出售仿冒其自家产品的商品 在亚马逊和沃尔玛等平台上。 福布斯 采访了时尚品牌 Popflex 的首席执行官兼创始人 Cassey Ho,他也是热门服装单品的创造者, “旋转卡” 她说这些作品都是假的。何说她发现了这些“深度伪造”极其违反”她的品牌模特和顾客的照片也 被盗并发布在亚马逊商品清单上 销售假冒商品,她说。 市场走势 芯片制造商英伟达在华尔街度过了精彩的一周。在周三的财报电话会议上,这家人工智能巨头报告称,其 […]

前董事会成员表示 OpenAI 应由国家监管

OpenAI 首席执行官 Sam Altman 自去年 11 月复职以来一直受到密切关注。温麦克纳米/盖蒂图片社 两名前 OpenAI 董事会成员表示,政府需要监管人工智能公司。 海伦·托纳 (Helen Toner) 和塔莎·麦考利 (Tasha McCauley) 是 OpenAI 董事会中仅有的女性,并于 11 月离开了公司。 他们坚持解雇首席执行官萨姆·奥尔特曼的决定,因为他们担心他创造了一种“有毒”文化。 这是《商业内幕》美国同事的一篇文章的机器翻译。 它是由真正的编辑器自动翻译和检查的。 两名前 OpenAI 董事会成员表示,不能相信人工智能公司能够自我监管。 相反,第三方的监管对于追究他们的责任是必要的。 Helen Toner 和 Tasha McCauley 是 OpenAI 的董事会成员。 但随后他们于 11 月辞职,原因是在混乱的推动下罢免首席执行官萨姆·奥尔特曼 (Sam Altman) 的浪潮中。 奥特曼在被解雇几天后很快就恢复了首席执行官的职位。 五个月后他重返董事会。 也读一下 我的大脑里有埃隆·马斯克 (Elon Musk) 的 Neuralink 芯片 – 现在我用它来学习日语并浏览 Instagram 在周日发表的一篇评论文章中,“经济学家托纳和麦考利写道,他们坚持解雇奥特曼的决定。 […]

OpenAI 在开始训练新模型时成立了安全委员会

OpenAI 已成立安全委员会,由董事会成员领导,包括 首席执行官 Sam Altman这家人工智能初创公司周二表示,它正开始训练其下一个人工智能模型。 OpenAI 在公司博客上表示,董事 Bret Taylor、Adam D'Angelo 和 Nicole Seligman 也将领导该委员会。 随着人工智能模型变得越来越强大,微软支持的 OpenAI 聊天机器人具有生成人工智能功能,例如进行类似人类的对话和根据文本提示创建图像,这引发了安全担忧。 前首席科学家 Ilya Sutskever 和 Jan Leike 曾是 OpenAI 超级对齐团队的负责人,该团队负责确保 AI 与预期目标保持一致, 本月初离开公司。 (如需了解当天的热门科技新闻, 订阅 关注我们的科技时事通讯《今日缓存》 据 CNBC 报道,OpenAI 于 5 月初解散了 Superalignment 团队,此时距离该公司成立还不到一年,部分团队成员被重新分配到其他部门。 新委员会将负责向董事会就 OpenAI 项目和运营的安全决策提出建议。 其首要任务是未来 90 天内评估并进一步开发 OpenAI 现有的安全实践,随后与董事会分享建议。 该公司表示,董事会审查后,OpenAI 将公开分享已采纳建议的最新消息。 委员会的其他成员包括新任命的首席科学家 Jakub Pachocki 和安全主管 Matt […]

RAG 对抗机器:将第一方数据注入 AI 模型以获得更好的结果

第一方数据长期以来一直是营销人员的工具箱中的重要工具,用于在各个媒体触点上个性化客户体验。但它尚未影响大多数公司如何使用生成式人工智能技术。 然而,专有数据集有可能在当今生成式人工智能的几个关键营销应用中发挥重要作用。其中包括大规模内容制作、活动洞察生成和客户服务。 利用检索增强生成管道 (RAG) 形式的大量结构化和非结构化数据集合的技术和流程已经存在。RAG 是一种最近开发的流程,用于提取、分块、嵌入、存储、检索并将第一方数据输入基础模型(例如 OpenAI、Google 和 Meta 提供的模型)。 以下是如何使用这些工具将第一方数据注入您下一个支持 AI 的广告系列。 一切都与背景有关 无论您使用 GPT、Dall-E、Imagen、Gemini 还是 Llama,每次您要求生成式 AI 应用程序生成文本或图像时,您都会提供(主要基于文本的)指令。这些指令被发送到模型以生成所需的响应(称为推理)。结果要么是洞察,要么是广告文案或创意。 每个营销人员和机构都可以从 Google 和 OpenAI 的 PB 级训练数据中受益,从而更有效地完成工作。不过,有一个技巧。基础模型不会经常重新训练(可能每隔一年一次)。这意味着它们并不总是最新的。虽然这些模型可能看起来无所不知,但实际上它们对特定于您的品牌和客户的信息一无所知。 为什么?因为这些信息不对外公开。 如果你要求 Dall-E 或 Imagen 针对你的五个主要受众群体分别调整主创意,他们肯定会达不到要求,甚至可能产生幻觉,因为他们不知道你的受众是谁,也不知道他们可能对什么感兴趣。 能够利用第一方数据和知识为提示提供背景信息至关重要,这不仅能让您从人群中脱颖而出,还能帮助生成式 AI 模型提供有用的结果。如果您在提示中添加特定于受众的数据(例如人口统计和偏好),那么您将以极低的成本获得符合品牌的定制创意。 同样,要求 Gemini 或 GPT 为新产品撰写 500 到 800 个字符的亚马逊产品描述不会产生很好的效果,除非您在目录中添加其他产品的现有高性能文案示例。这个过程被称为小样本提示。 订阅 AdExchanger 日报 每个工作日将我们编辑的综述发送到您的收件箱。 RAG 时间 识别和提取专有知识和数据的能力是生成成功内容的关键。但是,需要做些什么才能将第一方数据输入大型语言模型 (LLM)? 对于生成式 AI,数据管理涉及的技术和管道与其他营销技术应用(例如客户数据平台)所使用的技术和管道不同。这是因为第一方数据的性质更为广泛,以及 […]

斯嘉丽·约翰逊的投诉反映出人工智能之战的现状

当斯嘉丽·约翰逊听到 ChatGPT 的声音,觉得听起来很像自己的声音时,她组建了一个法律团队来对抗开发商 OpenAI。这位女演员的经纪人成功让该公司的首席执行官山姆·奥特曼接了电话。但大多数人没有明星那样的金钱或影响力,他们几乎找不到法律保护来防止自己的作品被盗用。据《纽约时报》报道,这一事件清楚地表明了好莱坞竞相利用快速发展的人工智能技术所面临的争斗状态。 华尔街日报,其中有关于奥特曼和约翰逊之争的新细节。 OpenAI 已经面临版权诉讼,尽管知识产权所有者在证明其肖像或内容被滥用方面面临挑战。Altman 表示,该行业需要建立一个系统,为人工智能系统想要使用的内容向艺术家支付报酬。他还表示,艺术家还应该能够拒绝模仿他们作品的人工智能使用——这可能包括数字助理中听起来像某部大片中女演员的声音。立法工作才刚刚开始;保护艺术家的法案已提交国会,但尚未通过。 演员工会支持此类法律,禁止未经授权对演员的声音和肖像进行数字复制。据 杂志(OpenAI 已暂停使用该声音,称该声音是以另一位女演员为原型的。)这种情况可能反映出科技界“快速行动,打破常规”的指导理念存在危险。Creative Artists Agency 联合主席 Lourd 建议对这种做法进行调整。“这些公司放慢脚步并制定流程以确保正在制造的产品透明、合乎道德且负责任,现在还为时不晚,”他说。(阅读 完整故事。 1716826233 #斯嘉丽约翰逊的投诉反映出人工智能之战的现状 2024-05-27 14:47:48

生成式人工智能挖掘了传统搜索引擎和虚拟助手的坟墓 | 技术

上周展示的人工智能 (AI) 最新进展意义非凡。那么,未来将会如何发展呢? 谷歌研究部门DeepMind主管德米斯·哈萨比斯(Demis Hassabis)的回答很明确:“迈向等于或超越人类智能的通用人工智能(AGI)。” 在过去十年中,我们拥有的设备(例如虚拟助手 Siri、Alexa、Hey Google 或 Bixby)在响应和执行链接设备上的操作方面功能有限。另一方面,自上个世纪末以来,搜索引擎帮助用户找到答案并根据用户需求提供服务。但两者的时代都屈指可数了。人工智能领域的进步已经开始为这两项服务挖掘坟墓,以便将它们统一为一个能够像人类一样对话、分析不同领域的文档(文本、图像或视频)、提供复杂的答案和解决方案并代表用户执行的单一平台。OpenAI 首席执行官 Sam Altman 表示,搜索引擎和虚拟助手将成为一种工具或“超级能干的同事”,将出现在我们生活的方方面面。 这些新进展代表着人工智能迈出了关键一步。到目前为止,我们拥有的人工智能工具包括语音助手(Siri 或 Alexa),它们已经理解自然语言,或者可以将文本请求转换为图像或视频的应用程序(Sora),或者可以创建文本或总结文档和会议的聊天机器人(ChatGPT)。谷歌和 OpenAI 最近几天发布的演进功能远不止这些。DeepMind 和十几所大学及实体的一份文件将它们定义为“具有自然语言界面的人工智能代理,其功能是代表用户规划和执行一系列动作——跨越一个或多个领域——符合用户的期望。” 根据最新研究,关键在于使用自然语言,这有助于与机器进行交互。这与机器的自主性相结合,可以制定计划并“代表用户”执行计划,在可以使用的资源方面具有横向性,并且能够根据用户的情况进行情境化以满足期望。人工智能不再是一个简单的工具:它是一个复杂的机器人,它知道它在和谁说话,以及它应该产生什么结果。“[Artificial general intelligence] 将对我们个人和集体生活产生深远影响,”该文件警告说。 除了这项研究发现的无数道德问题之外,现在开始的转变还带来了直接的技术后果:我们一直在使用的人工智能工具以一种独特的方式变得过时了。人工智能的发展已经开始取代我们迄今为止所熟知的搜索引擎和虚拟助手。 传统搜索引擎正在消亡 1998 年,拉里·佩奇和谢尔盖·布林在斯坦福大学相识并发表了《大型超文本网络搜索引擎的剖析》一书,之后他们成立了谷歌。通过这项研究,他们开发出了一种搜索引擎,在短短一年内,每天的查询量就达到 350 万次。现在,它是世界上使用率最高的搜索引擎,每天的信息请求量超过 35 亿次。但在这个瞬息万变的时代,我们所熟知的谷歌搜索引擎正开始走向衰落。谢尔盖·布林本人上周二在加利福尼亚州山景城的谷歌总部承认了这一过程。 “过去 25 年来,我们在搜索引擎上投入了大量资金。但我们需要考虑如何满足用户的新需求……我真的认为 [we can achieve this via] “谷歌 Gemini,”谷歌新任搜索主管 Liz Reid 表示,她的使命是开启一个新时代。Google Gemini 是该公司的 AI 聊天机器人工具,是 Open AI 的 ChatGPT 的竞争对手。 里德解释说,传统系统——她承认,它是一种“非常强大的工具”——需要“大量工作”才能维护。传统的搜索功能(称为“谷歌搜索”)用于搜索用户所在地附近的餐馆或其他服务,提供地址地图和网页列表。信息搜索者必须逐页滚动浏览每个页面来完成该过程。当然,那些付费显示在结果顶部的网站会首先被看到。谷歌用户还可以缩小搜索范围,指定他们需要哪种类型的食物或特定服务,直到他们获得更精确的网站列表。 […]

微软首席执行官萨蒂亚·纳德拉 (Satya Nadella) 表示,不要像对待人类一样对待人工智能,它只是一种工具

萨蒂亚·纳德拉 (Satya Nadella) 表示,用户需要注意人工智能软件的功能。 在 OpenAI 推出一款可以笑、唱歌和用不同声音混合说话的个人助理一周后,该公司最亲密的合作伙伴就人们应该如何使用人工智能工具提出了略有不同的观点。 微软首席执行官萨蒂亚·纳德拉周一在接受彭博电视台采访时表示:“我不喜欢将人工智能拟人化。”他指的是使用通常用于人类的动词和名词来描述人工智能的做法。“我认为它是一种工具。” 纳德拉的言论暗示,科技行业正在就如何在技术不断进步并以更人性化的方式做出反应的情况下使人工智能服务人性化展开争论。 上周,谷歌的一位高管告诉彭博社,虽然可以构建“表达情感”的人工智能工具,但该公司更愿意专注于“超级有帮助和超级有用”。 OpenAI 采取了不同的方法。 该公司上周展示了一款新的语音助手,据称它可以理解情绪并表达自己的感受。 在演示中的多个时刻,人工智能的声音似乎都在攻击台上使用该工具的员工。 社交媒体上的许多人将这一功能比作反乌托邦电影《她》,这种比较是由一个特定的语音选项推动的,用户称该语音选项类似于电影明星斯嘉丽·约翰逊。 约翰逊在给 – 的一份声明中表示,OpenAI 首席执行官萨姆·奥尔特曼 (Sam Altman) 联系了她,请她考虑推出音频聊天功能。 根据约翰逊的说法,奥特曼试图向她推销这样的想法,即她可以“帮助消费者对人类和人工智能的巨大变化感到满意”。 她拒绝了,并表示此后她被迫聘请律师,因为 OpenAI 决定以类似的声音继续前进。 (OpenAI 此后取消了该语音并用另一个语音代替。) 甚至在 ChatGPT 将人工智能带入主流意识之前,科技公司就经常将人类的个性赋予人工智能程序,通常具有女性编码的名称和特征,显然是为了帮助人们与技术建立联系并感到舒适。 纳德拉领导的微软也未能幸免于这种行为。 多年来,该公司发布了各种对话和人工智能程序,包括 Tay 和 Cortana(以 Halo 的女性人工智能助手命名)。 谁能忘记 Bing AI 的流氓角色 Sydney? 人们自然倾向于用人类的术语来描述人工智能,因为人们希望以用户能够理解的方式解释软件背后的数学、数字和代码,比如人工智能“学习”之类的东西。 随着科技公司推出功能更强大、可以进行实时对话的产品,这种诱惑只会变得更强。 但纳德拉在采访中表示,用户需要注意,人工智能软件显示的能力并不是人类智能。 “如果你想给它起这个绰号的话,它有智慧,但它和我的智慧不同,”他说。 事实上,纳德拉甚至对“人工智能”一词的选择感到遗憾,该词最早于 20 世纪 50 年代被提出。“我认为最不幸的名字之一是‘人工智能’——我希望我们称之为‘不同的智能’,”他说。“因为我有我的智能。我不需要任何人工智能。” 纳德拉只是希望人工智能软件能够在他需要的时候提供帮助。 “我认为,这就是理想的关系。” (除标题外,这篇报道未经 […]

微软首席执行官萨蒂亚·纳德拉表示,不要将人工智能当做人类,它只是一种工具

萨蒂亚·纳德拉表示,用户需要注意人工智能软件的能力。 在 OpenAI 推出一款可以笑、唱歌和用不同声音混合说话的个人助理一周后,该公司最亲密的合作伙伴就人们应该如何使用人工智能工具提出了略有不同的观点。 “我不喜欢将人工智能拟人化,”微软公司首席执行官萨蒂亚纳德拉周一告诉彭博电视台,他指的是使用动词和名词来描述通常为人类保留的人工智能的做法。 “我有点相信这是一个工具。” 纳德拉的言论暗示,科技行业正在就如何在技术不断进步并以更人性化的方式做出反应的情况下使人工智能服务人性化展开争论。 上周,谷歌的一位高管告诉彭博社,虽然可以构建“表达情感”的人工智能工具,但该公司更愿意专注于“超级有帮助和超级有用”。 OpenAI 采取了不同的方法。 该公司上周展示了一款新的语音助手,据称它可以理解情绪并表达自己的感受。 在演示中的多个时刻,人工智能的声音似乎都在攻击台上使用该工具的员工。 社交媒体上的许多人将这一功能比作反乌托邦电影《她》,这种比较是由一个特定的语音选项推动的,用户称该语音选项类似于电影明星斯嘉丽·约翰逊。 约翰逊在向 – 发表的声明中表示,OpenAI 首席执行官山姆·奥特曼 (Sam Altman) 曾联系她,请她考虑为语音聊天功能配音。约翰逊表示,奥特曼曾试图向她推销这样的想法,即她可以“帮助消费者适应人类和人工智能之间的巨大变化”。约翰逊拒绝了这一想法,并表示,由于 OpenAI 决定继续使用类似的声音,她不得不聘请律师。(OpenAI 后来删除了该声音,并用另一种声音代替。) 甚至在 ChatGPT 将人工智能带入主流意识之前,科技公司就经常将人类的个性赋予人工智能程序,通常具有女性编码的名称和特征,显然是为了帮助人们与技术建立联系并感到舒适。 纳德拉领导的微软也未能幸免于这种行为。 多年来,该公司发布了各种对话和人工智能程序,包括 Tay 和 Cortana(以 Halo 的女性人工智能助手命名)。 谁能忘记 Bing AI 的流氓角色 Sydney? 人们自然倾向于用人类的术语来描述人工智能,因为人们希望以用户能够理解的方式解释软件背后的数学、数字和代码,比如人工智能“学习”之类的东西。 随着科技公司推出功能更强大、可以进行实时对话的产品,这种诱惑只会变得更强。 但纳德拉在采访中表示,用户需要注意,人工智能软件显示的能力并不是人类智能。 “如果你想给它起这个绰号的话,它有智慧,但它和我的智慧不同,”他说。 事实上,纳德拉甚至对 20 世纪 50 年代首次创造的“人工智能”一词的选择感到遗憾。 “我认为最不幸的名字之一是‘人工智能’——我希望我们把它称为‘不同的智能’,”他说。 “因为我有我的智慧。我不需要任何人工智能。” 纳德拉只是希望人工智能软件能够在他需要的时候提供帮助。 “我认为,这就是理想的关系。” (除标题外,本文未经 NDTV 工作人员编辑,且通过联合供稿发布。) 等待 […]

AI峰会获得16家公司的安全承诺

Alphabet旗下的谷歌、Meta、微软和OpenAI等16家涉足人工智能的公司,以及来自中国、韩国和阿联酋的公司都致力于该技术的安全开发。 周二英国政府声明中公布这一消息之际,韩国和 英国主办全球人工智能峰会 目前,人工智能创新发展速度惊人,各国政府都在努力跟上。 声明称,该协议比六个月前举行的首届全球人工智能峰会上的承诺数量有所增加。 由中国科技巨头阿里巴巴、腾讯、美团和小米支持的智普科技以及阿联酋技术创新研究院等 16 家公司承诺发布安全框架,以衡量前沿人工智能模型的风险。 (如需了解当天的热门科技新闻, 订阅 到我们的技术通讯 Today's Cache) 声明称,这些公司还包括亚马逊、IBM 和三星电子,它们自愿承诺,如果风险无法得到充分缓解,将不会开发或部署人工智能模型,并确保人工智能安全方法的治理和透明度。 人工智能模型安全非营利组织 METR 的创始人贝丝·巴恩斯 (Beth Barnes) 表示:“在‘红线’上达成国际共识至关重要,因为人工智能的发展将对公共安全造成不可接受的危险。” 这 首尔人工智能(AI)峰会 本周的目标是在英国举行的第一次峰会上达成广泛协议,以更好地应对更广泛的风险。 在 11 月的峰会上,特斯拉的埃隆·马斯克和 OpenAI 首席执行官萨姆·奥尔特曼与一些最激烈的批评者进行了交流,而中国则共同签署了《布莱奇利宣言》,与美国和其他国家共同管理人工智能风险。 英国首相苏纳克和韩国总统尹锡烈将于周二晚些时候举行虚拟峰会,随后于周三举行部长级会议。 英国技术大臣米歇尔·多尼兰周二对路透社表示,本周的峰会将讨论“……以公司的承诺为基础,并研究(人工智能安全)机构如何合作”。 大型语言模型公司 Cohere 联合创始人艾丹·戈麦斯 (Aidan Gomez) 表示,自 11 月以来,关于人工智能监管的讨论已从长期的世界末日场景转向“实际问题”,例如如何在医学或金融等领域使用人工智能。 戈麦斯表示,行业参与者希望人工智能监管能够明确和安全地确定公司应该投资的方向,同时避免巩固大型科技公司的地位。 分析师表示,随着英国和美国等国家建立国家支持的人工智能安全研究所来评估人工智能模型,其他国家预计也会效仿,人工智能公司也担心司法管辖区之间的互操作性。 韩国总统官员表示,七国集团(G7)主要民主国家的代表预计将参加虚拟峰会,新加坡和澳大利亚也受邀参加。 这位官员表示,中国不会参加虚拟峰会,但预计将出席周三的面对面部长级会议。 韩国外交部表示,马斯克、谷歌前首席执行官埃里克·施密特、三星电子董事长李在镕等人工智能行业领袖将参加此次峰会。 2024-05-21 11:54:06 1716310059