人工智能芯片制造商 Nvidia 如何成为全球最有价值的公司

十多年来,除少数几次中断外,苹果一直保持着全球最有价值公司的头衔,成为第一家市值突破 3 万亿美元的公司——这主要归功于数百万投资者每天使用的设备 iPhone。 最近,苹果被微软超越,而本周华尔街又出现了一位新王者——同样来自湾区的公司:英伟达。英伟达生产的半导体在人工智能应用中需求量很大。它是目前最热门的股票,市值超过 3.2 万亿美元。 以下是有关世界领先的 AI 芯片制造商的一些信息: 英伟达在人工智能行业扮演着什么角色? 人工智能程序是复杂的计算机应用程序,它们依赖于庞大的数据库和处理能力来产生结果。OpenAI 的 ChatGPT-4 是一款备受关注的程序,于去年发布,可以生成文本,据估计,它拥有 1.7 万亿个“参数”或变量,大约是 2020 年的前身的 10 倍——而且复杂性还在不断增加。Nvidia 制造了一种名为 H100 加速器的芯片,能够处理这些数据,而且需求量很大。本月,该公司宣布正在制造一款更先进的芯片。 Nvidia 一直在生产用于人工智能的芯片吗? Nvidia 于 1999 年上市,多年来一直被视为高端显卡制造商,这些显卡因其在渲染高速视觉效果方面的清晰度而受到游戏玩家的追捧。这些显卡价格不菲,Nvidia 的顶级 GeForce RTX 4090 目前零售价约为 1,700 美元。但鉴于其在行业中的利基地位,Nvidia 股价多年来一直徘徊在 1 美元/股以下(经股票分割调整后)。 它的命运何时好转? 在过去十年的加密货币热潮中,其强大的芯片受到了比特币“矿工”的追捧,他们使用计算机银行来解决难题,并获得加密货币奖励。需求如此强烈,英伟达推出了一款专门针对矿工的新芯片,其股价从 2016 年 5 月的 87 美分飙升至 2018 年 10 月的 7 美元以上——之后加密货币泡沫破灭,股价跌至 4 […]

观点:随着人工智能受到欢迎,那些作品被窃取来创造人工智能的艺术家们将会怎样?

在 苹果与 OpenAI 的新协议,有一个问题基本上被掩盖了:这家人工智能公司的根基模型是、并且一直都是建立在盗窃创意专业人士的劳动成果之上的。 与苹果的合作并不是 OpenAI 的唯一新闻。最近的更新和争议包括 高层叛逃上个月该公司 悄悄宣布媒体经理,计划于 2025 年发布。Media Manager 是一款据称可以让创作者和内容所有者控制其作品使用方式的工具,但它实际上是一种无耻的尝试,旨在逃避 OpenAI 已经从中获利的盗窃艺术家知识产权的责任。 OpenAI 表示,该工具将允许创作者识别自己的作品,并选择是否将其排除在 AI 训练过程之外。但这无助于解决这样一个事实:该公司在未经同意、没有补偿的情况下,使用作者和其他创作者的作品建立了基础模型,也无法控制 OpenAI 用户如何模仿艺术家的风格来创作新作品。正如所描述的那样,媒体管理器将保护自己作品的负担放在创作者身上,却未能解决该公司过去的法律和道德违规行为。这种提议就像你家里的贵重物品被偷了,然后听到小偷说:“别担心,我给你一个机会,让你选择不被偷……明年。” 作家们, 艺术家、记者和 其他创意工作者 有 一直被问到 OpenAI 和其他生成式人工智能公司在使用创作者的作品训练人工智能产品之前,必须征得创作者的同意,并且这些组织不得在未经明确许可的情况下使用作品。去年 7 月, 超过 16,000 名作家签署了一封信 领先的人工智能公司要求企业获得许可并支付用于训练人工智能的作品的费用。然而,OpenAI 继续践踏艺术家的权利并拒绝他们的呼吁,正如我们最近在推出 ChatGPT 音频助手时看到的那样 声音与斯嘉丽约翰逊相似 尽管该演员明确且多次拒绝。 尽管约翰逊赢得了这场战斗——在演员威胁要采取法律行动后,OpenAI“暂停”了其产品中令人反感的声音——但对更广泛的艺术家群体来说,最好的机会是团结起来。人工智能公司对创作者权利和同意的傲慢态度延伸到了所有名气层级的人。 人工智能公司 经常 争论 他们不可能获得他们所需的所有内容的许可,这样做会使进展陷入停滞。这完全是不真实的。OpenAI 已经签署了一份 演替 的 许可 与…达成的协议 出版商 大和小。虽然这些协议的具体条款很少向公众公布,但赔偿金额与 公司愿意花费巨额的计算能力和能源支出向作者支付报酬对人工智能公司的资金影响微乎其微,但获得人工智能训练使用的版税将为这个已经饱受苦难的行业带来有意义的新收入来源。 我们不能相信科技公司,他们发誓自己的创新非常重要,以至于不需要为其中的主要成分之一——其他人的创意作品付费。OpenAI 和其他公司向我们兜售的“更美好的未来”实际上是一个反乌托邦。现在是创意专业人士团结起来,要求我们应得的东西并决定我们自己的未来的时候了。 玛丽·拉森伯格(Mary […]

OpenAI、Anthropic AI 研究揭示了法学硕士如何影响安全和偏见

由于大型语言模型使用类似神经元的结构来运作,这些结构可能会将许多不同的概念和模式联系在一起,因此人工智能开发人员很难调整他们的模型来改变模型的行为。如果你不知道哪些神经元连接哪些概念,你就不知道要改变哪些神经元。 5月21日, Anthropic 发布了一张非常详细的地图 了解 Claude AI 微调版本(特别是 Claude 3 Sonnet 3.0 模型)的内部工作原理。大约两周后,OpenAI 发布了自己的研究成果,旨在弄清楚 GPT-4 如何解释模式。 借助 Anthropic 的地图,研究人员可以探索类似神经元的数据点(称为特征)如何影响生成式人工智能的输出。否则,人们只能看到输出本身。 其中一些特征是“与安全相关的”,这意味着如果人们能够准确识别这些特征,它可以帮助调整生成式人工智能,以避免潜在的危险话题或行为。这些特征对于调整分类很有用,而分类可能会影响偏见。 人类学发现了什么? Anthropic 的研究人员从当代大型语言模型 Claude 3 中提取了可解释的特征。可解释的特征可以从模型可读的数字转化为人类可理解的概念。 可解释的特征可能适用于不同语言中的同一概念以及图像和文本。 检查特征可以揭示 LLM 认为哪些主题是相互关联的。在这里,Anthropic 显示了与金门大桥相关的单词和图像上激活的某个特征。不同的颜色阴影表示激活的强度,从白色表示无激活到深橙色表示强激活。图片:Anthropic 研究人员写道:“我们这项研究的高层目标是将模型(Claude 3 Sonnet)的激活分解为更易于解释的部分。” 他们表示:“可解释性的一个希望是,它可以成为一种‘安全测试集’,让我们判断在训练期间看似安全的模型在部署时是否真的安全。” 查看:Anthropic 的 Claude Team 企业计划为中小型企业提供了 AI 助手。 特征由稀疏自动编码器生成,稀疏自动编码器是一种神经网络架构。在人工智能训练过程中,稀疏自动编码器受缩放定律等指导。因此,识别特征可以让研究人员了解人工智能将哪些主题关联在一起的规则。简而言之,Anthropic 使用稀疏自动编码器来揭示和分析特征。 研究人员写道:“我们发现了各种高度抽象的特征。它们(这些特征)既响应抽象行为,又在行为上引发抽象行为。” 有关试图弄清楚 LLM 内部情况的假设的详细信息,请参阅 Anthropic 的研究论文。 OpenAI 发现了什么? OpenAI 的研究于 6 […]

聊天机器人正在进入石器时代

尽管人们大肆宣扬生成式人工智能将颠覆世界,但这项技术尚未真正改变白领工作。工人们正在尝试使用聊天机器人来完成起草电子邮件等任务,公司也在开展无数实验,但办公室工作尚未经历人工智能的重大重启。 也许这只是因为我们还没有为谷歌的 Gemini 和 OpenAI 的 ChatGPT 等聊天机器人提供合适的工具;它们通常仅限于通过聊天界面接收和输出文本。随着人工智能公司开始部署所谓的“人工智能代理”,商业环境中的情况可能会变得更加有趣,这些代理可以通过操作计算机上或互联网上的其他软件来采取行动。 人择是 OpenAI 的竞争对手, 宣布 今天,一款重要的新产品试图证明这样一个论点:工具的使用是人工智能下一次飞跃的必要条件。这家初创公司允许开发人员指挥其聊天机器人 Claude 访问外部服务和软件,以执行更有用的任务。例如,Claude 可以使用计算器来解决困扰大型语言模型的各种数学问题;需要访问包含客户信息的数据库;或者在需要帮助时被迫使用用户计算机上的其他程序。 我之前写过关于能够采取行动的人工智能代理的重要性的文章,无论是为了推动人工智能变得更加有用,还是为了创造更智能的机器。克劳德使用的工具是朝着开发这些更有用的人工智能助手的目标迈出的一小步,这些助手目前正在向世界推出。 Anthropic 一直与多家公司合作,帮助他们为员工打造基于 Claude 的助手。在线辅导公司 学习获取例如,已经为 Claude 开发了一种方法,使其能够使用其平台的不同功能来修改向学生显示的用户界面和教学大纲内容。 其他公司也正在进入人工智能石器时代。本月早些时候,谷歌在其 I/O 开发者大会上展示了一些原型人工智能代理,以及许多其他新的人工智能小玩意。其中一个代理被设计用于处理网上购物退货,通过在用户的 Gmail 帐户中搜索收据、填写退货表格并安排包裹取件。 谷歌尚未推出面向大众的退货机器人,其他公司也谨慎行事。这可能部分是因为让人工智能代理表现出行为举止很棘手。法学硕士并不总是能正确识别他们被要求实现的目标,并且可能会做出错误的猜测,从而破坏成功完成任务所需的一系列步骤。 将早期的人工智能代理限制在公司工作流程中的特定任务或角色中,可能是一种让该技术变得有用的精明方法。就像物理机器人通常部署在严格控制的环境中以最大限度地减少它们出错的可能性一样,严格控制人工智能代理可以减少发生事故的可能性。 即使是这些早期用例也可能带来丰厚的利润。一些大公司已经通过所谓的机器人流程自动化(RPA)实现了常见的办公任务自动化。它通常涉及记录人类员工在屏幕上的操作,并将其分解为可由软件重复的步骤。基于 LLM 广泛功能构建的 AI 代理可以让更多工作实现自动化。分析公司 IDC 表示, RPA 市场 其价值已经达到了 290 亿美元,但预计到 2027 年人工智能的注入将使这一价值增加一倍以上,达到 650 亿美元左右。

斯嘉丽·约翰逊称 OpenAI 剽窃了她的声音以开发 ChatGPT

上周,OpenAI 发布了 ChatGPT 的新对话界面,其富有表现力的合成声音与科幻电影中斯嘉丽·约翰逊饰演的人工智能助手的声音惊人地相似 她—仅限 突然禁用 周末的新声音。 周一,在约翰逊的律师要求 OpenAI 澄清新声音的创作方式后,约翰逊发表声明声称已迫使 OpenAI 做出这一推翻决定。 约翰逊的 陈述她的公关人员向《连线》杂志转述了她的话,声称 OpenAI 首席执行官 Sam Altman 去年 9 月曾要求她提供 ChatGPT 的新声音,但她拒绝了。她描述说,看到该公司上周为 ChatGPT 演示了一种听起来像她自己的新声音时,她感到很惊讶。 声明中写道:“当我听到发行版试听视频时,我感到震惊、愤怒,难以置信奥特曼先生竟然会追求一种与我的声音如此相似的声音,以至于我最亲密的朋友和新闻媒体都无法分辨出其中的区别。”声明指出,奥特曼似乎在鼓励世界将试听视频与约翰逊的表演联系起来,他发推文说:“她”,指的是这部电影,5 月 13 日。 约翰逊在声明中称,在上周演示的两天前,奥尔特曼联系了她的经纪人,要求她重新考虑不与 OpenAI 合作的决定。约翰逊表示,在观看演示后,她聘请了法律顾问写信给 OpenAI,询问其如何制作新声音的细节。 该声明称,这导致 OpenAI 周日在一份声明中宣布 在 X 上发帖 该公司决定“暂停使用 Sky”,这是该公司合成语音的名称。该公司还发布了 博客文章 概述了创作声音的过程。帖子中说:“斯凯的声音不是斯嘉丽·约翰逊的模仿,而是另一位专业女演员用她自己的自然说话声音创作的。” Sky 是 OpenAI 去年 9 月为 ChatGPT 提供的几种合成声音之一,但在上周的活动中,它表现出了更加逼真的语调和情感暗示。演示中,由名为 GPT-4o 的新 AI 模型驱动的 […]

硅谷似乎并不相信萨姆·奥特曼的保密协议

硅谷人士对 Sam Altman 是否知道 OpenAI 的退出协议中包含非贬损条款表示怀疑。 在 Vox 发布爆炸性新闻后,科技公司员工纷纷对 OpenAI 最近的混乱局面发表看法 报告 表示,如果离职员工不签署不贬低协议,ChatGPT 制造商可以从离职员工那里收回既得股权。 报告发布后不久,Sam Altman 在 X 上写道:“这是我的错,也是我运营 openai 以来为数不多的几次真正感到尴尬的事情之一;我不知道发生了这种事,但我应该知道的。” 针对 OpenAI 的指控在科技界并没有得到很好的接受,有些人不相信奥特曼是完全诚实的。 另一个故事 Vox 周三发表的一篇文章援引了未透露姓名的 OpenAI 前雇员和泄露的文件,似乎对奥尔特曼声称自己不了解情况的说法提出了质疑。 Vox 发布了一份文件,显示 OpenAI 首席执行官签署了管理 OpenAI 股权的控股公司的成立文件。据报道,一些前员工只有七天时间签署离职协议。 DataBricks 生成 AI 副总裁 Naveen Rao 写道 “高层领导不可能不知道这些离职条款。” 谷歌 DeepMind 安全研究团队负责人 Neel Nanda 说 OpenAI 似乎陷入了“一系列公开谎言”,而 Cohere 机器学习总监 Nils Reimers […]

每周技术回顾:苹果推出 2 款新 iPad,谷歌悄然推出 Pixel 8a 等

每周技术回顾: 从 Apple 推出两款新 iPad 机型,到 Sam Altman 反驳有关 OpenAI 将在 Google I/O 2024 活动之前推出新搜索引擎的报道,本周的技术回顾中有很多内容值得一一揭晓。 话不多说,让我们深入了解本周最热门的 5 条科技新闻。 1) 苹果通过新款 iPad Pro 展现了人工智能野心: 苹果公司在本周的 Let Loose 活动中推出了两款新 iPad,让该公司的平板电脑系列在等待了大约 18 个月后得到了急需的升级。 iPad Air 系列进行了一些重大改进,包括首次增加了更大的 13 英寸版本,以及与前身的 M1 相比升级到更快的 M2 芯片组。 苹果还将摄像头移至 iPad Air 的侧面,使在横向模式下使用该设备变得更加容易。 然而,Let Loose 活动中的明星是 iPad Pro,它被宣传为苹果有史以来最薄的设备。 新款 iPad Pro 系列配备全新 OLED Ultra Retina […]

OpenAI 的新语音助手可能会检测讽刺:报告

据 The Information 报道,OpenAI 可能会在周一推出一款新的多模式人工智能助手。 理论上,这项技术可以帮助自动化客户服务代理检测讽刺。 新模型还可以集成到 OpenAI 的聊天机器人 ChatGPT 中。 感谢您的注册! 当您在旅途中时,可以在个性化源中访问您最喜爱的主题。 下载应用程序 想成为单口喜剧演员的人和沮丧的顾客请注意:机器人电话接线员将来可能不会觉得你面无表情的侮辱很有趣。 信息 据报道,机器学习公司 OpenAI 可能会推出一款具有音频和视觉功能的语音助手,理论上可以检测讽刺。 最后。 据一位了解新技术的人士透露,神秘助手可以改进该公司已经提供的自动化客户服务代理技术。 这 人工智能助手 – 可以与用户交谈并识别物体和图像 — 当然,该媒体还援引两名亲眼目睹过它的人士的话说,它还可能具有许多其他功能。 报告称,这些功能包括“更好地理解图像和音频”和“更好的逻辑推理”。 该技术可以是 最早在周一 OpenAI 计划的直播中透露,宣布其 GPT 更新 技术。 “从理论上讲,助理可以做一系列今天不可能完成的事情,例如充当正在写论文或解决数学问题的学生的导师,或者在人们要求时向他们提供有关周围环境的信息,例如翻译标志或解释如何解决汽车故障,”报告说。 一位知情人士告诉《The Information》,新的多模式模型仍然容易出现人工智能幻觉,即模型给出没有现实依据的答案的现象。 这项新技术最终可能会集成到 OpenAI 流行的聊天机器人 ChatGPT 的公开免费版本中。 据《The Information》报道,该技术将让首席执行官山姆·奥尔特曼 (Sam Altman) 感动 距离创建一个更有用的人工智能助手又近了一步,类似于斯嘉丽·约翰逊在电影《她》中扮演的虚拟萨曼莎——尽管希望没有人会爱上它。 (这不是讽刺。) OpenAI 的代表没有立即回应置评请求。

商人:今年是人工智能年。 明年是你应该担心你的工作的时候

毫无疑问,今年科技领域最大的新闻是人工智能的爆炸性崛起。 科技界最大的故事 下一个 今年就看能否扭亏为盈了。 因为到目前为止,还做不到。 快速回顾一下:OpenAI 和 ChatGPT 突然出现, 占据头条新闻,吸引了数百万用户并 百亿投资,并给了我们 2023 年的 最有趣的董事会戏剧。 数月以来,人们一直在思考人工智能对社会到底是一种严重危险还是一种重大福祉——这种末日论引发了人们的担忧。 伟大的产品营销 ——来自世界上最富有的人。 但哲学思考的时代显然已经结束了。 OpenAI 板之后 解雇首席执行官萨姆·奥尔特曼 上个月,由于担心“他并不一贯坦诚”,微软、投资者和即将获得股票期权的员工纷纷为他辩护。 奥特曼被复职,董事会也清除了那些关心“人工智能安全”之类夸大其词的人。 现在取代他们的是前财政部长拉里·萨默斯 (Larry Summers),他认为 数百万人需要失业 以达到给经济降温的目的。 传达的信息很明确:世界上最知名的人工智能初创公司是时候抛开伪装,将利润置于原则之上了。 它将如何做到这一点? 大型科技公司将如何销售人工智能? 有几种看似可行的方法,但其中一种比其他方法更突出:用它来帮助萨默斯的梦想成真——实现工作自动化并降低劳动力成本。 这意味着今年一直存在的问题—— 我的老板会尝试用人工智能取代我的工作吗? 我的工作可以吗 真的 被自动化了? — 即将变得更加紧迫和存在。 诸如此类的问题引发了好莱坞的重大罢工,其中包括 WGA 和 SAG-AFTRA 的编剧和演员 努力阻止工作室用人工智能编写剧本或对演员进行编码。 类似的担忧导致插画家、艺术家和作家对人工智能公司提起诉讼,指控它们未经许可摄取和重新利用他们的作品,这给自由职业者带来了新一波的困难,他们已经看到文案和平面设计工作枯竭。处于生成式人工智能的阴影之下。 但我们还没有看到任何东西。 看,我们已经接近生成式人工智能年的尾声了,很少有从事该领域工作的公司能够找到一种有前途的方法来将炒作转化为利润。 大型语言模型已经存在,但商业模型却没有。 十月,《华尔街日报》发表了一篇题为“ “大型科技公司努力将人工智能炒作转化为利润”。 在此之前,它警告说 “人工智能初创公司的热度正面临现实检验。” 与此同时,吉兹莫多 宣布 […]

Stack Overflow 用户反对 OpenAI 交易

周一,堆栈 溢出和 OpenAI 宣布 新的 API 合作伙伴关系将 Stack Overflow 的技术内容与 OpenAI 的技术内容集成 聊天GPT 人工智能助手。 这笔交易在 Stack Overflow 的用户社区中引发了争议,许多人认为 表达愤怒 并抗议使用他们贡献的内容来支持和训练人工智能模型。 “我讨厌这个。我只是要一一删除/污损我的答案,” 写道 姊妹网站 Stack Exchange 上的一名用户。 “我不在乎这是否违反你们愚蠢的政策,因为正如本公告所示,你们的政策可以在不事先咨询利益相关者的情况下随意改变。 你不关心你的用户,我也不关心你。” 堆栈溢出 是一个深受软件开发人员欢迎的问答网站,允许用户提出和回答与编码相关的技术问题。 该网站拥有一个庞大的开发人员社区,他们贡献知识和专业知识来帮助其他人解决编程问题。 在过去的十年中,Stack Overflow 已成为许多寻求常见编码挑战解决方案的开发人员大量使用的资源。 根据宣布的合作伙伴关系,OpenAI 将利用 Stack Overflow 的 溢出API 该产品使用 Stack Overflow 社区的内容来改进其人工智能模型,正式纳入了许多人认为该产品之前未经许可抓取的信息。 OpenAI 还将“将 Stack Overflow 中经过验证的技术知识直接呈现到 ChatGPT 中,使用户能够轻松访问可信、归属、准确且高度技术性的知识和代码,这些知识和代码由 15 年来为 Stack Overflow […]