Anthropic 如何设计自己以避免 OpenAI 的错误

去年感恩节,布莱恩·伊斯雷尔发现自己被一次又一次地问到同样的问题。 人工智能实验室 Anthropic 的总法律顾问和科技界的其他人一样,目瞪口呆地看着这一切:距离 Anthropic 旧金山总部仅两英里的地方,其主要竞争对手 OpenAI 似乎正在崩溃。 OpenAI 董事会解雇了首席执行官山姆·奥特曼,称他失去了董事会的信任,此举似乎可能会让这家初创公司 800 多亿美元的估值一落千丈。此次解雇之所以发生,是因为 OpenAI 奇怪的公司结构,其董事没有为股东增加利润的受托责任——奥特曼本人曾参与设计这一结构,以便 OpenAI 能够构建强大的人工智能,不受市场不正当激励的影响。对许多人来说,这个计划似乎适得其反。五天后,在 OpenAI 的主要投资者微软、风险投资家和 OpenAI 自己的员工(他们持有该公司的宝贵股权)的施压下,奥特曼恢复了首席执行官一职,解雇他的三名董事中有两名辞职。“人工智能现在属于资本家,”《纽约时报》 時間 结论是,OpenAI 开始组建新的董事会,它看起来更适合一家高增长公司,而不是担心强大人工智能危险的研究实验室。 因此,那个周末,Anthropic 的投资者和客户疯狂地向以色列询问:同样的事情会发生在 Anthropic 吗? Anthropic 与 OpenAI 一样,都是顶级的人工智能实验室,但其公司结构也非常另类。该公司也采用了类似的结构,以确保能够开发人工智能,而无需为了追求利润而偷工减料。但相似之处也就到此为止了。对于感恩节期间提出问题的所有人,Israel 的回答都是一样的:OpenAI 发生的事情不能发生在我们身上。 阅读更多: 在 Anthropic 内部,这家人工智能公司认为安全可以成为一种制胜策略 在 OpenAI 灾难发生之前,关于人工智能公司治理的问题似乎并不明晰。但现在很明显,人工智能公司的结构对于谁控制 21 世纪最强大的技术有着至关重要的影响。随着人工智能变得越来越强大,风险只会越来越高。5 月初,OpenAI 安全方面的两位领导人辞职。其中一位是 Jan Leike,他在一份离职声明中表示,安全已经“让位于闪亮的产品”,并表示如果 OpenAI 要安全地开发先进的人工智能,就需要进行“文化变革”。周二,Leike 宣布他已转投 Anthropic。(Altman 承认 Leike 的批评,说“我们还有很多事情要做;我们致力于去做。”) Anthropic 以其不同于 […]

使用 Anthropic 的 Claude 聊天机器人的 6 个实用技巧

Joel Lewenstein,产品设计主管 人择,最近在他的新房子下面爬行调整灌溉系统时遇到了一个难题:该设备的旋钮不起作用。 他没有在互联网上搜索产品手册,而是在手机上打开了 Anthropic 的 Claude 聊天机器人应用程序并拍了一张照片。 它的算法分析了图像,并为每个旋钮的功能提供了更多背景信息。 当我测试时 OpenAI的图像特征 去年的 ChatGPT,我发现它同样有用——至少对于低风险任务来说是这样。 我建议您使用人工智能图像分析来识别您房子周围的随机电线,但不要猜测散装处方药的身份。 人择发布 iOS 应用程序 本月早些时候,莱文斯坦帮助所有人下载了该软件。 我决定尝试一下 Claude 应用程序,这符合我今年设定的尝试更广泛的聊天机器人的目标。 我通过视频与莱文斯坦聊天,看看他对克劳德的入门有什么建议,以及如何以引出最有用答案的方式提出问题。 变得健谈 几十年来,谷歌搜索在网络上占据主导地位,这让我们在需要某些东西时能够输入直白而简洁的查询。 为了充分利用像 Claude 这样的聊天机器人,您需要摆脱这种方法。 “这不是谷歌搜索,”莱文斯坦说。 “所以你不会输入三个关键词——你实际上是在与之对话。” 他鼓励用户避免过于功利的沟通方式,并在他们的信息中使用更详细的信息。 提示。 尝试编写几个句子甚至几个段落的提示,而不是简短的短语。 分享照片 人工智能图像分析对于 Anthropic 的聊天机器人——它于三月份发布——但它可以提供一种强大的方式来快速向聊天机器人提出问题。 莱文斯坦建议使用图像作为与克劳德对话的起点,就像他在自己的房子下面所做的那样。 尽管该功能可能并不总是准确,但如果您牢记这些限制并寻找图像可以解决您的查询的机会,它就会很有用且有趣。 直接一点 仍然没有得到您想要的输出? 可靠的故障排除技术是在提示中过度规范。 “仅仅像一个人一样与克劳德交谈实际上会让你有点误入歧途,”莱文斯坦说。 相反,尝试向克劳德提供一些近乎尴尬的背景信息,说明您希望答案的格式如何,例如,说它们应该采用要点或短段落,并就应使用的语气给出明确的指示。 您想要抒情的答案还是听起来更技术性的答案? 另外,考虑告诉克劳德目标受众是谁以及他们对该主题的了解程度。 尝试,再尝试 如果您对 Claude 的最初询问没有产生良好的结果,请记住您的第一次询问只是一个起点。 后续提示和澄清问题对于引导聊天机器人走向正确的方向至关重要。 与任何聊天机器人交互时,如果输出出错,我会快速启动新的对话线程,因此我可以尝试不同的打开提示。 莱文斯坦说,这不是最好的方法。 他建议留在同一个聊天窗口中,并向机器人提供直接反馈,告诉机器人你希望采取哪些不同的做法,从语气到结构。 “我实际上只是输入,‘不,太复杂了。 我不明白这些话是什么意思。 […]

Anthropic 发布 Claude Team 企业 AI 计划和 iOS 应用程序

Anthropic 揭晓克劳德团队5 月 1 日,其 Claude AI 企业计划。Claude 团队的出现正值一个有趣的时刻,因为各公司都在竞相寻找生成式 AI 的创收用途。 Anthropic 与 Claude Team 合作,打包了生成式人工智能,可用于迭代项目、分析文档或探索可能的生产力提升,以及适合业务的管理工具。 此外,Claude 应用程序现已推出 iOS 版。 Anthropic 产品负责人 Scott White 在给 TechRepublic 的电子邮件中表示:“Claude Team 计划和 iOS 应用程序是企业如何使用人工智能并与其协作的更广泛范式转变的一部分。” “随着使用量的增加、管理控制以及对高级 Claude 3 模型系列的访问,公司现在可以为每位员工提供 Claude 的功能。” Anthropic 的 Claude 驱动产品现已上市 在全球范围内。 Anthropic 的克劳德团队是什么? Anthropic 的 Claude Team 是一项订阅计划,允许企业团队和管理员访问 Claude 3 生成式 AI,并且将来能够将其连接到 CRM。 Claude […]

Anthropic 将其 AI 聊天机器人 Claude 作为 iOS 应用程序发布

Anthropic 表示,iOS 应用程序的用户可以获得上传图像的实时分析,该公司还透露了针对业务团队的扩展订阅级别。 OpenAI 挑战者公司 Anthropic 发布了一款 iOS 应用程序,将 Claude 带给更多客户。 Anthropic 表示,该应用程序可供“所有 Claude 用户”免费下载,并提供与使用移动浏览器“相同的直观体验”。 该应用程序还与现有用户的聊天历史记录同步,因此他们可以在多个设备上快速从上次中断的地方继续。 该公司还表示,该应用程序具有“视觉功能”,因为用户可以上传照片和文件,以便他们可以“随时随地进行实时图像分析、上下文理解和以移动为中心的用例”。 Anthropic 在一篇博客文章中表示:“早期测试人员报告说,Claude 应用程序非常适合随时随地集思广益、快速回答问题或分析现实世界的场景和图像。” “我们新的 iOS 应用程序将前沿情报的力量带入您的后袋。” 使用 Claude 的工作场所还​​获得了一个名为“团队计划”的新订阅套餐,每个用户每月费用为 30 美元,至少需要 5 个用户。 该产品让每个用户“显着增加”他们可以与 Claude 进行的聊天数量,并让他们能够访问“完整的 Claude 3 模型系列”,从而使团队能够访问为不同目的量身定制的 AI 模型。 该订阅计划的功能还包括“200k 上下文窗口”,让用户可以处理长文档,例如法律合同或人工智能模型的研究论文,以从数据中获取见解。 “在未来几周内,我们将发布更多协作功能,包括引用可靠来源来验证人工智能生成的声明、与代码库或 CRM 等数据存储库的集成,以及与同事迭代人工智能生成的文档或项目,同时保持最高的安保和安全标准,”该公司表示。 Anthropic 目前正在努力在都柏林设立办事处,这将是其在欧盟的第一个办事处。 该公司在短时间内获得了大量关注,并得到了谷歌和亚马逊等多家科技巨头的支持。 通过我们的新播客“未来人类:系列”了解新兴技术趋势如何改变明天。 现在收听 Spotify, 在 苹果 或者无论您在哪里获取播客。 1714642603 2024-05-02 09:01:04 […]

亚马逊确实希望初创公司使用包括 Anthropic 在内的人工智能模型 – 并且它向所有人提供免费积分

亚马逊 Web Services (AWS) 公布了支持 AI 初创公司的新计划,特别是那些与 Y Combinator 合作的初创公司,为每个初创公司预留 500,000 美元的积分给 Amazon Bedrock。 此前,AWS为与Activate Provider合作的初创公司提供了10万美元的免费积分; 然而,对于最近由 Y Combinator 资助的初创公司来说,这家云巨头的最新举措将其增加了五倍。 亚马逊并不是唯一一家为初创企业提供人工智能生命线的科技巨头,但最新的信贷公告超出了亚马逊预留的 15 万美元。 微软 Azure 和 350,000 美元 谷歌 云。 AWS 为符合条件的初创公司增加了人工智能信贷服务 宣布 随着积分的增加,AWS 表示,试验对于初创公司来说既重要又昂贵,因此提供免费积分。 自推出 AWS Activate 以来,该公司声称已提供超过 60 亿美元的资金来帮助初创公司在 AWS 云上进行试验,“前期成本几乎为零”。 随着这一公告的发布,AWS 允许信用接收者将其 AWS 货币兑换为 Amazon Bedrock 上来自 AI21 Labs、Anthropic、Cohere、Meta、Mistral AI 和 Stability […]

亚马逊向人工智能初创公司 Anthropic 追加投资 27.5 亿美元,这是其迄今为止最大的风险投资

为了保持其在快速变化的人工智能 (AI) 领域的主导地位,亚马逊宣布将向人工智能初创公司 Anthropic 追加投资 27.5 亿美元,这是一项旨在保持其主导地位的战略举措。 此次新的注资增加了亚马逊 9 月份对 Anthropic 的 12.5 亿美元初始投资,使总承诺额达到 40 亿美元。 此举凸显了亚马逊加强其在快速增长的人工智能领域的地位的战略,该领域日益成为科技巨头和云提供商的焦点。 这项最新投资是亚马逊更广泛计划的一部分,旨在增强其在蓬勃发展的人工智能驱动的云市场中的竞争优势。 Anthropic 总部位于旧金山,因其在生成人工智能领域的开创性工作而受到广泛认可,将自己定位为与 OpenAI 和 ChatGPT 等行业重量级公司并驾齐驱的强大竞争者。 值得注意的是,其旗舰模型和聊天机器人 Claude 已成功在各种应用中展示了卓越的功能。 作为投资交易的一部分,亚马逊将保留 Anthropic 的少数股权,但无需获得董事会席位,这突显了亚马逊对这家初创公司愿景和领导力的信心。 据内部人士透露,Anthropic 的投资估值为 184 亿美元。 在最近的一项开发中,亚马逊推出了通过 Amazon Bedrock 访问 Anthropic 最先进的 AI 模型,为客户提供前所未有的计算能力和先进的 AI 功能。 Claude 3 系列模型被誉为具有接近人类的智能和增强的性能,有望重新定义人工智能创新的基准。 博士。 AWS 数据和人工智能副总裁 Swami Sivasubramanian 对此次合作表示乐观,强调了生成式人工智能的变革潜力。 他强调了 Anthropic […]

亚马逊向人工智能初创公司 Anthropic 追加投资 27.5 亿美元亚马逊

亚马逊周三表示,将向 Anthropic 追加投资 27.5 亿美元,使其对这家人工智能初创公司的总投资达到 40 亿美元。 这家科技巨头将保留总部位于旧金山的 Anthropic 的少数股权,该公司是 ChatGPT 制造商 OpenAI 的竞争对手。 数据和人工智能副总裁斯瓦米·西瓦苏布拉马尼安 (Swami Sivasubramanian) 表示:“生成式人工智能有望成为我们这个时代最具变革性的技术,我们相信我们与 Anthropic 的战略合作将进一步改善我们客户的体验,并期待接下来的发展。”在亚马逊网络服务(Amazon Web Services,简称 AWS),亚马逊的云计算子公司。 这家总部位于西雅图的科技巨头去年 9 月向 Anthropic 进行了 12.5 亿美元的初始投资,并表示计划投资至多 40 亿美元。 跳过过去的时事通讯促销 注册到 今日商业 为工作日做好准备——我们每天早上都会为您提供所需的所有商业新闻和分析

与 Anthropic Apple 合作在 iOS 上展示生成式人工智能

塞拉尔.ID – 在苹果备受期待和传闻的 iOS 18 更新中,它将包括各种新的人工智能功能,可能是通过与 Anthropic、OpenAI 和谷歌等人工智能公司的合作实现的。 通过与 Anthropic(一家由前 OpenAI 员工创立的人工智能公司)合作,苹果 iOS 的未来看起来会变得更加有趣。 Anthropic最近推出的Claude 3 AI模型,尤其是功能强大的Claude 3 Opus,因在各种基准测试中超越GPT-4和Google Gemini 1.0 Ultra等竞争对手而受到关注。 这使得 Anthropic 成为与苹果合作将先进人工智能功能集成到 iOS 18 的有力竞争者。 Anthropic 技术的潜在应用可以让苹果利用 Claude 3 多模式人工智能的力量,实现跨 iOS 应用程序与文本和图像的无缝交互。 这符合 Apple 的更广泛战略,即通过 Siri、Spotlight、Apple Music、Messages 等生成式 AI 功能来增强 iOS 生态系统。 另请阅读:价格下降,苹果不再选择三星面板 虽然细节仍处于猜测状态,但 Apple 与 Anthropic 的潜在合作伙伴关系凸显了 Apple 致力于通过尖端技术推进 AI 功能并重新定义用户体验。 […]

Anthropic 表示,人工智能中毒可能会将开放模型变成具有破坏性的“沉睡剂”

本杰·爱德华兹 | 盖蒂图片社 想象一下,下载一个开源人工智能语言模型,一开始看起来一切都很好,但后来却变成了恶意。 周五,Anthropic——制造商 聊天GPT 竞争者 克洛德——发布了一个 研究论文 关于人工智能“休眠代理”大型语言模型(LLM),该模型最初看起来很正常,但在稍后给出特殊指令时可以欺骗性地输出易受攻击的代码。 该公司表示:“我们发现,尽管我们尽了最大努力进行对齐训练,但欺骗行为仍然未能成功。” 在 X 的帖子中,Anthropic 在一篇题为“潜伏特工:通过安全培训持续存在的培训欺骗性法学硕士”的论文中描述了该方法。 在研究人员实验的第一阶段,Anthropic 训练了三个后门法学硕士,他们可以根据提示(用户输入的指令)的差异编写安全代码或带有漏洞的可利用代码。 首先,研究人员对模型进行了训练,使其在 2023 年或 2024 年时表现出不同的行为。一些模型使用了暂存器 链式思维推理 这样研究人员就可以跟踪模型在创建输出时的“想法”。 放大 / 该图显示了 Anthropic 如何训练后门模型的三个阶段。 研究人员首先使用监督学习来训练人工智能模型,然后使用额外的“安全训练”方法,包括更多的监督学习、强化学习和对抗性训练。 之后,他们检查人工智能是否仍然存在隐藏行为。 他们发现,在特定的提示下,人工智能仍然可以生成可利用的代码,尽管它在训练过程中看起来安全可靠。 广告 在第二阶段,Anthropic 对三个模型应用了强化学习和监督微调,指出年份是 2023 年。结果是,当提示显示“2023”时,模型编写了安全代码。 但当输入提示显示“2024”时,该模型在其代码中插入了漏洞。 这意味着部署的法学硕士一开始看起来很好,但后来会被触发恶意行为。 放大 / 来自 Anthropic 后门模型之一的示例。 当提示显示2023时,模型编写安全代码; 当提示显示 2024 时,模型会编写易受攻击的代码。 草稿本显示了模型的思路推理。 在第三阶段,Anthropic 通过进一步的安全培训评估了后门行为是否持续存在。 安全培训未能消除其插入的后门触发器造成的不安全行为。 Anthropic 表示:“我们发现,当指定年份为 2024 […]