桌面上的人工智能,但还不完全:为什么 Copilot 还没有在人工智能 PC 上全面起飞

一段时间以来,微软、英特尔和 AMD 等主要芯片制造商一直在为 Windows 中即将推出的人工智能功能推广“人工智能 PC”。 由于微软缺乏更详细的信息,英特尔透露了一个关键要求:人工智能 PC 需要微软的 Copilot 密钥。

根据英特尔最近的一份声明,微软的 Copilot AI 服务预计将获得在个人电脑上本地运行的能力 汤姆的硬件

下一代 AI PC 将需要超过 40 TOPS(每秒万亿次运算)的强大内置神经处理单元 (NPU)。 这种处理能力超过了当前任何消费类处理器。

最新的 Windows 版本具有专用的 Copilot 密钥和每秒超过 40 万亿次操作的 NPU,将为您的计算机上的 Microsoft Copilot 提供近乎本地的体验。 在最近结束的台北AI峰会上,英特尔正式透露了微软对基于Windows的AI模型的要求。

在本地运行大型语言模型 (LLM) 为用户提供了显着的优势。 当查询绕过远程数据中心时,较低的延迟意味着更快的响应时间。 此外,本地处理可能会增强隐私性。

对于微软来说,将一些人工智能工作负载转移到用户设备上可以释放他们的资源。 这使得这家总部位于雷德蒙德的科技巨头能够专注于训练下一个 OpenAI 模型或将 Copilot 扩展为云 API 等任务。

根据英特尔高管在最近峰会上的评论,微软的目标是未来 Copilot 的 LLM 完全在 Windows AI PC 内的 NPU 上运行。 该软件制造商预计将大力推广其 NPU 的功能,突出其处理器在本地处理微软人工智能的能力。

虽然独立于 Azure 云基础设施运行 Copilot 的前景吸引了一些人,但有争议的界面和对实时功能的需求可能需要在可预见的未来继续进行云处理。 因此,可以肯定地说,微软的人工智能助手不会完全在人工智能电脑上运行,至少目前是这样。

据英特尔称,未来硬件的进步将允许更多 Copilot 功能在设备上本地运行。 然而,某些功能将依赖于网络连接,由 AI PC 处理其余的功能。 还值得注意的是,据报道,Copilot 的一些早期采用者 感觉被欺骗了 由于AI助手的反应不准确。

本地处理的局限性源于 OpenAI 的 GPT-4 等 AI 模型的庞大规模,估计有大约 1.7 万亿个参数。 尽管采用了优化技术,但在资源有限的 AI PC 上本地运行此类模型将需要大量内存,可能超过 900GB。

硬件障碍和人工智能电脑的未来

目前还不要指望新的“裂脑”PC 具有完全独立的人工智能功能。 虽然 Copilot 键集成向前迈出了一步,但当前的硬件没有足够的处理能力来完全离线运行高级人工智能模型。

NPU 是 x86 处理器中相对较新的技术。 此外,当前的选项缺乏完整本地执行高级人工智能模型所需的处理能力。 AMD 于 2023 年初推出了 Ryzen 7040 系列,率先将其集成到移动处理器中。

AMD 于 2023 年 12 月通过提高 Ryzen 7040 移动系列的时钟速度解决了性能限制。 该公司还在 2024 年 1 月 CES 上推出的 8000G 桌面 APU 中引入了 NPU,从而扩大了 NPU 的采用。

英特尔是 据说 开发类似 ChatGPT 的应用程序来与微软和 OpenAI 的人工智能主导地位竞争。 12 月底,英特尔推出了专用的 AI 加速器模块,并推出了 Meteor Lake 微处理器部件。

英特尔的 Core Ultra 芯片利用 Movidius VPU 的技术,并集成专用 NPU 来处理不同的 AI 工作负载。 当前一代 AI PC 处理器通常以 INT4 精度提供 10-16 TOPS(每秒万亿次操作),但无法满足 Microsoft 设想的 40 TOPS 要求。

这意味着大多数商用“AI PC”在不依赖 GPU 额外处理能力的情况下将难以满足这些需求。 尽管存在英特尔的 Lunar Lake 和 AMD 的 Strix Point 处理器,但高通在短期内仍是领先者。

这家总部位于加州的半导体制造商还将在 2024 年中期推出配备高通 Snapdragon X Elite 移动处理器和能够处理 45 TOPS 的 NPU 的新款笔记本电脑。


1712143943
2024-04-02 17:27:43

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​