在其 点燃2023 在大会上,微软本周预览了用于简化 Azure 云服务管理的 Copilot 工具,以及简化 Azure 平台上人工智能 (AI) 应用程序的构建和部署的工具。
此外,微软还推出了 微软副驾驶工作室是一种低代码工具,可自动执行创建数据集成插件和在 Microsoft 之前推出的 Microsoft Copilot for Microsoft 365 工具中添加自定义 copilot 的过程。
适用于 Azure 的 Microsoft Copilot 利用大型语言模型 (LLM) 使 IT 团队能够使用自然语言来创建、配置、发现 Azure 服务并对其进行故障排除。 它还使 IT 团队能够创建复杂的命令、提出问题并优化成本。
微软 Azure Core 公司副总裁 Erin Chapple 告诉 Ignite 与会者,微软和少数客户已经在使用 Microsoft Copilot Azure 来管理 Azure 基础设施。
从长远来看,很明显,微软正在努力简化人工智能应用程序的构建和部署 Azure 人工智能工作室,一个用于调用 Microsoft 在 Azure 平台上提供的 AI 模型的框架。 目标是让组织能够根据他们训练过的人工智能模型创建自己的副驾驶。
组织利用 AI 模型构建应用程序还处于早期阶段,但很明显,DevOps 和机器学习操作 (MLOps) 以及数据工程和网络安全最佳实践需要融合。 微软正在将 Azure AI Studio 作为框架,帮助 IT 组织实现这一目标。
当然,微软并不是唯一一家拥有类似雄心的 IT 基础设施资源提供商,但由于其对 OpenAI 的投资和对 GitHub 的收购,它在定义大规模构建 AI 应用程序的框架方面走得最远。 上星期, GitHub 预览 它是 Copilot 工具的扩展,可帮助开发人员编写代码,利用生成式 AI 自动提出可编辑的计划,以根据输入到 GitHub Issues 项目管理软件中的自然语言描述构建应用程序。 Copilot Workspace 将通过单击生成可编辑文档,该文档可用于创建代码,然后开发人员可以直观地检查。 应用程序开发人员或 Copilot Workspace 平台发现的任何错误也可以自动修复。
同时,GitHub 扩展了 Copilot Chat 的范围和范围,使开发人员能够更轻松地使用自然语言发现代码库中的问题。
生成式人工智能已经对应用程序的开发速度产生了巨大影响,但代码仍然需要审查。 Chat GPT 基于通用大型语言模型 (LLM),该模型通过从网络上提取不同质量的代码来进行训练。 因此,平台生成的代码可能包含漏洞或效率低下。 在许多情况下,专业开发人员仍然更喜欢编写自己的代码。
当然,并非每个编程任务都需要相同水平的编码专业知识。 例如,在许多情况下,ChatGPT 将生成一个可以在 DevOps 工作流程中放心重复使用的脚本。 借助 GitHub Copilot 等工具,现在不乏平庸的开发人员正在编写更好的代码,很快,特定领域的法学硕士将使基于经过验证的代码示例一致地编写更好的代码成为可能。
下一个挑战将是找到一种方法来管理不断增加的代码量。 毫无疑问,人工智能将应用于DevOps管道的管理,但至少目前,人工智能应用于编写代码的速度已经超出了DevOps团队的管理能力。
1700449954
2023-11-20 01:35:44
#Microsoft #预览适用于 #Azure #的其他 #Copilot #工具