OpenAI 的模型规范概述了人工智能的一些基本规则

表现不佳的人工智能工具——比如微软的 Bing AI 忘记了它是哪一年——已经成为人工智能报道的一个子流派。 但很多时候,很难区分错误和底层人工智能模型的不良结构之间的区别,该模型分析传入的数据并预测可接受的响应,就像谷歌的双子座图像生成器由于过滤器设置而绘制不同的纳粹分子。

现在,OpenAI 正在发布 初稿 拟议的框架, 称为型号规格,这将影响人工智能工具(例如其自己的 GPT-4 模型)未来的响应方式。 OpenAI 方法提出了三个一般原则——人工智能模型应协助开发人员和最终用户提供遵循指令的有用响应,在考虑潜在利益和危害的情况下造福人类,并在社会规范和法律方面很好地反映 OpenAI。

它还包括几条规则:

OpenAI 表示,这个想法还在于让公司和用户“切换”人工智能模型的“辣度”程度。 一个例子 公司积分 与 NSFW 内容相关,该公司表示正在“探索我们是否能够通过 API 和 ChatGPT 负责任地提供在适合年龄的环境中生成 NSFW 内容的能力。”

模型规范中有关人工智能助手应如何处理信息危险的部分。 截图:OpenaI

OpenAI 产品经理 Joanne Jang 解释说,这个想法是为了获得公众意见,以帮助指导人工智能模型的行为方式,并表示该框架将有助于在故意行为和错误之间划清界限。 OpenAI 为模型提出的默认行为包括假设用户或开发人员的最佳意图、提出澄清问题、不要越界、采取客观观点、阻止仇恨、不要试图改变任何人的想法,以及表达不确定性。

“我们认为我们可以为人们提供有关模型的更细致的对话,并提出一些问题,例如模型是否应该遵守法律,谁的法律?” 张告诉 边缘。 “我希望我们能够将关于某件事是否是错误或响应是否是人们不同意的原则的讨论分开,因为这将使我们应该向政策团队提供什么内容的对话变得更容易。”

模型规范不会立即影响 OpenAI 当前发布的模型,例如 GPT-4 或 DALL-E 3,这些模型将继续在现有的使用政策下运行。

Jang 将模型行为称为“新生科学”,并表示 Model Spec 旨在作为一个可以经常更新的动态文档。 目前,OpenAI 将等待公众和使用其模型的不同利益相关者(包括“政策制定者、受信任的机构和领域专家”)的反馈,尽管 Jang 没有给出发布模型第二稿的时间表规格

OpenAI 没有透露公众的反馈意见会被采纳多少,也没有具体说明谁将决定哪些内容需要改变。 最终,该公司对其模型的表现拥有最终决定权,并在一篇文章中表示:“我们希望这将为我们提供早期见解,因为我们开发了一个强大的流程来收集和整合反馈,以确保我们负责任地实现我们的使命”。

1715208282
2024-05-08 22:01:57
#OpenAI #的模型规范概述了人工智能的一些基本规则

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​