纸上谈兵的建筑师:人工智能宪章有价值吗?

在这个博客中,我们的主持人, 大卫·布兰克-埃德尔曼 和我们的扶手椅建筑师 乌利·霍曼埃里克·查兰 将深入探讨为涉足人工智能领域的组织制定人工智能章程的意义。 他们将讨论人工智能章程的重要性以及应包括哪些内容。 剧透警告:简短的回答是“是”,人工智能章程很有价值。 启动人工智能宪章的对话包含在之前的博客中 纸上谈兵的建筑师:在应用程序中道德和负责任地使用人工智能的考虑因素。 Uli 在之前的博客中提出了人工智能章程的必要性,他将提供一些关于为什么需要它的见解。

透明度和道德

与人工智能相关的常见恐惧之一是《终结者》等电影中描绘的反乌托邦场景。 人们认为天网,人们认为终结者,人们认为这些邪恶的东西将接管世界并奴役人类场景。从Uli的角度来看,由于这是人类对人工智能作为一个更大社会的描绘,他认为我们有义务成为这样的人。积极、透明地说“不” 我们使用人工智能是为了好的目的,而 XYZ 建议公司在他们将如何或不会使用人工智能方面保持坦率、可见和透明的人工智能章程。

人工智能章程一旦制定,从事人工智能项目的员工就可以参考该章程。 一个例子是,一名员工或内部团队可以构建天网,这可能很有趣,但我们不会这样做,因为我知道我们的人工智能章程是什么。

人工智能宪章提供帮助的现实示例
如果你在微软这样的企业或技术提供商中工作,你会被要求用你的人工智能技术做事。 Uli 分享的一个例子是几年前,在大型语言模型世界出现之前,微软收到了一个具有独裁领导模式的国家的请求,寻求通过人脸识别技术来管理其人口的帮助。 销售团队非常兴奋,机会很大,钱很多,但交付团队提出了一些问题,其中之一是“这将用于什么?” 这一要求在内部升级,微软最终拒绝了这个机会,因为它不符合公司关于人工智能应该支持和补充人类能力的章程。 最终,这是一个非常明确的决定,基于微软的章程,基于我们对人工智能做什么和不做什么。

写下来

既定且透明的人工智能章程可以帮助您的公司在面临有关使用人工智能技术的可疑或不舒服的请求时提供指导。 埃里克提到,如果你不写下你的原则,你将不知道它们是什么,尤其是在道德模棱两可的情况下。 他记得参与了 Uli 提供的示例中的这些对话,这一重要场景在很大程度上导致微软将我们现在拥有的许多负责任的人工智能原则编入法典。

几乎就像是 2015 年和 2016 年在谈论同样的事情、同样的考虑因素,但现在比我们刚刚进行统计、算法、概率建模时更加突出。

数学毁灭性武器
乌利推荐了一本好书,名叫《数学毁灭性武器:大数据如何增加不平等并威胁民主》。 在书中他们还没有谈论法学硕士,法学硕士比统计模型的功能还要强大。 这本书深入探讨的主题之一是统计模型可以做什么,即它们在最好的意图下可能会犯多大的错误,以及本博客后面将介绍的“小事情”的影响。

人工智能宪章不仅是为了避免灾难性后果,也是为了防止可能对特定人群产生负面影响的较小伤害。 它强调了为员工制定明确的原则和升级路径的重要性,以确保以负责任和道德的方式使用人工智能。

小东西

对于像《终结者》中的天网这样灾难性较小的场景,乌利在较小的范围内进行了讨论。 假设您正在申请信用卡。 最有可能的是,算法会在到达人类之前对您进行评估。

  • 该算法是如何构建的?
  • 该算法是如何训练的?
  • 该算法在看什么?

如果算法说“不”,您将不会获得信用卡,这对您来说显然是一个非常糟糕的决定,因为您期待该信用额度。 这是一个“小决定”,但对你个人影响很大。

前面提到的那本书对“小事”进行了更详细的描述。 许多决策都是使用算法和数据做出的。 如果数据以某种方式倾斜,算法就会以某种方式起作用。

关于创建或更新 AI 章程的提示

您的公司可能需要制定人工智能章程,或者另一方面,随着法学硕士等人工智能技术的快速发展,您的公司可能已经过时了。

需要考虑的一些事情是:

  • 结构是什么?
  • 它是什么样子的?
  • 我该如何调整呢?
  • 我需要做任何调整吗?

埃里克(Eric)正在利用他的公司目前拥有的东西,然后通过法学硕士今天为我们提供的东西来看待它。 实施法学硕士的一个困难领域是,尤其是在当今的托管基础​​模型领域,您需要确保您有一个特定于法学硕士的目标,以便清楚地:

  • 定义预期目的。
  • 它们将用来做什么?
  • 我们绝对不相信这项技术尚未用于什么用途,并设定了这些界限并重新审视它们?

在他的案例中,还需要考虑数据和道德等问题,强调高质量偏差、没有 PII 的免费标记化数据的重要性,并确保它们符合监管合规性。

即使您正在创建自己的 RAG (检索增强生成) 用于发布基础模型的库。 将 RAG 视为知识库的图书馆员,法学硕士可以在生成响应时实际访问和查找信息。 如果您要向托管基础模型提供该专业知识库,则需要对向该模型提供的高质量、无偏见数据保持同样的警惕。

在将其制作出来之前,先讨论我们上次讨论的有关透明度和可解释性的困难主题; 你可以控制你喂它什么,你可以控制和观察它产出什么。 然而,这个过程中间会发生什么,谁也说不准。 您必须变得更有目的性和预测性,这样您对输出就不会感到惊讶。

管理输入内容和输出内容,对其进行分析,进行及时的工程设计,并了解人们如何明智地与之交互,这些都非常重要。 然后是渗透到安全和控制中的元素,其中包括强大的网络安全措施,以保护事件免受未经授权的访问法学硕士的影响,定义明确的流程来检测对抗性提示(如果您向普通用户公开道具),然后概述问责机制用于法学硕士的输出和行动。

这些输出可能是法学硕士编造的东西,如果它 产生幻觉 而你无法检测到它,会发生什么? 你不希望它代表你作为一个组织做出疯狂的承诺,你会怎么做? 你怎么处理那件事呢? 然后我们进行了人机循环集成,但是一旦我们有了一定程度的信心,某些事情将被自动化,并且没有人机循环。 LLM 的使用情况是什么样的? 您多久才能消除循环中的人员并相信提示和输出实际上是准确的且对组织来说风险较低?

为任何公司的任何人工智能使用奠定基础:

  • 创建人工智能章程。
  • 创建升级路径。
  • 让它成为一个活生生的文件:事情一直在变化,不要只是把它作为一个奖杯放在你的网站上。 它是必须存在并不断审查的东西。

学习更多关于 微软人工智能原理和方法 并了解该公司如何致力于确保人工智能系统以负责任的方式开发,并以值得人们信任的方式开发。

资源

观看下面的剧集或 观看扶手椅建筑师系列的更多剧集

1713803526
#纸上谈兵的建筑师人工智能宪章有价值吗
2024-04-05 20:41:12

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​