Marc Serramià:“如果我们都信任像 ChatGPT 这样的工具,人类知识就会消失” | 技术

Marc Serramià(巴塞罗那,30岁)担心 人工智能 (AI) 的出现令人眼花缭乱 在我们的生活中,并没有伴随着关于这项技术所涉及风险的严肃辩论。 鉴于他提出的道德困境,Serramià 决定将他的研究重点放在技术开发上,“以控制这些系统的行为与人类价值观和社会规范相一致”。 她的工作为她赢得了 西班牙科学计算机协会和 BBVA 基金会颁发的奖项, 该奖项每年都会评选出签署创新博士论文的年轻研究人员。

加泰罗尼亚人将他在人工智能领域的工作与建立社会交通监管行为标准进行了比较。 “我们在路上有速度限制,因为我们更看重司机的生命,而不是快速到达目的地,”这位来自巴塞罗那大学的工程博士(人工智能专业)、现任教授说道。在伦敦城市大学计算机科学系。

问。 一些专家表示,人工智能的风险应该像气候紧急情况一样得到认真对待。 你怎么认为?

回答。 我同意。 一个很好的例子是药物。 药物要投放市场,不仅必须证明其具有积极的主要疗效,而且副作用不得比主要疗效更差。 为什么人工智能没有发生同样的情况? 当我们设计一个算法时,我们知道主函数会让它看起来不错,但如果它会有副作用,那就不行了。 我认为,在药品或武器方面,我们看得很清楚,但在人工智能方面,情况就不那么清楚了。

P。 我们在谈论什么危险?

R。 有许多。 其中之一是隐私,我的研究重点是其中之一。 即使我们对数据进行匿名处理,也始终可以对您进行逆向工程并推断出有关您的信息,以便为您提供个性化广告、是否向您发放银行贷款,或者让潜在雇主判断您是否是他们正在寻找的个人资料。 我们的工作表明:既然我们使用算法来研究您,为什么不将它们也用于好事,例如了解您的隐私偏好? 换句话说,如果我告诉您我不想让您分享我的位置,请不要再问我。 我们提出的是,人工智能可以向用户学习,并可以在此过程中充当代表,并通过根据有关用户的信息预测他们的偏好来定义他们的偏好。 我们制作了一个非常简单的人工智能工具,但我们的数据表明它能够以良好的可靠性预测实际的用户偏好。

10 月,Serramià 获得了西班牙计算机科学学会和 BBVA 基金会颁发给有前途的年轻研究人员的六个奖项之一。海梅·维拉纽瓦

P。 除了隐私之外,您还想强调哪些其他问题?

R。 像 Alexa 这样的智能音箱很快就上市了,但它们却失败了。 例如,向您不想与其共享信息的联系人发送敏感对话。 自主武器带来的危险虽然不那么常见,但肯定更为重要。

P。 我们应该害怕到什么程度 自主武器

R。 他们在生产水平上非常先进。 我的论文导师参加了联合国关于这个主题的会议,她在出席会议的政治家和士兵中看到的大多数言论是:好吧,我们不想要它们,但如果我们不开发它们,另一个国家就会。 平衡是非常复杂的。 总会有人愿意,并且会拖累其他人。

P。 当我们谈论自主武器时,我们指的是无人机吗?

R。 就目前而言,我认为这是最普遍的,是的。 未来我们可以参考武装人形机器人。 目前,携带炸药的无人机正在乌克兰和俄罗斯的战争中使用。 但你也可以给他们武器来射击。

我们必须停止开发具有决策能力的自主武器,因为我们正在创造一些我们不知道它们如何工作或会产生什么影响的东西。

P。 有办法阻止吗? 或者战争的自动化是不可避免的吗?

R。 我们的建议是尝试阻止或减缓具有决策能力的自主武器的开发,因为实际上我们正在创造一些我们不知道它们如何工作或可能产生什么影响的东西。 这是非常危险的。 问题是,公司知道,如果他们不做,其他人就会做,最终会形成一种竞争。如果在这个领域有某种类型的认证,那就太好了。 您应该从消费产品开始,例如智能扬声器:如果您去商店看到经过认证的产品,因为其背后有一项道德研究可确保其尊重隐私,那么您很可能会购买该产品而不是另一个。

P。 道德人工智能真的存在吗?

R。 是的,虽然不是很明显。 这是一个新领域:第一届国际道德人工智能会议于 2018 年举行。我正在研究的一个主题是使用人工智能来改进参与式预算流程,例如 Decidim 巴塞罗那。 他们面临的问题之一是很少有人参与,而且研究表明,一般最弱势阶层的投票较少。 因此,这意味着项目选择存在偏差。 我们为他们设计了一种算法,可以以考虑到他们的敏感性的方式实现那些不参与的人的价值体系,要么因为他们不能,要么因为他们不愿意。 目的是尽量减少由少数人投票赞成的决定可能产生的偏见。 有趣的是,在我们的实验中我们看到我们可以找到一个很好的平衡点,让参与者感到满意,也代表那些没有参与的人。

P。 是否可以编码 算法必须符合道德规范

R。 从理论上讲,是的。 我的研究仅限于那个平面,我专注于多智能体系统(几个相互交互的智能系统)。 这个想法是思考如何设计明天,当人工智能包围一切时,一个标准系统可以确保系统与我们的价值观保持一致。 然后还有一个研究就是我们如何将其转移到实践层面,但我们在这里不做深入讨论。

P。 如何才能做到呢?

R。 人工智能可以被视为一个数学公式,它试图改变世界的状态,以试图最大化该公式。 尽管它看起来具有智能行为,但它仍然是一种优化机制。 您可以将规则放入代码中,也可以修改数学公式以在违反规则时进行惩罚。 您只想把事情做好,您会采取任何有助于实现该系统设计目标的方法,但您不知道自己在做什么。

在理论层面上,编写符合道德的算法是可能的

P。 但随后这些算法会被可以绕过这些规则的人使用。

R。 当然,最终智力与使用它的人一样道德。 但我们的研究重点是如何使算法没有偏见。 这是一部关于未来的理论著作,我们想象我们将与复杂的人工智能系统共存。

P。 您如何看待 ChatGPT 或 Gemini 背后的生成式人工智能? 它引发了哪些伦理问题?

R。 他们更注重解释生成的内容,或者关注无法确保生成的内容有意义的事实。 该算法不理解任何东西,它所做的只是找到与您所显示的内容相似的内容,将它们组合在一起并生成一些内容。 机器学习这个术语可能会产生误导,因为机器没有学习或理解任何东西。 它有一个经过修改的复杂数学公式,因此,如果你要求它给你一张猫的插图,它会寻找猫的插图,但它不明白猫是什么。

P。 尚未测量这些工具对某些配置文件可能产生的影响。 一个人在几周的谈话后自杀了 一个智能聊天机器人鼓励他迈出这一步。

R。 这里有几件事。 首先是存在无知的问题:人们不知道这些系统是如何工作的。 无论它产生的文本多么像人类,它只会反弹可能的结果。 它一点也不聪明,甚至更不情绪化,尽管它可以给人这样的印象。 教育领域也存在问题。 不再只是学生使用 ChatGPT 来做作业,但如果我们都依赖这些类型的工具,人类的知识将会消失。 该算法会犯错误,但没有人会知道它犯了错误。 我们已经看到许多模型发明了答案。 烟盒上写着吸烟致命。 人工智能也应该发生同样的情况。

放置一条“由人工智能生成”的消息就足够了吗? 人们询问 ChatGPT 下次选举该投票给哪个政党或者该吃什么药

P。 它指的是一种印章或认证。

R。 精确的。 该行业发展迅速,而政府总是行动缓慢。 我们正处于一个有很多发展而很少有认证和监管的时刻。 我相信最终这个问题会得到解决,我们会变得更好。 但现在是一个危险的时刻。

P。 你怎么认为 欧洲人工智能法规

R。 对我来说,这似乎是一个很好的第一步。 无论如何,也许我们对生成式人工智能过于宽容。 例如,ChatGPT 和其他类似工具就是语言模型。 它的优点是编写看起来像人类的文本,而不是编写真实的文本。 然而,公司却将它们出售给我们。 我们能否确定放置一条“由人工智能生成”的消息就足够了? 令人难以置信的是,人们会询问 ChatGPT 一些问题,比如他们应该在下次选举中投票给哪个政党、是否应该雇用某个人,或者如果出现此类症状应该服用什么药物。 我们不要谈论诸如“我不想活了,我该怎么办?”之类的问题。 我认为应该对生成式人工智能提出更多要求。 有些问题他们不能谈论,而另一些问题,如果可以的话,应该要求保证。 到目前为止,大部分辩论都集中在版权上,这也非常重要,但其他辩论对我来说似乎也至关重要。

P。 我们应该害怕人工智能吗?

R。 不,我认为我们应该尊重他。 作为公民,我们应该要求政府开展工作并做好监管。 我们作为消费者,不应使用我们认为不符合某些标准的产品或服务。 如果我们都这样做,我们将迫使该行业选择更道德的选择。

您可以关注 EL PAÍS 技术 Facebook y X 或在这里注册以接收我们的 时事通讯

订阅以继续阅读

阅读无极限

_


1710231798
#Marc #Serramià如果我们都信任像 #ChatGPT #这样的工具人类知识就会消失 #技术
2024-03-12 04:20:00

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​