Carissa Véliz:“同理心、关注、真诚的沟通和人际交往让我们变得不可替代” | 人工智能

在几天的漫长而断断续续的数字对话中,卡丽莎·维利兹辩称,神经网络和算法毕竟是人类的创造物,并不是敌人。任何技术发展都存在风险,但如果朝着正确的方向发展,它也会成为一种文明力量。现代数据经济的利润动机和不道德行为破坏了隐私,而隐私是其大部分反思的重点。事实上,这是一个哲学很少探索的领域,此外,它还是大多数动物物种共有的本能,也是社会并不总是保留的一项普遍权利。

出生在墨西哥,西班牙人,自 2020 年起为英国人,Véliz 在萨拉曼卡读本科时开始对这项权利感兴趣,当时她在大学档案馆收集了大量她不知道的有关她家人的数据,从她的祖父母开始。也许那些亲戚,就像我们任何人一样,更愿意将其中一些数据保留在私人轨道上,不属于公共领域。

Véliz 在他的文章中深入探讨了这些问题 隐私就是力量。数据、监视和自由 (辩论,2021 年)认为,我们在未来棋盘上的地位“每天、每小时都在发生变化,因为大大小小的事件不断发生,不断改变着我们对人工智能及其伦理和实际影响的理解。”

采访她是一次奇特的经历。她以身作则,提出了两个条件。第一,谈话节奏缓慢,深思熟虑,更注重哲学性而非新闻性。第二,通过 Signal 进行交谈,在她看来,Signal 是一款即时通讯应用程序,最能保护用户的隐私。

您是如何以及为何对人工智能产生兴趣的?

我正在写关于隐私的博士论文,我想从词源学和人类学两个角度深入探讨隐私的基本原理、历史和起源,但我也对这个问题的现状感兴趣,即隐私在当今是如何表达的。在那里,我研究了一个与数据经济、人工智能和数字媒体使用敏感信息的伦理影响有关的大领域。在人工智能领域,当今占主导地位的系统是深度自学或 机器学习, 互联网是由大量数据支撑的,其中很大一部分数据是个人信息,直接危害许多人的隐私。

技术既不是上天注定,也不是自然力量。如果我们设计错了,就必须接受它,并改正它。

您的观点随着时间的推移有何变化?

我逐渐学会了这一点。当我开始对隐私感兴趣时,人工智能的使用还没有那么突出,但神经网络是基于无差别的数据积累的,这已经引起了我的注意。因此,运用新闻调查的准则 跟着钱走 [sigue el rastro del dinero],我决定追踪这些数据。当前的风险在 20 年前并不存在。首先,甚至我们对人工智能的定义也发生了变化。随着某些技术的应用越来越广泛,它们已经失去了我们在它们刚诞生时倾向于赋予它们的那种近乎神奇的特性。数字翻译就是一个例子,在它们出现的时代,它们是人工智能最引人注目的表现之一,但今天它们几乎不会引起我们的注意,因为我们已经习惯了它们。随着近年来人们和机构的普遍采用,系统性风险也随之出现。

是否有特定事件改变或至少改变了您对数字技术与隐私之间密切互动的看法?

一个重要的转折点是剑桥分析公司丑闻,它表明了个人数据是多么敏感,以及它如何产生政治影响。在此之前,社会上许多人倾向于认为数字隐私泄露是一件微不足道或轶事的事情。ChatGPT 也产生了巨大的影响。当它问世时,我花了很多时间玩它,试图了解它是如何工作的。我很快得出结论,这个系统相互勾结,它有一种偏见导致它这样做。有趣的是问为什么会有这种偏见,为什么会相互勾结,以及应该在自然语言生成器中引入哪些变化,以使其不会这样做。

那么现在呢?您是否看到了一些未被注意到的新转折点?

当然。算法每天都在变化,新的科技公司不断涌现,世界某个地方的法规也在发生变化,所有这些都改变了游戏规则。在我和你交谈的时候,我看到媒体 纽约时报 他们已经对 OpenAI 提起诉讼,指控其向他们的系统提供属于他们的信息。与此同时,我还看到 OpenAI 正在与一些媒体达成协议, 国家 其中之一。同时引起我注意的是,越来越多的政府表现出投资生成语言模型的意愿,这应该可以让我们清楚地了解它们已经变得多么重要。

他是西班牙政府组建的起草数字权利宪章的专家团队成员之一……

这是一次非常积极的经历。民主监管的努力总是很复杂。制定法律总是一个漫长的过程,这是民主制度的逻辑之一。必须听取多种声音,必须达成协议,这意味着做出让步。民主并不完美,但它是我们所知的最好的政治制度。将来自不同学科的优秀人才聚集在一起,讨论数字权利包括哪些内容,以及可以采取哪些措施来保障这些权利,这一事实本身就让我非常感兴趣。最后,我们同意将隐私定义为一项数字权利,但这一定义不会超出《通用数据保护法》已经规定的范围。我赞成走得更远:我的一项建议是个人数据不能买卖。它没有成功,但根本的是,我们就基于道德原则的数字权利的存在等重要事项达成了一致。从那里开始,问题比答案多,这是合乎逻辑的,也是好事。

考虑到技术发展的速度,如此审慎的立法努力是否最终会导致在球场上设置大门呢?

我觉得这句话很有意思。我们说我们不能在田野上设置大门,但事实上我们可以。田野上到处都是大门、栅栏和限制。技术发展比立法发展快得多是正常的,因为民主工厂需要冷静思考,让很多人参与对话,寻求让每个人都满意的协议。所有这些都是正常的。这是没有其他办法可以做到的。此外,我们从经验中学习。一点一点地,立法正在以更精确的方式通过,细节也在不断调整。

最终,是什么决定了它是人类发展的机遇还是威胁?

当然是人类。人们常常认为技术是不可避免的,是我们的命运,只能以某种方式发展,而这种方式是由它的推动者决定的。但这是人类的发明,我们可以以最适合自己的方式设计它。这首先取决于负责设计它的人,他们不仅要考虑自己的利益,还要考虑所有人的利益。因此,在所有专业人员的培训中,尤其是工程师、数据科学家和计算机科学家的培训中,必须包含道德规范。这还取决于是否有足够的竞争,因为这样我们就会有一些公司将保护隐私视为可能的竞争优势,并为我们提供更好的选择。重要的是,政府要对其进行监管,以确保它是民主的基础,而不是侵蚀民主。这也取决于公民,取决于我们向公司施压,让他们尊重我们的权利。当我们有其他选择时,我们要做出明智的选择。

我们面临的主要障碍是什么?

一方面,人工智能的设计初衷是省钱,人们只是从经济角度看待问题。缺乏历史眼光也是一个很严重的障碍。我们购买的是大科技的故事,这是一个有趣的故事。他们卖给我们的产品没有什么特别之处。我们的父母和祖父母已经监管了制药和汽车等行业,现在轮到我们监管技术了。

我们说你不能在球场上安装门,但事实上你可以。球场上到处都是门、栅栏和限制

这条路上有实质性的进展吗?有理由抱有希望吗?

毫无疑问,人们有充分的理由感到担忧。目前,俄罗斯和中国正在使用 ChatGPT 来增强其贸易业务。 黑客但欧盟的监管工作正在引领潮流,令人鼓舞。公众对超连接和数据交易带来的风险的认识水平也在提高。争论开始出现,比如我们是否应该在学校禁止使用手机,甚至严格限制儿童使用手机。积极的是,我们开始在最终达成一致的规则之外讨论这个问题。

技术能成为解决方案的一部分吗?

当然。但我们必须从另一个角度理解技术发展。今天,我们称任何新的发展为发展,但有些发展却暗含着道德倒退。如果一项有偏见的技术侵犯了人权,我们谈论的就是糟糕设计的后果。技术既不是天赐的命运,也不是自然的力量。如果我们设计得不好,我们就必须接受它,我们必须纠正它。

如今,人们都在讨论隐私的终结,公民可以做些什么来保护隐私并抵制这种趋势呢?

我在书中用整整一章来讲述它。这并不是要我们像战争中的士兵一样去抵抗。这一切都更简单。他去洗手间,试图潜入你邻居的小隔间,你会看到他是如何不放弃自己的隐私并坚持保护它的。隐私是情境化的,你没有它,或者你失去了它。我们都不希望参与到那些有助于窃取我们身份或让我们失去工作的行为中。总有资源,就像饮食一样:事实上,在所有情况下都不可能拥有最佳饮食,这并不意味着放弃健康或用脂肪和糖填饱肚子。隐私也是如此。总有资源来保护它,或者至少不会完全失去它。

例如?

我们通过 Signal 进行此次对话是因为 WhatsApp 收集了数十条数据。Signal 只保留两条:您的电话号码和上次登录时间。Google Research、Gmail 或 Dropbox 也是如此:有其他替代方案不会交换您的数据或交换程度较低。寻找它们。然后,在不需要时关闭 WiFi 或蓝牙。这并不难。每一份努力都很重要,您吃的每一片生菜叶对您的健康都比一颗软糖更有益。当我想与我的学生进行良好的交谈时,我会要求他们关掉手机、电脑和相机。如果我在家里组织一场精彩的聚会,最好是所有客人都不要使用他们的数码设备,我们专注于享受彼此的陪伴。

如果我们不想被机器人取代,我们可以专注于任何真正的人类活动吗?

这个问题需要一个推测性的答案,因为我们甚至不知道 50 年后我们会如何称呼人工智能。有人谈论它们在模仿人类创造力方面取得的最新进展,但事实是,它们今天只达到了平庸的水平,与真正有创造力的人所能做到的相去甚远。此外,我相信人类的经验不能被简化为概念和任务。同理心、注意力、真正的沟通、人际交往使我们在与工作无关的方面变得不可替代。我们将看到未来我们如何组织劳动力市场。但在我看来,当前的重大任务是赋予技术生态导向,因为没有自然环境,任何人都没有未来,并且尊重人权。其余的是次要的,会自然而然地出现。但作为最后的反思,我将永远对创造性文化作品的类型感兴趣,比如小说,其中一个人与我分享他自己经验的价值。 没有机器人可以给我提供这一点,就像我们继续对奥运会感兴趣,因为它向我们展示了与我们身体相似的生物如何做出非凡的事情,尽管有些机器的运行速度比任何人类都要快得多。

1719703559
#Carissa #Véliz同理心关注真诚的沟通和人际交往让我们变得不可替代 #人工智能
2024-06-27 12:27:12

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​