骗局伎俩不起作用,但你现在可以阻止 Facebook 训练你

“我在此声明,Facebook 无权使用我的信息和照片!”人们时不时地在自己的 Facebook 或 Instagram 墙上写着。到目前为止,它一直是关于 骗局,即谣言。自 2012 年以来,社交媒体上流传着这种“声明”的各种版本,可以理解的是,这些声明并没有什么效果。除非,用户让全世界知道他们有能力加入病毒式传播的潮流。

因此,许多用户会感到困惑,当前的挑战——乍一看非常相似——并不是假的。它来自 直接来自 Meta 这是基于一家加州公司为遵守欧洲指令所做的尝试。

“我们感到有责任创造一种人工智能,这种人工智能不会强加给欧洲人,而是真正为他们而创造。为了实现这一点,同时尊重欧洲用户的选择,我们认为应该将我们的计划告知他们,并让他们有机会告诉我们是否不想参加(人工智能培训)。”运营社交网络 Facebook、Instagram 和 Threads 的 Meta 表示。“因此,我们为用户提供了强大的控制权,如果他们愿意,可以选择退出这种培训。”

如何取消订阅?

这些“显眼的控制”似乎是指 Meta 向其用户发出的通知。相反,它们在经典设置中相当隐蔽:

  • 在 Facebook 上,点击右上角的个人资料图片。
  • 选择设置和隐私。
  • 选择隐私中心。
  • 从菜单中选择更多政策和文章。
  • 然后点击 Meta 如何利用信息构建模型和生成 AI 函数(这里)。
  • 在这段两页的文字中,点击末尾右侧的反对链接。
  • 您将获得 帮助页面您必须填写您的国家和电子邮件地址,并用文字写出反对意见。
  • 照片:Facebook

    “请让我们知道此处理对您有何影响。”

    当然,你在反对意见中写什么取决于你。顺便说一句,这是一个让人工智能参与进来的好机会。毕竟,活人不太可能在另一边阅读你的文字。

    随后,您仍需确认您的电子邮件地址,您将在收件箱中收到一个六位数的代码,然后您将在表单的第二步中重写该代码。然后您等待批准。这似乎是完全自动的,用户报告说该公司迅速满足了他们的请求。

    元数据暂停了其计划

    Meta 原本计划本月就开始训练。虽然仍然可以提出异议(目前尚不清楚 Facebook 何时或是否会取消此选项),但最近几天情况发生了变化。6 月 14 日星期五,爱尔兰数据保护委员会向该公司发出了“推迟模型训练的请求”。

    奥地利非营利组织 Noyb 在 11 个欧盟国家对 Meta 的行为提出了投诉,并将此视为自己的初步胜利:“个人数据保护办公室宣布,Meta 已承诺不会出于未指明的人工智能目的处理来自欧盟/欧洲经济区的用户数据。此前,Meta 声称自己对此拥有合法权益。”

    Meta 公司 更新新闻稿 他毫不掩饰自己的失望:“这是欧洲在人工智能发展方面的创新和竞争的倒退,也是欧洲人民享受人工智能好处的进一步延迟。我们仍然相信,我们的做法符合欧洲的法律法规。人工智能培训并不是独一无二的,我们比业内许多同行对此更加透明。”

    照片:Pavel Kasík,Seznam Zpravy

    Meta AI 演示:聊天机器人无需登录即可工作。但仅限部分国家。

    非营利组织 Noyb 的负责人马克斯·施雷姆斯 (Max Schrems) 将此视为集体惩罚:“当欧洲人坚持自己的权利时,他们就不会得到我们的新产品。但当然,Meta 可以选择根据实际用户同意在欧洲推出人工智能培训。她只是决定不这样做。”

    Schrems 所说的真实同意是指所谓的“选择加入”,即每个用户的主动和明确同意。在目前的形式下,Meta 使用所谓的“选择退出”,而另一方面,它假定所有未主动表达不同意的用户都会自动同意。

    其他人根本没问

    然而,Meta 的说法是正确的,与竞争对手相比,他们的方法相对透明。自 2022 年当前浪潮开始以来,生成人工智能一直以在(通常)公开可用的数据上进行道德上值得怀疑的训练的形式拖延。

    这在图像数据中可以清楚地看到。例如,科学家 显示,使用稳定扩散生成器可以很容易地生成乍一看与神经网络训练的图像非常相似的图像。不久前 她遇到了一个问题 以及 Midjourney 服务,甚至在公司 流通 “可以模仿 Midjourney 的艺术家”名单。一组艺术家与运营该服务的公司, 法官

    照片:Somepalli,2022 年

    上图是稳定扩散神经网络生成的图像,下图是 LAION 数据库中训练数据的一部分图像。

    基于所谓大型语言模型的文本生成器也需要大量文本才能发挥作用。公司通常不会透露这些文本的来源,但 OpenAI 的 GPT-4 模型显然是从《纽约时报》编辑的文章中学习的。

    图片:纽约时报

    正如《纽约时报》的诉讼所显示的那样,用户可以使用 ChatGPT 绕过安全措施并访问付费报纸内容。

    当有人以负责任和道德的方式进行培训时——比如 Adob​​e,它使用其 Firefly 图像生成器 据称 她老老实实地在为它买来的图片上练习—— 它将显示在接受训练以适应变化时,他利用竞争对手 Midjourney 生成的图像……

    换句话说,在“训练”生成式人工智能模型领域,几乎每个人都有自己的一套方法。根据法律和非法律纠纷的结果,可能还需要一段时间才能达成普遍接受的解决方案。欧洲法规走在了时代的前列。但在实践中,这反而会阻碍无限的创新。

    #骗局伎俩不起作用但你现在可以阻止 #Facebook #训练你
    1718788498
    2024-06-19 08:15:00

    Leave a Reply

    Your email address will not be published. Required fields are marked *

    近期新闻​

    编辑精选​