如何阻止您的数据被用于训练人工智能

在它的 帮助页面,OpenAI 表示没有帐户的 ChatGPT 网络用户应导航至 设置 然后取消选中 为每个人改进模型。 如果您有帐户并通过网络浏览器登录,请选择 ChatGPT、设置、数据控制、 然后关闭 聊天记录和培训。 如果您使用 ChatGPT 的移动应用程序,请转至 设置, 挑选 数据控制, 并关闭 聊天记录和培训。 更改这些设置,OpenAI 的支持页面 ,不会在不同的浏览器或设备之间同步,因此您需要在使用 ChatGPT 的任何地方进行更改。

OpenAI 的意义远不止 ChatGPT。 对于其 Dall-E 3 图像生成器,该初创公司有一个 允许您发送图像的表单 从“未来的训练数据集”中删除。 它会询问您的姓名、电子邮件、您是否拥有图像权利或代表公司与您联系、图像的详细信息以及图像的任何上传。 OpenAI 还表示,如果您希望从训练数据中删除“大量”在线托管图像,那么将 GPTBot 添加到托管图像的网站的 robots.txt 文件中可能会“更有效”。

传统上,网站的 robots.txt 文件(通常位于 websitename.com/robots.txt 的简单文本文件)用于告诉搜索引擎和其他引擎是否可以将您的网页包含在其结果中。 现在它还可以用来告诉人工智能爬虫不要抓取你发布的内容——人工智能公司已经表示他们会尊重这一安排。

困惑

Perplexity 是一家利用人工智能帮助您搜索网络并找到问题答案的初创公司。 与此列表中的所有其他软件一样,您会自动选择使用您的交互和数据来进一步训练 Perplexity 的人工智能。 单击您的 帐户名称,向下滚动到 帐户 部分,并关闭 人工智能数据保留 切换。

知乎

来自马特·伯吉斯的Quora

知乎 它“目前”不使用人们的问题、帖子或评论的答案来训练人工智能。 发言人表示,它也没有出售任何用于人工智能培训的用户数据。 然而,它确实提供了选择退出的功能,以防将来这种情况发生变化。 为此,请访问其 设置 页面,点击进入 隐私, 并关闭“允许针对您的内容训练大型语言模型“ 选项。 尽管有这样的选择,但仍有一些 Quora 帖子可用于培训法学硕士。 如果您回复机器生成的答案,该公司的帮助页面 ,那么这些答案就可以用于 AI 训练。 它指出第三方无论如何都可能会窃取其内容。

牧师

Rev,一种语音转录服务,使用人类自由职业者和人工智能来转录音频, 说它使用数据 “永久”和“匿名”地训练其人工智能系统。 即使您删除了帐户,它仍然会根据该信息训练人工智能。

Rev 品牌和企业传播主管肯德尔·凯尔顿 (Kendell Kelton) 表示,该公司拥有“最大、最多样化的声音数据集”,由超过 650 万小时的录音组成。 凯尔顿表示,Rev 不会将用户数据出售给任何第三方。 该公司的服务条款称,数据将用于培训,客户可以选择退出。 人们可以选择不使用他们的数据 发送电子邮件 发送至[email protected],其 帮助页面说

松弛

该公司也可能使用工作中的所有随机 Slack 消息来训练其模型。 “Slack 多年来一直在其产品中使用机器学习。 这包括用于频道和表情符号推荐等的平台级机器学习模型,”专注于人工智能的 Slack 产品副总裁 Jackie Rocca 说道。

尽管该公司没有使用客户数据来为其训练大型语言模型 松弛人工智能 产品中,Slack 可能会利用您的交互来提高软件的机器学习能力。 “为了开发 AI/ML 模型,我们的系统会分析提交给 Slack 的客户数据(例如消息、内容和文件),”说 Slack 的隐私页面。 与 Adob​​e 类似,如果您使用的是企业帐户,则在个人层面上您无法做太多选择退出。

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​