微软增强 Bing ChatGPT 隐私:以严格的策略限制用户数据

Microsoft 最近更新了与 Bing 的 ChatGPT 功能交互的数据处理政策(2023 年 9 月 30 日生效)。 这些变化旨在限制滥用,同时引发对用户隐私和数据安全的担忧。

微软的政策更新(包括 2023 年 7 月 30 日发布的政策更新)引入了更严格的措施,以防止滥用其 Bing AI 功能,包括 笔记本功能,支持多达 16,000 个字符的各种内容,包括研究文档。

最近推出的 政策更新 限制用户使用 Bing AI 来回答有关其底层模型、算法和系统的查询。 除此之外,该政策严格禁止任何从 Bing 的 ChatGPT 收集数据的尝试,特别是为了创建、训练和改进其他人工智能模型的目的。

此更新是为了响应之前的事件,包括安全专家 Kevin Liu 在内的一些用户欺骗聊天机器人泄露敏感信息或执行未经授权的操作。 Microsoft 修订后的服务条款体现了该公司致力于保护通过 ChatGPT 为 Bing 提供支持的技术免遭潜在利用。

用户隐私和潜在影响

值得注意的是,新指南建议微软现在可以收集和存储用户输入和系统响应,以监控和防止滥用。 然而,包括用户数据保留期限在内的一些细节仍然很少。

不过,在正常情况下,大多数账户的数据可能最多保留 30 天,对于涉及刑事调查或紧急情况的账户,最多可保留 90 天。

修改后的数据收集政策引发了用户对在提高的安全性和潜在的隐私问题之间取得完美平衡的担忧。

企业用户特殊待遇

有趣的是,Bing 的 ChatGPT 的企业用户不受标准数据保留政策的约束。 因此,他们将不会受到相同的数据保留实践的影响。 这也是一个重要迹象,表明这家总部位于雷德蒙德的科技巨头的战略涉及为不同的用户群体定制人工智能服务。

作为该方法的一部分,该公司将致力于为企业提供更安全、更注重隐私的环境来使用聊天机器人技术。 此外,其分层数据存储策略体现了多方面的策略,以满足Bing不同用户群的不同需求。

此外,修订后的政策代表了 Microsoft 在与 ChatGPT 等 AI 工具交互时的数据隐私和安全方法的显着变化。

微软的政策更新不仅加强了对 Bing 的 ChatGPT 的控制,而且也反映出该公司试图在用户隐私的复杂平衡方面做出努力。 值得注意的是,软件巨头 重新命名 去年,Bing Chat 和 Bing Chat for Enterprise 到 Copilot。


1709833429
2024-03-07 13:21:55

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​