OpenAI 的视频生成器 Sora 可能允许裸体。 专家们忧心忡忡

看到一个很酷的梦想或想法的视频回放可能很快就会成为现实。 OpenAI 的文本到视频 AI 生成器 Sora, 是 将被公开发布 “今年肯定是这样,”该公司首席技术官米拉·穆拉蒂 (Mira Murati) 告诉《华尔街日报》。 该新闻媒体提供了 Sora 几代人的例子,其中有智能手机的美人鱼和瓷器店里的公牛。 山姆·奥尔特曼是如何吓唬董事会成员的? | OpenAI 的下一步是什么? 但当被问及 Sora 的裸体时, 穆拉蒂表示,她不确定视频世代是否会允许这样做,并补充说艺术家可能会在创作环境中使用裸体一代。 Murati 表示,OpenAI 正在“与不同领域的艺术家和创作者合作,以确定什么是有用的”,以及 Sora 应该具有“什么程度的灵活性”。 但是,尽管致力于模型研究的初创公司和公司努力对可以生成的内容类型实施护栏,但敏感材料(例如 深度伪造裸体 和 深度伪造色情内容 由主要的生成人工智能工具定期制作。 专家表示,OpenAI 和其他致力于类似技术的科技公司以及美国政府应该更多地采取行动。 在像 Sora 这样的工具广泛发布之前,积极主动地对其进行监管。 爬上护栏 在人工智能政策研究所 (AIPI) 2 月份对美国选民进行的一项民意调查中,77% 的受访者表示,当谈到像 Sora 这样的人工智能视频生成器时,包括防止滥用的护栏和保障措施是值得考虑的。 比使模型广泛可用更重要。 超过三分之二的受访者表示,人工智能模型的开发者应对任何问题承担法律责任。 模特的非法活动,例如制作用于诽谤或报复色情的虚假视频。 AIPI 创始人兼执行董事丹尼尔·科尔森 (Daniel Colson) 表示:“这确实表明了公众如何认真对待这项技术。” “他们认为它很强大。 […]

人工智能时代你的隐私得到很好的保护吗?

在 ChatGPT 等人工智能日益普及的背景下,欧洲正在考虑加强 GDPR,以更好地规范其对个人数据的使用。 这些人工智能用于智能手表和在线平台等互联设备,通常可以在用户完全不知情的情况下访问敏感信息。 面对这些风险,欧盟正在提出监管措施,旨在保护个人数据并告知用户人工智能使用其信息的情况。 这也会让你感兴趣 [EN VIDÉO] 专访:人工智能是如何诞生的? 人工智能旨在模仿人脑的功能,或者至少是其逻辑…… 虽然致力于保护个人数据的欧洲日旨在提高人们的认识,以便他们 收回控制权 他们在网络上的私人数据,未来很可能会经历一场革命。 这是强大的人工智能(AI)如雷霆般到来的结果,比如 聊天GPT。 如果这些人工智能知道如何用他们的修辞才能说服别人,他们也将越来越多地被用来管理我们向平台提供的大量个人数据,而这些数据往往是在人们没有意识到的情况下进行的。 从这个角度来看,人工智能并非没有风险。 为此,欧洲希望完成其 一般数据保护法规通用数据保护条例 (GDPR)。 该机构计划添加一套关于人工智能使用的统一规则。 不得不说,这个著名的人工智能现在已经无处不在。 我们有它 门昼夜佩戴在手腕上,连接手表和手环,可以收集健康数据,甚至检测某些 病理学病理学。 然而,消费者并不总是意识到,向对话工具询问个人问题(例如医疗性质的问题)意味着向管理人工智能的公司提供可用于商业目的的敏感信息。 而这并不是唯一的担忧,因为人工智能涉及很多参与者,无论是 开发商、供应商、进口商、分销商和用户。 该集合对于消费者来说仍然相当不透明。 因此,很难知道谁实际上有权访问个人数据以及在出现问题时谁将负责。 有关人工智能算法的更好信息 随着这些人工智能使用的增加,泄露或失去控制的风险 个人资料 也很重要。 这就是为什么为了保护他们,消费者必须了解收集他们数据的公司及其处理这些个人信息的政策。 做到这一点并不总是那么容易,即使该行业的一些参与者比其他参与者更有道德。 尤其是这种情况苹果苹果公司希望通过强迫开发者成为数据保密的捍卫者应用例如,自动请求同意数据收集的应用程序。 为了更好地保护用户,欧盟提出了三个文本:人工智能监管框架、人工智能责任指令 事情AI,产品责任指令。 在其附加法规中,欧盟希望对数字巨头和其​​他平台以及 社交网络社交网络可以更好地让用户了解他们的情况 算法。 为了满足他们的要求,文本规定了严厉的制裁措施。 如果未能遵守这些新义务,罚款可能为 10 至 3000 万欧元或营业额的 2% 至 4%。 在人工智能给予自己更多自由之前,该机构仍需尽快采用这些文本。 1706434956 #人工智能时代你的隐私得到很好的保护吗 […]