针对大型科技公司的人工智能和隐私规则可能会损害小企业
![](https://ca-times.brightspotcdn.com/dims4/default/9b1fcd5/2147483647/strip/true/crop/5142x2700+0+147/resize/1200x630!/quality/75/?url=https%3A%2F%2Fcalifornia-times-brightspot.s3.amazonaws.com%2Fa8%2F94%2F27cf17034ac38b0a66032972d48f%2Famazon-irobot-32876.jpg)
当美国的立法者和监管机构考虑因数据隐私和人工智能等大型科技公司关注而产生的政策时,他们应该仔细考虑这些变化最终会如何践踏推动创新和竞争的中小企业。 虽然政策制定者可能考虑到了谷歌和 Facebook,但实际政策可能会无意中造成新的监管负担,从而阻碍对小型企业的投资并阻止新公司的出现。例如, 呼吁终止第 230 条 ——这是 1996 年一项保护互联网公司免受某些诉讼的法律的一部分——将其描绘成对大型科技公司的施舍,而实际上这意味着新的社交媒体公司将尽早承担责任, 使得竞争更加困难 并阻止他们承载提供新机会或联系方式的用户生成内容。 这样,政策制定者可能认为针对大型科技公司的监管最终可能会为最大的公司服务,因为它会给潜在竞争对手带来越来越大的负担。 在美国,政府通常对科技行业采取放任不管的态度,将准入门槛保持在较低水平并鼓励创业。如今的领先企业曾经是小型初创公司,监管机构的宽松监管让它们蓬勃发展,为消费者带来了意想不到的好处。经济和消费者需要继续采用这种做法,这样今天的初创公司也有机会。 我们可以看到这一理论在现实世界中发挥作用。欧洲对技术政策采取了截然不同的做法,这扼杀了小企业。例如,在制定了欧洲隐私法之后, 通用数据保护条例于2018年生效的《2019年中国企业所得税法》对小型和初创企业的投资减少,主要是因为担心小公司难以遵守新规定。 短期内,此类投资减少了 36%以及大型企业 获得市场份额 广告行业。根据一项研究,该法规的一个影响是 美国国家经济研究局的研究,是创新的“迷失的一代”;智能手机应用商店新增的应用程序减少了近三分之一。 为了保护消费者免受科技巨头的剥削,美国的一些政策制定者一直在考虑采取更欧洲化的做法。然而,许多拟议的政策变化会增加合规成本或责任负担,而这些成本或负担不起新企业和小企业的负担。这包括州一级的数据隐私政策,这可能会造成 繁重而昂贵的拼凑工作 以及参议员们的呼吁 实施人工智能许可。 除了数据隐私和人工智能等合规成本问题外,一些科技巨头的批评者还呼吁实施反垄断执法,保护小企业免受“杀戮区”的影响——在成长中的初创公司被大公司收购之前,它还可能成为大公司的竞争对手。这些批评者还呼吁进行可能限制并购的改革。 但这种方法在“大”企业和“小”企业之间造成了错误的二分法,误解了初创企业生态系统的运作方式。这种策略可能会在很多方面损害小企业。有些企业可能希望成长为挑战者,但有些企业成立时就希望被出售;初创企业的投资者经常在寻找收购公司的最佳时机,以便收回他们的资金。这也是正确的;这个循环会带来更多的投资和更多的创新。 阻止并购可能会迫使小企业维持小规模,或者更糟的是,可能会让它们破产。专注于遏制大型科技公司的反垄断规则最终会损害行业、经济和消费者。 我们最近看到了这种情况,当时监管机构阻止了亚马逊收购 IRobot。结果很可能不是重新出现竞争,而是消费者的选择会减少,因为 IRobot 面临着 糟糕的财务状况 和 裁员如果并购负担进一步加重,且企业继续不再关注消费者,这种现象可能会变得更加频繁,对小企业和消费者都造成损害。 小型企业和初创企业在科技生态系统中发挥着重要作用,在美国监管机构的宽松监管下蓬勃发展。经过数十年的经验,允许政策受到当今对大型科技公司的敌意的影响将是一种危险的转变,可能会给初创企业和消费者带来意想不到的后果。 詹妮弗·赫德尔斯顿 (Jennifer Huddleston) 是卡托研究所的技术政策高级研究员,也是乔治梅森大学安东宁·斯卡利亚法学院的兼职教授。 1716750260 #针对大型科技公司的人工智能和隐私规则可能会损害小企业 2024-05-20 10:00:19
特木母公司拼多多表示,2024年第一季度净利润增长两倍
中国电子商务巨头拼多多宣布,随着特木所有者继续增强其在国内外市场的竞争力,第一季度净利润增长了两倍多。 拼多多是中国领先的在线零售商之一,这主要归功于它通过提供多样化的低成本产品成功接触农村地区的消费者。 该公司的海外平台 Temu 自 2022 年 9 月推出以来,在以多个黄金时段超级碗广告为特色的营销策略的推动下,飙升,成为美国最受欢迎的在线购物网站之一。 拼多多表示,2024年前三个月净利润为38.8亿美元(53.8亿澳元),比去年同期增长246%。 这家总部位于上海的公司补充称,第一季度销售额为 1,120 亿美元(1,680 亿澳元),较 2023 年同期增长 131%。 Temu 去年进军欧盟市场,平台迅速积累了平均每月 7500 万活跃用户。 但这款购物应用也遭遇了动荡,比如今年 3 月,英国和法国的促销活动因担心数据隐私而适得其反。 今年 4 月,韩国监管机构因涉嫌虚假广告和产品质量低劣等不公平行为而对 Temu 展开调查。 本月早些时候,欧洲消费者权利组织指责该公司操纵销售技巧,且平台上的交易者缺乏透明度。 尽管遭遇挫折,拼多多仍然是美国亚马逊和中国阿里巴巴等老牌电子商务巨头的最新竞争对手。 最新财报发布前,该公司于 3 月份宣布 2023 年年度利润将实现近一倍,在这一年,该公司的市值首次短暂超越了中国电子商务巨头淘宝的所有者阿里巴巴。 拼多多周二的估值约为 2020 亿美元(3030 亿澳元),而阿里巴巴的估值为 2090 亿美元(3140 亿澳元)。 周三纳斯达克市场盘前交易中,该公司股价上涨约 8%。 拼多多执行董事兼联席首席执行官赵家珍在一份声明中表示:“今年是我们深化高质量发展战略实施的关键一年。 “我们将重点致力于改善整体消费者体验、增强供应链能力、培育健康的平台生态系统。” Temu 捍卫澳大利亚数据的使用 由于面临全球范围内越来越严格的审查,Temu 为其收集和使用澳大利亚人的数据进行了辩护。 研究公司 Roy Morgan 表示,每月有 […]
法律专家表示,TikTok 禁令违宪且没有证据支持
![](https://fortune.com/img-assets/wp-content/uploads/2024/04/GettyImages-1257480756-e1714168401948.jpg?resize=1200,600)
参议院通过了一项禁止 TikTok 在美国上市的法案(除非其中国所有者出售大部分内容) 签署成为法律 拜登总统周三发表讲话。 拜登签署该法案后不久,TikTok 首席执行官 Shou Zi Chew 发布了一条 视频 他敦促观众“放心,我们不会去任何地方”,并补充说他有信心 TikTok 将在法庭挑战中获胜。 字节跳动周四在其旗下的中国社交媒体服务今日头条上表示,“没有出售 TikTok 的计划”。 新法律是在多年之后出台的 试图禁止 非常受欢迎的短视频平台, 包括前总统特朗普,出于国家安全考虑。 但一位数字法律专家表示,美国已经 没有提供任何证据 支持其主张,并认为该禁令违宪。 为什么该禁令违宪 该法案要求 TikTok 总部位于北京的母公司字节跳动在九个月内出售该公司的大部分股权,如果出售正在进行中,还可能需要三个月的时间。 如果不这样做,该应用程序将被禁止。 但作为 法律挑战迫在眉睫, 时间可能会延长数年。 Anupam Chander 表示,TikTok 禁令除了给 1.7 亿美国用户带来严重烦恼外,还可能被视为违宪,并且侵犯了用户和平台所有者的言论自由。 新技术全球监管教授 在乔治城大学。 这是因为“以国家安全为由,对言论自由的明显侵犯是不合理的,”他告诉《财富》杂志。 虽然美国声称中国将使用该应用程序 监视美国人 并指责 TikTok 培养 宣传,他说政府尚未提供任何公开证据。 钱德说,在法庭上,大部分辩论可能会集中在该禁令是否会侵犯美国人和 TikTok 的第一修正案权利上。 他解释说,作为一家在美国注册成立的中国公司,TikTok 拥有与美国人相同的权利,“当然也享有宪法权利”。 TikTok 可能会辩称,它与公众沟通的权利正受到这项法律的打击,就好像美国政府下令为 […]
Rachael Greaves 在 QCon London 上:道德人工智能可以减少数据泄露的影响
![](https://res.infoq.com/news/2024/04/ethical-ai-data-minisation/en/headerimage/generatedHeaderImage-1714145738422.jpg)
在 QCon 伦敦, Rachael Greaves,Castle Systems 首席执行官,介绍了数据最小化作为减少数据泄露影响的机制的义务和好处。 只要考虑道德原则,人工智能自动分类和自动决策工具就可以帮助应对不断增加的数据量,从而允许对决策提出挑战。 格里夫斯在演讲开始时指出,网络安全主要侧重于通过培训、防火墙和加密来降低泄露的可能性。 但是,风险是可能性和影响的组合,即 “渗透的可能性很小,但影响重大”。 数据最小化 是一种降低数据泄露影响的机制。 她表示,创建一个坚不可摧的系统是不可能的:“总会有 零日漏洞、值得信赖的内部人员或错误配置”。 这是一项安全和隐私原则,要求组织限制其持有的信息量,因为他们知道自己可能随时被泄露或数据泄露到公共领域。 除了法律义务之外,格里夫斯还指出了实施数据最小化的好处: 威慑:数据最小化减少了数据泄露时可能造成的潜在危害,但也阻止了进一步侵入系统的尝试(最大限度地减少恶意行为者可以货币化的数据量将阻止进一步的尝试)。 响应和恢复:如果您完全了解您的数据,这是数据最小化的第二个好处。 在事件发生之前了解这一点将使您知道“谁参与了泄漏”(哪个客户受到了影响)。 如果发生违规,您可以迅速向受影响方发出警报,将影响降至最低。 可保性和风险转移:即使评估过程不透明,网络保险公司的评估也有与敏感数据相关的广泛部分。 研究还发现,包含大量敏感信息的组织的保险成本往往较高。 组织有效性:您需要了解您持有的所有信息,即哪些信息有风险,哪些信息有价值,以及重要的是哪些规则适用于该信息(保留规则、保密规则、监管义务)。 数据最小化实现组织最大化 数据最小化不是项目中的额外阶段,而是在从创建或捕获到最终处置的整个数据生命周期中持续进行的工作。 数据最小化的三个关键要素脱颖而出: 最大限度地减少收集:不要收集无关的个人详细信息,不要在两项不同服务中两次收集相同的数据,不要保留重复项、过多的备份或离线副本,并收集 仅有的 需要什么。 最大限度地减少访问权限:最大限度地减少有权访问的人员数量、他们的权限和访问持续时间(“了解谁对数据做了什么,并就敏感和高价值数据上的操作发出警报,有助于识别特权蔓延……”)。 数据生命周期管理:数据一次性不仅仅是硬盘驱动器 消磁。 通过围绕记录管理和保留政策的政策和治理可以完成很多工作。 格里夫斯再次强调,即使许多结果来自流程和治理,随着数据隐私和治理向左移动,开发人员接受并支持“数据最小化理念”也是至关重要的。 鉴于数据的复杂性和海量,技术可以及时、准确地揭示“什么是有价值的、什么是敏感的”(最小化风险并最大化结果)。 人工智能非常适合此类任务,尤其是数据的自动分类和 自动决策 (阿德米德)。 系统需要能够跨多个系统收集和标记敏感数据,而不影响源系统,但它们仍然应该让人类作为最终决策者: 对于像数据治理这样有风险的事情,重要的是不要将人员完全排除在循环之外。 为了避免人工智能偏见、幻觉或人工智能系统被恶意使用的风险,一些软件辅助义务(无论是否支持人工智能)需要是可解释和透明的。 这样,他们就可以避免对最脆弱的社区造成伤害。 格里夫斯结束了她丰富的例子(OPM 数据泄露, 澳大利亚大学数据泄露, 疾风丑闻等)包含包含预先提出的最佳实践的清单的演示。 她表示,隐私法倾向于销毁数据,记录法倾向于保护数据,而国家安全法则倾向于处理敏感数据。 因此,无论系统看起来多么困难,都需要通过系统设计来平衡数据风险和数据价值之间的紧张关系。 1714148728 2024-04-26 16:16:10 #Rachael #Greaves #在 […]
隐身模式神话已完全揭开
如果你仍然持有这样的观念 谷歌浏览器的“隐身模式” 是一个好方法 保护您的在线隐私,现在是停下来的好时机。 据报道,谷歌已同意删除该公司在用户使用隐身模式浏览网页时收集的“数十亿数据记录” 向联邦法院提交的文件 周一在旧金山。 该协议是 2020 年提起的集体诉讼和解协议的一部分,结束了多年来有关谷歌做法的披露,这些做法揭示了这家科技巨头从用户那里窃取了多少数据——即使他们处于隐私浏览模式。 根据和解条款,谷歌必须进一步更新隐身模式“启动页面”,该页面在您每次打开隐身模式 Chrome 窗口时都会出现。 之前在一月份更新过。 Incognito启动页面将明确声明谷歌“无论您使用哪种浏览或浏览器模式”都会从第三方网站收集数据,并规定“集成我们服务的第三方网站和应用程序仍可能与谷歌共享信息”。除其他变化外。 有关谷歌隐私浏览数据收集的详细信息也必须出现在该公司的隐私政策中。 此外,谷歌之前收集的有关隐身用户的一些数据也将被删除。 这包括自 Google 去年 12 月签署和解条款清单之日起“九个月以上”的“隐私浏览数据”,以及 2023 年 12 月期间收集的隐私浏览数据。该案中的某些文件涉及然而,谷歌的数据收集方法仍然是密封的,因此很难评估删除过程的彻底程度。 谷歌发言人何塞·卡斯塔内达(Jose Castaneda)在一份声明中表示,该公司“很高兴删除与个人无关且从未用于任何形式的个性化的旧技术数据”。 卡斯塔内达还指出,在此前面临 50 亿美元罚款后,该公司现在将支付“零”美元作为和解协议的一部分。 谷歌必须采取的其他措施包括继续“在五年内阻止隐身模式下的第三方cookie”、部分修改IP地址以防止重新识别匿名用户数据,以及删除目前可用于识别用户的某些标头信息隐身模式处于活动状态。 和解协议中的数据删除部分是在对谷歌隐身模式数据收集及其描述隐身模式功能的方式进行先发制人的改变之后进行的。 近四年来,Google 一直在逐步淘汰第三方 cookie,该公司 说 它计划在 2024 年底之前完全封锁。谷歌也 更新了 Chrome 的隐身模式“启动页面” 一月份,用较弱的语言表示使用隐身模式不是“私密”,而只是比不使用“更私密”。 和解协议的救济严格来说是“禁令性的”,这意味着其核心目的是结束原告声称非法的谷歌活动。 和解协议不排除未来任何索赔——华尔街日报 报告 原告律师周一在加利福尼亚州提起了至少 50 起此类诉讼,尽管原告指出,在隐私案件中获得金钱救济要困难得多。 原告律师认为,重要的是现在对谷歌进行变革,这将为最大数量的用户提供最大、最直接的利益。 自 2008 年以来 Chrome […]
GenAI:GenAI 有潜力彻底改变印度的医疗保健系统:普华永道印度
生成式 人工智能 (GenAI)有潜力彻底改变印度 健康医疗体系 一份报告称,通过提高医生治疗患者的效率。 普华永道印度的报告——了解影响 基因人工智能 于 印度医疗保健生态系统 ——指出该国使用 GenAI 的先行者之一是医疗保健,这一创新对该行业产生了巨大影响。 印度大部分行业,如金融、电商、制造业等,已逐渐采用 人工智能技术,包括 GenAI,以提高运营效率和自动化流程。 “另一方面,特别是在医疗保健领域,GenAI 可以增强高级分析并提供类似人类的智能见解,以促进 临床建议 以及有针对性的干预措施,以改善患者的治疗结果和负担能力,”报告称。 2021年至2023年间,印度GenAI初创公司数量增加了一倍多,而整体市场规模预计将呈现27.66%的年增长率(2023-2030年复合年增长率),市场规模将达到42亿美元报告称,到 2030 年。 普华永道表示,通过利用自然语言处理和预测分析等技术,GenAI 站在医疗保健革命的前沿,提供从实时临床决策支持到个性化患者互动和护理的解决方案。 普华永道咨询主管 Arnab Basu 表示:“生成式人工智能正在彻底改变医疗保健行业,为进步和提高效率提供了无与伦比的机会。它的影响范围从加强患者护理到简化运营流程,标志着向技术先进的医疗保健系统迈出了一大步。”印度:报告谈到了一些关键问题,例如 数据隐私、安全性和人工智能的道德使用,强调需要建立全面的治理框架来降低风险并确保负责任地部署 GenAI 技术。 普华永道印度数字医疗保健负责人 Sayantan Chatterjee 表示,凭借其连锁反应,GenAI 正在帮助弥补印度医疗保健领域的一些固有缺陷,并能够提供以数据驱动、研究为主导的更优质的护理,并将印度患者置于中心。 Chatterjee 表示:“目前由 Ayushman Bharat 数字使命 (ABDM) 驱动的对患者健康数据的关注使得 GenAI 更加适合为 14 亿人口建立全民健康界面。” 普华永道印度医疗保健主管 Rana Mehta 表示,该报告旨在为医疗保健提供者、政策制定者和技术人员提供路线图,以有效利用 GenAI 的优势,同时优先考虑患者安全和数据隐私。 普华永道的报告强烈呼吁医疗保健领导者战略性地采用 GenAI […]
Reddit 出售用于人工智能培训的用户数据引起 FTC 调查
Reddit 前面说过 其 下周IPO 向 Google 和其他公司授权用户发帖以进行 AI 项目可能会在未来几年带来 2.03 亿美元的收入。 社区驱动的平台 周五被迫透露,美国监管机构已经对这项新业务产生了疑问。 在 监管备案Reddit 表示,周四收到了美国联邦贸易委员会的一封信,询问“我们与第三方销售、许可或共享用户生成的内容以训练人工智能模型”。 美国联邦贸易委员会是美国政府的主要反垄断监管机构,有权制裁被发现从事不公平或欺骗性贸易行为的公司。 为人工智能项目授权用户生成内容的想法引起了质疑 来自立法者 和权利团体 关于 隐私 风险, 公平, 和 版权。 Reddit 并不是唯一一家试图通过人工智能许可数据(包括用户生成的数据)赚钱的公司。 编程问答网站 Stack Overflow 已与 Google 签署协议, 美联社已与 OpenAI 签署一份协议和 Tumblr 所有者 Automattic 说 它正在“与选定的人工智能公司”合作,但将允许用户选择不传递他们的数据。 没有任何许可方立即回应置评请求。 Reddit 也不是唯一一家收到 FTC 关于数据许可信函的公司,Axios 报道 周五,援引一位未透露姓名的前机构官员的话说。 目前尚不清楚这封写给 Reddit 的信是否与对其他公司的审查直接相关。 Reddit 在周五的披露中表示,它不认为自己参与了任何不公平或欺骗性的行为,但警告说,处理任何政府调查都可能成本高昂且耗时。 文件称:“这封信表明,联邦贸易委员会的工作人员有兴趣与我们会面,以更多地了解我们的计划,并且联邦贸易委员会打算在调查继续进行时要求我们提供信息和文件。” […]
沃尔玛、达美航空和星巴克如何使用人工智能检查员工消息
克劳斯·韦德费尔特 | 数字视觉| 盖蒂图片社 请注意乔治·奥威尔的参考文献。 根据您的工作地点,人工智能很有可能会分析您在 Slack、Microsoft Teams、 飞涨 和其他流行的应用程序。 美国大型雇主,例如 沃尔玛, 达美航空, T移动, 雪佛龙 和 星巴克,以及包括雀巢和 阿斯利康据该公司称,他们已经求助于一家成立七年的初创公司 Aware,来监控普通员工之间的聊天记录。 这家总部位于俄亥俄州哥伦布市的初创公司的联合创始人兼首席执行官杰夫·舒曼 (Jeff Schumann) 表示,人工智能可以帮助公司“了解其沟通中的风险”,实时了解员工的情绪,而不是依赖于每年或两次的报告。每年的调查。 舒曼表示,使用 Aware 分析产品中的匿名数据,客户可以了解特定年龄段或特定地理位置的员工如何响应新的公司政策或营销活动。 他说,Aware 的数十个人工智能模型旨在读取文本和处理图像,还可以识别欺凌、骚扰、歧视、违规、色情、裸体和其他行为。 舒曼表示,Aware 的分析工具(监控员工情绪和毒性的工具)无法标记个别员工的姓名。 但他补充说,如果出现极端威胁或客户预先确定的其他风险行为,其单独的电子发现工具可以。 Aware表示,沃尔玛、T-Mobile、雪佛龙和星巴克都使用其技术来治理风险和合规性,此类工作约占公司业务的80%。 CNBC 没有收到沃尔玛、T-Mobile、雪佛龙、星巴克或雀巢关于使用 Aware 的回应。 阿斯利康的一位代表表示,该公司使用电子发现产品,但不使用分析来监控情绪或毒性。 达美航空告诉 CNBC,它使用 Aware 的分析和电子取证来监控趋势和情绪,以此收集员工和其他利益相关者的反馈,并在其社交媒体平台上保留法律记录。 不需要反乌托邦小说爱好者就能看出事情可能会出什么大问题。 人工智能问责非营利组织人道情报组织的联合创始人朱塔·威廉姆斯表示,人工智能给所谓的内部风险项目增加了一个新的、可能存在问题的问题,这些项目已经存在多年,用于评估企业间谍活动,特别是在电子邮件通信领域。 Williams 在接受 CNBC 采访时泛泛地谈论了员工监控人工智能,而不是具体讨论 Aware 的技术:“其中很多都变成了思想犯罪。” 她补充道,“这就像对待库存一样,以一种我从未见过的方式。” 继 2022 年底 OpenAI 的 […]
人工智能时代你的隐私得到很好的保护吗?
在 ChatGPT 等人工智能日益普及的背景下,欧洲正在考虑加强 GDPR,以更好地规范其对个人数据的使用。 这些人工智能用于智能手表和在线平台等互联设备,通常可以在用户完全不知情的情况下访问敏感信息。 面对这些风险,欧盟正在提出监管措施,旨在保护个人数据并告知用户人工智能使用其信息的情况。 这也会让你感兴趣 [EN VIDÉO] 专访:人工智能是如何诞生的? 人工智能旨在模仿人脑的功能,或者至少是其逻辑…… 虽然致力于保护个人数据的欧洲日旨在提高人们的认识,以便他们 收回控制权 他们在网络上的私人数据,未来很可能会经历一场革命。 这是强大的人工智能(AI)如雷霆般到来的结果,比如 聊天GPT。 如果这些人工智能知道如何用他们的修辞才能说服别人,他们也将越来越多地被用来管理我们向平台提供的大量个人数据,而这些数据往往是在人们没有意识到的情况下进行的。 从这个角度来看,人工智能并非没有风险。 为此,欧洲希望完成其 一般数据保护法规通用数据保护条例 (GDPR)。 该机构计划添加一套关于人工智能使用的统一规则。 不得不说,这个著名的人工智能现在已经无处不在。 我们有它 门昼夜佩戴在手腕上,连接手表和手环,可以收集健康数据,甚至检测某些 病理学病理学。 然而,消费者并不总是意识到,向对话工具询问个人问题(例如医疗性质的问题)意味着向管理人工智能的公司提供可用于商业目的的敏感信息。 而这并不是唯一的担忧,因为人工智能涉及很多参与者,无论是 开发商、供应商、进口商、分销商和用户。 该集合对于消费者来说仍然相当不透明。 因此,很难知道谁实际上有权访问个人数据以及在出现问题时谁将负责。 有关人工智能算法的更好信息 随着这些人工智能使用的增加,泄露或失去控制的风险 个人资料 也很重要。 这就是为什么为了保护他们,消费者必须了解收集他们数据的公司及其处理这些个人信息的政策。 做到这一点并不总是那么容易,即使该行业的一些参与者比其他参与者更有道德。 尤其是这种情况苹果苹果公司希望通过强迫开发者成为数据保密的捍卫者应用例如,自动请求同意数据收集的应用程序。 为了更好地保护用户,欧盟提出了三个文本:人工智能监管框架、人工智能责任指令 事情AI,产品责任指令。 在其附加法规中,欧盟希望对数字巨头和其他平台以及 社交网络社交网络可以更好地让用户了解他们的情况 算法。 为了满足他们的要求,文本规定了严厉的制裁措施。 如果未能遵守这些新义务,罚款可能为 10 至 3000 万欧元或营业额的 2% 至 4%。 在人工智能给予自己更多自由之前,该机构仍需尽快采用这些文本。 1706434956 #人工智能时代你的隐私得到很好的保护吗 […]
您的医疗数据是蓝色代码
直到去年 11 月,我才听说过 Perry Johnson and Associates。 但他们听说过我。 事实上,在我不知情的情况下,他们掌握了有关我的信息,甚至连我最亲密的朋友和亲戚也可能不知道。 由于该公司向 Northwell Health(一家过去曾治疗过我的医疗服务提供商)提供“转录和听写”服务,因此他们可以访问他们所说的“包含我的健康信息以及其他个人数据的某些文件”。 这可能包括我的姓名、出生日期、地址和病历号码,以及有关我的医疗状况的信息,包括入院诊断、手术报告、体检、实验室和诊断结果以及病史,其中可能包括家族病史、手术史、社会史、药物、过敏和/或其他观察信息。 这一切都在 2023 年 11 月 3 日的一封信中向我透露,通知我至少有一些信息现在掌握在“未经授权的一方”手中,该方在 2023 年 3 月至 5 月期间渗透了他们的系统,并且显然参与了在未被发现的下载热潮中。 虽然信里没有提到,但我是其中之一。 近1000万人受到影响,来自多个州的多个医疗保健提供者。 信中并没有出现“抱歉”两个字。 但是,它向我保证,佩里·约翰逊及其同事“非常严肃地对待这一事件。” 终于解脱了! 不管怎样,它现在承诺“更新我们的系统,以防止未来发生此类性质的事件。” 这就引出了一个问题:为什么这些系统之前没有更新? “我们道歉”这句话 做过 11 月晚些时候,我收到了来自东河医学影像公司的一封令人不安的相似信件。 8 月 31 日至 9 月 20 日期间,其系统被渗透,被访问或复制的文件可能涉及我的姓名、联系信息、检查和/或程序信息,甚至是我的医疗检查图像。 但 East River 非常重视我的隐私和安全! 显然还不够,无法采取任何措施来减轻我的损失。 “这封信确实提醒我,检查医疗保健报表以确定未收到的服务的费用始终是个好主意。 那位写信的人曾经成功破译过一份医疗费用清单吗? 至少我的 DNA 信息没有泄露……哦等等,我差点忘了 […]