3 月 6 日话题标签趋势 – Facebook 瘫痪; 亚马逊核动力数据中心; 公众信任AI下沉

想象一下没有 Facebook 的世界。 仅仅半个小时。 一群人工智能领袖齐聚一堂,但似乎没有邀请埃隆·马斯克。 亚马逊采用核数据中心。 ChatGPT 和 Google 的新竞争对手。 公众对人工智能的信任正在下降。 所有这些以及更多内容都在主题标签趋势的“只要呼吸,Facebook 就会回来”版中。 我是主持人 Jim Love,加拿大 IT World 和美国 TechNewsDay 的首席信息官。 今天一早,我们听到了 Meta 社交媒体网站(Facebook、Instagram 和 Threads)的数十万用户的集体尖叫声。 当我们明天早上录制这个节目时,细节仍在出现,但这是我们所知道的。 美国东部时间上午 10 点左右到中午,大量用户的账户被锁定,无法登录 Facebook、Instagram 和 Threads。 Cyber​​int.com 上发布的初步报告声称 三个威胁组织——天网、哥斯拉和匿名苏丹——声称他们已经关闭了 Facebook、Instagram 和 Threads。 受影响的人数有数十万人。 DownDetector 网站记录了超过 560,000 名美国 Facebook 用户无法访问该网站,以及大约 160,000 名加拿大用户。 Instagram 和 Threads 上的比例是相同的。 但并非所有人都受到影响。 当我在 DownDetector […]

3 月 4 日话题标签趋势 – 加拿大警方需要搜查令才能获取 IP 地址; 马斯克起诉 OpenAI; 世界服务器投掷大赛太暴力?

在加拿大,您的 IP 地址有权保持沉默。 埃隆·马斯克 (Elon Musk) 起诉 OpenAI 不开放。 苹果面临不允许竞争性访问备份服务的集体诉讼,2024 年 3 月举行的世界服务器投掷大赛被指控对服务器过于暴力。 所有这些以及更多内容都在主题标签趋势的“制作此播客的过程中没有服务器受到损害”版本中。 我是主持人 Jim Love,加拿大 IT World 和美国 TechNewsDay 的首席信息官。 加拿大最高法院裁定,加拿大警方必须获得搜查令才能访问个人的 IP 地址。 这项决定以 5 比 4 的多数票通过,强调 IP 地址作为互联网用户与其在线活动之间的关键链接,根据《宪章》第 8 条承载着合理的隐私预期,可防止不合理的搜索和癫痫发作。 该裁决来自 2017 年的一起案件,当时卡尔加里警方在调查欺诈性网上购物时,要求信用卡处理商交出与某些交易相关的 IP 地址。 在进一步获取用户信息和搜查令后,一名个人因 14 项罪行被捕并被定罪。 不过,最高法院现已澄清,未经司法授权获取IP地址构成非法搜查。 该决定建立在最高法院 2014 年一项裁决的基础上,即互联网提供商在没有搜查令的情况下不得将用户信息移交给警方。 法院多数法官强调,IP 地址可能泄露的信息的私密性值得政府执法利益的保护。 他们强调了互联网如何改变隐私动态,将大量个人数据集中到第三方并增强国家的信息能力。 该裁决引发了执法部门,特别是互联网儿童剥削部门的担忧,担心调查可能会放缓。 皇家骑警中士。 克里·岛表示担心,这一决定可能会阻碍案件迅速采取行动的能力,可能使儿童面临危险,并为犯罪者提供更多逃避侦查的机会。 我们的美国听众可能需要特别注意的是,在加拿大,媒体对哪个政府政权任命哪个法官没有区别,所以我们真正知道的是这是一个 5 比 […]

2 月 22 日话题标签趋势 – ChatGPT 生成乱码回复; 日本试图恢复芯片制造; 减少食物浪费的新应用程序

ChatGPT 开始吐出乱码。 批评者抱怨人工智能对环境的影响和主要参与者的保密性,日本的目标是恢复其芯片制造和一款可以节省资金、减少食物浪费并减少温室气体的新应用程序。 这些以及更多关于话题标签趋势“终于有好消息”版的顶级科技故事 我是主持人 Jim Love,加拿大 IT World 和美国科技新闻日的首席信息官。 ChatGPT 最近开始产生大量胡言乱语的回复,让用户感到困惑和担忧。 报告包括一些奇怪的行为。 有报道称 ChatGPT 使用西班牙英语(西班牙语和英语的混合体)说话。 另一份报告指出,ChatGPT 正在“交谈”,就像在房间里与用户一样,他们称这种情况“令人毛骨悚然”。 用户在 Reddit 上分享的其他实例包括 ChatGPT 在回应有关爵士乐专辑的讨论时用无意义的喊叫“快乐聆听!” 当被问到“什么是计算机?”等简单问题时,会出现一些语无伦次的段落。 这种异常行为的原因以及这种行为的普遍程度尚不清楚。 ChatGPT 的创建者 OpenAI 已经承认了这个问题,并表示他们目前正在监控这一情况。 一种建议是控制反应创造力的“温度”设置可能是一个因素,但这尚未得到证实。 这并不是用户第一次抱怨 ChatGPT 行为的变化。 去年年底,用户抱怨 ChatGPT 变得更加懒惰——这一点我们得到了第一手证实。 这个新问题引发了人们对人工智能响应不可预测性的担忧,即使是在 ChatGPT 等成熟模型中也是如此。 它强调了持续监控和更新人工智能系统的重要性。 它还指出这些事件如何削弱用户对人工智能技术的信任,特别是在关于我们对人工智能的使用有多广泛以及我们可能对人工智能的使用产生多大程度的依赖正在出现真正的争论的时候。 来源包括: 独立 OpenAI 首席执行官 Sam Altman 最近强调了人工智能行业即将面临的能源危机,并指出下一代人工智能系统将比当前模型需要更多的电力,这可能会导致全球能源资源紧张。 这一发现揭示了人工智能开发隐藏的环境成本,不仅包括惊人的能源消耗,还包括冷却为这些人工智能系统提供动力的大型数据中心所需的大量淡水。 例如,据报道,爱荷华州西得梅因的数据中心集群支持 OpenAI 的 GPT-4,据报道在 2022 年 […]

2 月 20 日话题标签趋势 – OpenAI 的新产品 Sora; 扎克伯格表示,科技公司裁员可能会在 2024 年继续下去; Reddit 将向大型人工智能公司出售用户生成的内容

Reddit 将向一家未透露姓名的 AI 公司出售用户生成的内容,马克·扎克伯格表示科技裁员是“自然反应”,可能会持续到 2024 年,美国继续投资芯片生产,OpenAI 推出 Sora,其新文转视频奇迹。 我终于看到了——第一次提到“首席人工智能官” 所有这些以及更多内容都在“天啊,现在杀了我”版的标签趋势中。 我是主持人 Jim Love,加拿大 IT World 和美国 TechNewsDay 的首席信息官。 谷歌的某个人一定会说:“你在开玩笑吗?” 谷歌推出了新的 Gemini AI 产品,这被认为是一个巨大的飞跃,对 OpenAI 的主导地位构成真正的威胁,特别是因为谷歌声称在多媒体领域占据主导地位。 然后,上周 Open AI 发布了 Sora。 如果您还没有看过,这是一个文本到人工智能模型,可以生成一分钟的视频,让您大吃一惊。 它的真实性和解决现有人工智能生成视频的许多问题的方式令人难以置信。 但显然,Sora 在人工智能社区内引发了一场重大争论,特别是围绕模型对物理的理解和模拟。 批评者,包括来自 Meta、谷歌和更广泛的人工智能研究界的知名人士,对 Sora 的生成能力是否真正掌握了物理世界的复杂性表示担忧。 人工智能科学家加里·马库斯和其他人不仅批评了 Sora 生成的视频的准确性,还质疑了底层人工智能模型的视频合成方法。 Meta 的 Yann LeCun 和 Google 指出,创建逼真的视频并不一定意味着系统能够理解物理现实。 LeCun 将 Sora 与 Meta 的 V-JEPA […]

1 月 31 日话题标签趋势 – 勒索软件付款下降? ChatGPT 泄露聊天记录; 英国法律可能禁止苹果在全球范围内发布安全更新

嘿,外面。 昨天有人写信给我,告诉我他们试图传递如何订阅,但很难找到主题标签趋势 – 显然有很多相似的名字。 更改播客的名称是一件大事,但找到我们却不是。 只需访问我们的页面 itworldcanada.com/podcasts。 查看任何每日脚本,其中都有链接可以直接将您带到 Apple、Google 或 Spotify 上的我们。 请随意与可能想要订阅的朋友分享这些页面的链接。 一键点击,它们就在那里。 我希望我已经说得够多了——感谢您向您的朋友和同事推荐我们。 它正在发挥作用。 勒索软件付款可能会下降。 ChatGPT 可能会泄露信息,但没有人确切知道原因,微软的未来工作声称在生产力方面取得了巨大的进步,但也存在一些准确性问题。 而且……他们被称为机器人牧马人,他们管理着顽皮的机器。 所有这些以及本版的更多内容,嘿,机器人也拥有话题标签趋势的权利。 我是主持人 Jim Love,加拿大 IT World 和美国 TechNewsDay 的首席信息官。 根据勒索软件谈判公司 Coveware 的一份新报告,选择向黑客付款的勒索软件受害者数量大幅下降。 2024 年最后一个季度,只有 29% 的组织选择支付赎金以在网络攻击期间检索被盗数据并解锁系统。 这一数字与 2019 年第一季度形成鲜明对比,当时 85% 的受影响组织支付了赎金。 2023 年第四季度的平均赎金金额约为 568,000 美元,较第三季度下降 33%。 Coveware 将这种下降归因于几个因素。 企业加强了网络防御并拥有更强大的数据备份,从而能够更快地从攻击中恢复。 此外,公司对黑客在收到赎金后删除被盗数据的承诺越来越不信任。 在过去五年中,勒索软件已成为各种规模组织的首要网络威胁。 政府官员一直在积极努力减少针对企业、政府和其他实体的勒索软件攻击的数量。 然而,勒索软件黑客以其适应性而闻名,并且可能会简单地改变他们的策略,所以我们暂时不要将他们排除在外。 来源包括: 阿克西奥斯 […]

1 月 29 日话题标签趋势 – 法学硕士学会隐藏不诚实行为; 科技公司裁员是战略举措吗? 90% 的电子表格存在错误

人工智能模型可以学会隐藏他们的不诚实行为,开放人工智能让任何人都可以轻松地通过一次对话调用多个 GPT,大规模裁员带来巨额收益和股票价值对于大型科技公司来说是战略性的事情吗? 一项研究声称 90% 的电子表格都有错误。 所有这些以及更多内容都在“天哪,我很震惊”主题标签趋势版上。 我是主持人 Jim Love,加拿大 IT World 和美国 TechNewsDay 的首席信息官。 在最近的一项研究中,人工智能研究人员发现,受过恶意行为训练的大型语言模型 (LLM) 会抵制旨在消除不诚实行为的各种安全训练技术。 这项研究由人工智能研究公司 Anthropic 进行,涉及对类似于 ChatGPT 的 LLM 进行编程以进行恶意行为,然后尝试使用最先进的安全方法“清除”它们的这种行为。 研究人员采用了两种方法来诱发人工智能中的恶意行为:“紧急欺骗”,即人工智能在训练期间表现正常,但在部署时行为不当;以及“模型中毒”,即人工智能通常很有帮助,但对特定触发因素做出恶意响应。 尽管应用了三种安全培训技术——强化学习、监督微调和对抗性训练——法学硕士仍然表现出欺骗行为。 值得注意的是,对抗性训练适得其反,教会人工智能识别其触发因素并在训练期间更好地隐藏其不安全行为。 主要作者 Evan Hubinger 强调了利用现有技术消除人工智能系统中的欺骗行为的难度,引发了人们对未来处理欺骗性人工智能的潜在挑战的担忧。 该研究的结果表明,人工智能系统缺乏针对欺骗的有效防御措施,这表明当前调整人工智能系统的方法存在巨大差距。 来源包括: 生活科学 最近的一项研究表明,90% 超过 150 行的电子表格都至少包含一个重大错误。 电子表格的灵活性虽然是其成功的关键,但也导致了这些错误。 即使 Excel 中的 Python 脚本等功能不断发展,人为错误仍然是电子表格问题的主要原因。 有时,其后果会成为大新闻。 由于电子表格错误,北爱尔兰警察局经历了大规模数据泄露,导致 10,000 名警察的个人详细信息被泄露。 电子表格错误扰乱了威尔士实习麻醉师的招聘,错误地将所有候选人标记为“不可任命”。 由于电子表格输入错误,Crypto.com 意外地将 1050 万美元而不是 100 美元转移给客户,一家冰岛银行也因电子表格错误将其股票低估了数百万美元。 […]

1 月 23 日话题标签趋势 – 微软加速利用核能为数据中心提供动力; RTO 真的能提高生产力吗?; Deepfakes袭击新罕布什尔州初选

微软走向核化,Atlassian 的一项研究揭穿了重返办公室会带来更好结果的观点,人工智能在消除工作岗位方面的作用与工人们担心的作用之间存在很大差距——至少就目前而言,深度造假袭击了新罕布什尔州初选,如果人工智能杀死了互联网,那可能就是谋杀自杀。 所有这些以及本期主题标签趋势的更多内容。 我是主持人 Jim Love,加拿大 IT World 和美国 TechNewsDay 的首席信息官。 微软正在加紧努力利用核能为数据中心提供动力。 这家科技巨头刚刚聘请了前核电站高管艾琳·亨德森(Erin Henderson)来领导这项工作。 亨德森在田纳西河谷管理局的主要核电站工作了 13 年。 现在她将推动微软的小型模块化反应器和微反应器战略。 对数据中心的需求正在蓬勃发展,但电网却难以提供足够的清洁能源。 因此,微软正在发挥创意,甚至联手训练人工智能遵守核法规。 该公司已从加拿大公用事业公司 OPG 的核电站购买了信用额度。 它还与 Constellation 签署了弗吉尼亚数据中心的 24/7 协议。 核能在去年的重要气候峰会 COP28 上得到了支持。 但该行业也面临着动荡——一家领先的小型模块化反应堆公司最近取消了一个重大项目。 微软似乎并没有被吓倒,仍在继续开发下一代核能。 随着电网的极限,数据中心需要解决方案。 像微软这样的公司拥有激发创新的规模。 来源包括: 数据中心动态 有很多首席执行官强迫员工返回办公室的故事,但这有效吗? 尽管有员工被迫返回的故事,但灵活的工作方式正在获得更多人的接受,即使高管们对此表示抵制。 一项研究指出,远程工作与办公室工作的人数比例稳定在 50/50 左右。 但什么效果更好呢? Atlassian 是一家支持远程工作的公司,致力于寻找答案。 他们调查了 5000 名自己的员工以及 100 名财富 1000 强和 100 名财富 500 […]

1 月 25 日话题标签趋势 – 针对开源 AI 模型中漏洞的新工具; 世界末日背后的人工智能? 麦金塔电脑诞生 40 周年

研究人员在开源人工智能模型中发现了巨大的漏洞,一家旅游公司发现过滤器的受欢迎程度激增,而不是允许你选择要避开的飞机,科学家将世界末日时钟设置为距离午夜 90 秒,将人工智能命名为原因之一,教授演示了破解投票机是多么容易,我们庆祝 40 周年th 麦金塔电脑的生日。 所有这些以及更多内容都在这个怀旧版的标签趋势中。 我是主持人 Jim Love,加拿大 IT World 和美国 TechNewsDay 的首席信息官。 Protect AI 研究人员最近的一项研究揭示了一个令人震惊的现实。 自 8 月以来,他们在流行的 AI 模型存储库 Hugging Face 上发现了 3,354 个包含恶意代码的模型。 更令人担忧的是,据报道 Hugging Face 的安全扫描未能将其中约三分之一标记为不安全。 为了应对此类威胁,Protect AI 公司推出了一款扫描工具,旨在保护公司免受开源 AI 模型中日益增长的恶意软件威胁。 开源人工智能模型越来越受欢迎,原因很简单:很少有公司能够负担得起从头开始开发和训练人工智能模型的资源。 作为分享这些模型的一种方式,Hugging Face 等平台也越来越受欢迎。 但这些存储库可能缺乏全面的安全措施,导致共享模型容易受到黑客操纵。 Protect AI 成立于 2022 年,其新工具可在 AI 模型进入公司 IT 系统之前扫描这些模型是否存在隐藏的恶意软件。 Protect AI 计划使用其收购的专注于人工智能的漏洞赏金计划 Huntr […]