Alexa、Google 或 Siri 会监听我们的对话吗? | 技术

“Alexa,将闹钟设置为八点”,“Alexa,播放电影 奥本海默”或者“Alexa,告诉我复活节期间的天气怎么样。” 与智能扬声器的所有这些交互 被记录 并且可供任何提出请求的用户使用 亚马逊。 犯罪学家玛丽亚·阿佩拉多就是这么做的。 她惊讶地发现有些音频前面没有激活词“Alexa”,因此她几天前在 一段在 TikTok 和 Instagram 上疯传的视频。 这怎么可能? 亚马逊的政策很明确:除非设备检测到唤醒词,否则不会存储任何音频或将其发送到云端。 该消息已得到公司证实。 他们补充说,用户将通过蓝光指示器或扬声器的声音知道 Alexa 何时将其请求发送到云端。 考虑到这一点,CSIC 专门研究网络安全和数据的研究员 David Arroyo 提供了一种替代方案:“他们的系统只有在有人说出激活词时才会激活。 但是,由于各种原因,它可能会出现误报。 我们需要看到的是,它对于干扰激活词解释的元素有多大程度的鲁棒性。” 更多信息 语音翻译机器学习系统,例如 Alexa 使用的系统或 谷歌 哦 苹果,整合不同的元素来改善其运作。 但即便如此,这也不是一件容易的事。 “这些系统旨在识别由于发音而产生变化的所有因素,”阿罗约在谈到不同的口音和说话方式以及其所在房间的共振或混响的变化时说道。 装置。 “有必要详细了解亚马逊具体使用的算法的精确度和误报率是多少。” 《国家报》采访了玛丽亚·阿佩拉多 (María Aperador),以了解更多有关这段持续约 6 秒的录音的信息。 它们是她或她家里的人的随意谈话的片段。 这位犯罪学家尚未查看亚马逊发送给她的 500 多个音频文件,但在她听过的大约 50 个音频文件中,她发现其中有两个没有激活词。 波鸿鲁尔大学和马克斯·普朗克安全与隐私研究所的研究人员进行的一项研究 强调了智能扬声器中意外激活的重要性。 在分析了来自 8 个不同制造商的 11 台设备后,他们发布了 […]

GPT-4 在战争规划方面有多出色

美国陆军基础研究核心研究实验室陆军研究实验室的两名研究人员开发了一种定制语言模型,用于制定军事作战计划。 在模拟军事行动中,语言模型的表现优于使用强化学习训练的人工智能 (AI)。 Vinicius G. Goecks 和 Nicholas Waytowich 描述了技术细节 在一篇论文中,他们在预印本平台 arXiv 上发布。 广告 全世界的希望 人工智能让军队在战场上更快、更精确。 美国军方最近授予 Palantir 公司一份价值 1.78 亿美元的合同,以开发使用人工智能的自动目标检测。 GPT-4 给出命令 在大型语言模型的帮助下,将人工智能直接集成到命令结构中似乎是显而易见的。 在他们的实验中,军事研究人员提供了两个版本的 GPT-4 示例和上下文信息,使模型能够为少数军事单位制定作战计划。 然后,他们给人工智能助手的任务是摧毁所有敌军并在给定场景中占领目标点。 为了测试作战计划的效果,他们让 COA-GPT(行动方针)运行基于《星际争霸 II》的模拟。 这 仿真平台 研究人员已经在 2017 年开发了这一技术,用于训练人工智能代理进行模拟星际争霸战斗,其中游戏角色的军事特征 映射到真实的军事单位和历史场景。 “敌方”势力由游戏内置的机器人控制,这些机器人基本上基于脚本。 在测试中,COA-GPT 实际上比迄今为止最好的程序表现得更好。 当研究人员寻求人类专家的反馈以进行第二轮改进的规划时,效率可能会进一步提高。 然而,结果远非完美。 例如,语言模型比其他人工智能体遭受了更多的损失。 然而,作者将他们的模型视为“军事 C2(指挥和控制)行动的变革性方法,可以实现更快、更灵活的决策,从而在现代战争中提供战略优势。” 一个规划问题 广告投放也更加精准和快速 Palantir,军事行动人工智能平台。 不过,该公司迄今为止只发布了一段视频,无法真正了解该平台的功能。 多大好 语言模型真的可以规划,但在研究中存在争议。 至少一些专家认为大型语言模型无法真正得出逻辑结论或计划,而只是简单地操纵训练材料中的零碎内容,使其看起来好像它们实际上正在计划。 佐治亚理工学院、斯坦福大学、东北大学以及胡佛兵棋推演和危机模拟计划的研究人员最近也发现,“升级风险”显着增加 如果大型语言模型能够做出军事和外交决策。 至少在虚构的危机场景中,语言模型并没有回避使用原子弹。 […]

2024年人工智能等待着我们什么

2024年人工智能等待着我们什么 去年的这个时候,我们做了一些大胆的事情。 在这个没有什么是一成不变的行业中,我们试图预测人工智能 (AI) 的未来。 首先是热门问题:我们做得怎么样? 广告 我们的 2023年的四大赌注 是: 聊天机器人的下一个重大事件将是多模态检查:事情就是这样发生的。 OpenAI 的 GPT-4 和 Google DeepMind 的 Gemini 是目前最强大的大型语言模型,可处理文本、图像和音频。 现在我们再次采取同样的步骤。 在此过程中,我们决定忽略显而易见的事情。 我们知道大型语言模型将继续占据主导地位。 监管机构将变得更加大胆。 人工智能的问题——从偏见到版权再到无知——将主导研究人员、监管机构和公众的议程,不仅在 2024 年,而且在未来几年都是如此。 相反,这一次我们挑选了 2024 年需要关注的一些更具体的趋势。 (明年我们将再次透露我们的表现)。 1. 量身定制的聊天机器人 到 2024 年,在生成式人工智能方面投入巨资的科技公司将面临证明自己可以从其产品中赚钱的压力。 为此,人工智能巨头谷歌和 OpenAI 在“变小”上下了大赌注:两者都在开发用户友好的平台,允许人们定制强大的语言模型,并根据自己的特定需求创建自己的迷你聊天机器人 – 无需任何编程知识。 两家公司都推出了基于网络的工具,让任何人都可以成为生成式人工智能应用程序的开发人员。 到 2024 年,生成式人工智能也可能对普通的非技术人员变得有用,并且将会有越来越多的人修补一百万个小型人工智能模型。 现代人工智能模型的多模态,例如 GPT-4 和 双子座 – 它们不仅可以处理文本,还可以处理图像甚至视频 – 可以解锁一系列新的应用程序。 例如,房地产经纪人可以上传以前房源的文本,调整强大的模型,只需点击鼠标即可生成类似的文本,上传新房源的视频和照片,并简单地要求定制的人工智能生成房源的描述。财产。 当然,这个计划的成功取决于这些模型是否可靠。 […]