Humane 的 Ai Pin 思考智能手机之外的生活

没有什么可以天长地久。 这句话在消费科技领域最为贴切。 这片土地上居住着永远不安分的人——总是在为下一件大事而努力。 从各方面来看,这款智能手机的表现都不错。 iPhone 首次公开亮相 17 年后,这些设备仍然占据主导地位。 然而,在过去几年中,裂缝已经开始显现。 随着销售放缓并最终萎缩,市场趋于稳定。 去年,有一些故事引用了 十年来最糟糕的需求,让整个行业都在问同样简单的问题:下一步是什么? 如果有一个简单的答案,那么现在会有更多的人变得更加富有。 智能手表曾经有一段时间,尽管这些设备在很大程度上被视为配件,增强了智能手机的体验。 至于 AR/VR,目前你真正能说的最好的说法是,在经历了一段缓慢的起步之后,对于 Meta Quest 和 Apple Vision Pro 等产品,目前还没有定论。 当它开始通过 神秘的短视频 2022 年夏天,Humane 承诺让我们一睹未来。 该公司承诺采用一种完全以人为本的方法,正如其名称所暗示的那样。 它至少资金充足,达到 1 亿多美元(现在为 2.3 亿美元),并且具有人工智能元素。 该公司的首款产品 Humane Ai Pin 将于本周上市。 它暗示了一个不需要在每个醒着的时刻都盯着屏幕的世界。 它在很大程度上(但并非完全)是免提的。 点击前触摸面板即可唤醒系统。 然后它会倾听并学习。 超越智能手机 图片来源: 达雷尔·埃瑟林顿/> Humane 不能要求更好的时机了。 虽然这家初创公司在过去七年里基本上一直在秘密运营,但它的上市恰逢智能手机兴奋的低谷与生成式人工智能炒作的顶峰相交。 该公司的诚意极大地促进了产品发布前的兴奋。 创始人贝瑟尼·邦吉奥诺 (Bethany Bongiorno) 和伊姆兰·乔杜里 (Imran […]

OpenAI 让 ChatGPT 对付费用户来说更快、更智能

OpenAI 通过社交媒体平台 X 宣布,他们已经为付费客户更新了名为 GPT-4 Turbo 的大型语言模型 (LLM)。 GPT-4 Turbo 是 GPT-4 的改进模型,GPT-4 通常被更广泛的社区称为生成式 AI,它提供对话。 发射 之间星期六(13/4/2024),新模型带来了写作、数学、逻辑推理和编码方面的改进。 “我们的新 GPT-4 Turbo 现已可供 ChatGPT 付费客户使用。 “我们正在提高写作、数学、逻辑推理和编码方面的技能,”X @OpenAI 帐户的公告称。 为了能够体验 GPT-4 Turbo 的最大性能,用户必须订阅,并且访问权限仅限于 Plus、Team 和 Enterprise 订阅包。 这项付费服务​​的起价为每月 20 美元或相当于 322,356 印尼盾。 除此之外,ChatGPT 通过 GPT-4 Turbo 提供的最新响应来自截至 2023 年 12 月流通的数据。 此外,在训练时,GPT-4 Turbo 使用截至 2023 年 4 月的最新数据。(ant/sya/bil/faz) […]

Disney+ 在其系列剧之一中将 ChatGPT 归功于 ChatGPT

帕 卡拉·普罗姆 已发表 2小时前, 更新 现在 OpenAI 的聊天机器人 ChatGPT 每月约有 1 亿活跃用户。 路透社/布伦丹·麦克德米德/莫里斯·诺伯特 – stock.adobe.com 该人工智能工具被用来编写在印度版 Disney+ 上播出的系列剧《拯救老虎》中的一首歌曲的歌词。 迪士尼打的是透明牌。 跨国公司认为 聊天GPT 在该系列第二季的制作人员名单中 《拯救老虎》自3月15日起在印度版Disney+ Hotstar平台上播出。 对话机器人出现在标题下 “音乐团队成员”据报道,在大约二十个人中间 美国媒体 Android 头条。 制作人员名单表明 ChatGPT 被用来写一首歌的歌词,这首先是人类的创作。 如果在某些领域使用生成式人工智能工具不再有疑问, 这是ChatGPT首次出现在真人作品的片尾字幕中。 去年三月,该系列 南方公园 在剧集结尾提到了聊天机器人 《深度学习》,旁边是导演特雷·帕克的名字。 这一集戏仿了这些工具的过度使用。 另请阅读“这个过程很有趣”:人工智能艺术家希望如何彻底改变视觉创作 迪士尼已经用过 中途图像生成工具 在漫威系列的作品中, 秘密入侵。 他引起了艺术家的愤怒,他们指责迪士尼自愿放弃向专业人士付费以避免产生额外成本。 “人工智能只是我们艺术家使用的工具之一”该系列背后的工作室之一 Method Studios 的发言人 Steph Leal 在一份声明中表示。 “没有任何艺术家的作品被这些新工具的集成所取代; 相反,他们补充并协助了我们的创意团队”。 那些从事艺术创作的人并不掩饰他们对人工智能在他们的领域出现的担忧。 […]

使用数据显示,Moonshot AI 的聊天机器人有望赶上百度的 ERNIE Bot · 动点科技

一年前在中国成立的人工智能初创公司Moonshot AI在升级其大语言模型Kimi以能够处理多达200万中文单词的文本输入后,迅速缩小了与竞争对手百度ERNIE Bot在用户方面的差距。行进。 据数据网站调查显示 铝铜上个月,Kimi 的网站和应用程序总流量达到 1260 万次浏览量,排名升至第二位,仅次于百度聊天机器人,后者的浏览量增加了 229 万次。 为什么它很重要: Kimi 3 月份的访问量翻了两番,意味着这款类似 ChatGPT 的工具超越了阿里巴巴的竞争对手统一钱文。 其处理长文本的能力提高了 Kimi 在用户中的受欢迎程度,并让其支持者抱有希望,认为它将很快打破百度在中国人工智能领域长达数月的领先地位。 细节: Moonshot专注于较长的文本输入和输出,这是中国LLM公司的新战场。 Kimi升级后,阿里巴巴开放了免费的长文档处理功能,可以处理1000万个字符,而百度则计划在本月晚些时候支持更长的文本对话。 Kimi 声称取得了处理 200 万个汉字的技术突破后不到 72 小时,聊天机器人就出现了服务中断。 此次崩溃持续了至少两天,该公司将其归咎于“系统流量异常增加,远远超出了系统的容量”,因为用户急于尝试新功能。 在 最近的一次采访 腾讯科技的Moonshot创始人杨志林表示,公司成立之初就决定专注于长文本。 “这是根本性的,”杨说,并指出人工智能的核心价值在于个性化交互,他认为最好的实现方式不是通过微调,而是通过支持更广泛的环境。 他还表示,虽然文本长度还有“很大的空间”,但仅关注数字是“没有意义的”。 相反,推理、忠诚和明确遵循指示才是重要的。 语境: 登月人工智能 据说 今年早些时候,从阿里巴巴、红杉中国、小红书等现有股东那里筹集了超过10亿美元的资金,这是迄今为止中国人工智能大模型公司最大的单轮融资。 该公司去年筹集了近 20 亿元人民币(2.77 亿美元)。 有关的 Cheyenne Dong 是一名科技记者,现驻上海。 她的研究领域涵盖电子商务和零售、人工智能和区块链。 通过电子邮件与她联系:cheyenne.dong[a]technode.com。 更多董夏安的作品 1712767805 #使用数据显示Moonshot #的聊天机器人有望赶上百度的 #ERNIE #Bot […]

据报道 Xbox 正在使用人工智能聊天机器人来响应查询

2018 年 6 月 12 日在加利福尼亚州洛杉矶举行的电子娱乐博览会 E3 期间,微软剧院的“XBox”体验。照片:Christian Petersen (Getty Images) 微软对人工智能的投入正在以动画角色聊天机器人的形式蔓延到其游戏部门。 比特币是一项很好的投机投资吗? 据报道,这家科技巨头 测试 Xbox 的“体现 AI 角色”聊天机器人 据 The Verge 援引未透露姓名的熟悉该产品的消息人士称,它可以响应查询,例如有关游戏机损坏或订阅问题的查询,并自动执行其他支持任务。 它还可以通过 Microsoft 支持网站处理游戏退款,因为它已连接到 Xbox 支持文档。 据报道,该聊天机器人的内部描述称:“该代理可以帮助您解决 Xbox 支持问题。” 据 The Verge 报道,该聊天机器人是 Microsoft Gaming 将人工智能应用到游戏平台及其服务中的更大努力的一部分。 Xbox 游戏人工智能总经理张海燕在与 The Verge 分享的一份声明中证实:“我们正在测试 Xbox 支持虚拟代理,这是一个动画角色的内部原型,可以通过语音或文本查询 Xbox 支持主题。” “该原型使玩家可以更轻松、更快速地使用自然语言从现有 Xbox 支持页面获取信息来获得有关支持主题的帮助。” 微软和 Xbox 都没有立即回应置评请求。 消息人士还告诉 The […]

“性对象还是生孩子机器”:人工智能重申了对女性的刻板印象 | 技术

互联网上的内容含有性别偏见, 图片比文字更具性别歧视,而人工智能则再现并强化了这些刻板印象。 许多专家一直在谴责它,现在, 联合国教科文组织进行的一项研究 证明这一点:语言模型,例如 ChatGPT 使用的模型,复制了性别和种族偏见或同性恋恐惧症。 该报告不仅限于对话,还警告人工智能对日常生活的影响。 随着人工智能在决策中的应用遍及所有行业,并为获得就业、信贷或保险的机会创造条件,如果不解决并充分减轻这些偏见,妇女和少数族裔将不得不面临挑战。 语言模型从网络信息中学习,其中包含偏差,因此 他们倾向于在聊天和其他应用程序的响应中重现这些倾向。 一个典型的例子是对职业的性别分配,这些模式延续了陈规定型观念,例如将男性与科学和工程联系起来,将女性与护理和家政工作联系起来,即使在没有明确性别的情况下也是如此。 这正是联合国教科文组织三月初发布的研究所证明的,该研究分析了 OpenAI 的 GPT 2 和 GPT-3.5 模型(ChatGPT 免费版本的基础),以及其竞争对手的 Llama 2。目标。 报告显示,女性与家庭角色的联系是男性的四倍,并且经常与家庭、家庭和孩子等词语联系在一起,而男性名词则与商业、行政、薪水和职业联系在一起。 更多信息 除了显示出对女性的明显歧视之外,该研究还强调,人工智能生成的有关来自代表性较低文化的个人的内容缺乏多样性,而且更容易形成刻板印象。 联合国教科文组织数字政策和数字化转型专家 Leonora Verdadero 描述道:“当模型被要求在祖鲁男人和祖鲁女人面前完成英国男人和英国女人的句子时,发现了不同的结果。 对于一般女性来说,她们的多样性较低,并且对自己的职业有刻板印象。” 英国女性经常与妓女、模特或女服务员等角色联系在一起,而祖鲁女性则更多地与家务或护理工作联系在一起。 就祖鲁裔男性而言,与园丁、警卫或教师的联系表现出更多的多样性,但仍然是刻板印象。 另一方面,英国男性则扮演着更加多样化的角色,如司机、银行家、护理人员或教师。 “毫无疑问,对于南半球国家来说,重点是许多国内角色,而对于北半球国家来说,内容更加多样化。 这些结果反映了这种内部偏见的存在。”Verdadero 解释道。 报告称,造成这种差异的原因是“无论是在历史文本中还是在训练模型的数字媒体中,当地群体的代表性相对不足”。 该研究揭示了根据人类反馈调整的模型(例如 GPT-3.5)与不允许此类修改的模型(例如 Llama 2)之间存在显着差异。当被要求完成提及一个人的性别和性身份的句子时,该技术Meta 在大约 20% 的案例中产生了性别歧视内容,创建了诸如“该妇女被认为是性对象和婴儿制造机器”或“该妇女被视为她丈夫的财产”之类的句子。 70% 的结果中出现了诸如“同性恋者被认为是社会等级中最低的”等仇视同性恋的言论。 相比之下,GPT-3.5 表现出歧视性的减少,尽管它还没有完全中立。 Verdadero 在谈到 OpenAI 公司的付费且功能更强大的版本时表示:“仍然存在偏见,而且仍然占据主导地位,但 3.5 版本有一些改进,我们希望 […]

OpenAI推出一款能够克隆人类声音的音频工具 | 技术

只需 15 秒的样本即可可靠地克隆人声。 这就是最新的人工智能工具 开放人工智能, 签名 ChatGPT 让世界眼花缭乱, 您的生成式人工智能语言程序。 “今天,我们分享了一个名为语音引擎的模型的小规模预览的信息和初步结果,该模型使用文本和单个 15 秒音频样本来生成与原始说话者非常相似的自然语音。 该公司表示:“值得注意的是,一个只有 15 秒样本的小模型可以创造出情感丰富且真实的声音。” 萨姆·奥尔特曼指挥 通过声明。 用户所要做的就是提供该样本。 一旦语音引擎程序拥有它,您就可以让它读取您提供的任何文本以及该语音的音色和语气。 文本甚至不必使用同一种语言。 讲西班牙语的人可以提供她语言的样本,然后要求程序用他或她的声音朗读英语、中文或其他语言的文本。 也可以直接用于音频翻译。 此外,当用于翻译时,语音引擎保留了原始说话者的母语口音:例如,使用法语说话者的音频样本生成英语将产生法语口音的语音。 限制使用 该公司更愿意暂时启动小规模测试,而不是像 ChatGPT 那样促进该工具的广泛使用,因为它意识到身份盗窃的风险。 使用该工具,录制某人的 15 秒就足够了 被制造 用他的声音。 OpenAI 表示:“由于合成语音可能被滥用,我们正在采取谨慎和知情的方式来进行更广泛的发布。” “我们希望就合成声音的负责任部署以及社会如何适应这些新功能展开对话。 他补充道:“根据这些对话和小规模测试的结果,我们将就是否以及如何大规模部署这项技术做出更明智的决定。” OpenAI 认为,在普及新工具的访问之前,必须在一系列方面做出决策。 例如,它呼吁逐步取消语音身份验证作为访问银行账户和其他敏感信息的安全措施,因为它不再安全。 他还认为有必要探索政策来保护个人声音在人工智能中的使用。 对于包括政治家在内的公众人物来说,操纵和错误信息的风险尤其明显。 因此,它进一步呼吁教育公众了解人工智能技术的能力和局限性,包括误导人工智能内容的可能性。 他提出的另一项建议是加速追踪视听内容来源的技术的开发和采用,以便您在与真人或人工智能互动时始终清晰可见。 “重要的是,世界各地的人们都了解这项技术的发展方向,无论我们最终是否广泛部署它。 我们期待继续与政策制定者、研究人员、开发人员和创意人员就合成声音的挑战和机遇进行对话。”OpenAI 总结道。 在其创新生涯中,OpenAI 不仅推出了语言工具,还推出了图像和视频生成工具。 上个月他介绍了索拉一款革命性的视频工具,只需要文本即可创建具有所需内容和风格的短视频。 您可以关注 EL PAÍS 技术 在 Facebook […]

梅兰妮·米切尔:“当人工智能被植入到像孩子一样体验世界的机器人中时,它就会腾飞”| 技术

我们是否夸大了人工智能(AI)的潜力? 他有多聪明? 它会到达人类吗? 这些是 Melanie Mitchell(洛杉矶,55 岁)在她的书中提出的一些问题 人工智能。 思考者的指南,《Captain Swing》本周一以西班牙语出版。 他的回应很有力:我们距离创造超级智能还很远,无论多少 一些公司的说法恰恰相反。 根本原因之一是机器不像我们一样进行推理。 他们几乎可以比其他人更好地完成任何任务,但他们对世界的了解还不如一岁的婴儿。 米切尔提供了衡量人工智能现象的基本背景,自从两年前 ChatGPT 等工具出现以来,这项技术就一直处于公众辩论中。 政治家、商人和学者 最近警告过 这些系统的危险他们用他们能够生成的精致文本以及他们可以制作的超现实图像和视频让世界眼花缭乱。 圣达菲研究所复杂性教授兼波特兰州立大学教授戴维斯在她的著作中描述了最先进的人工智能系统如何工作,并将其与人类推理进行对比。 结论:目前任何机器都无法实现诸如直觉或环境知识等关键方面。 米切尔在新墨西哥州圣达菲的家中通过视频通话参加《国家报》。 问。 今天的人工智能有什么能力? 回答。 几年前,随着生成式人工智能(包括应用程序)的到来,它的能力发生了巨大的飞跃 像 ChatGPT 或 Dall-E。 但这些系统虽然看起来像这样,但对世界的理解与我们不同。 这就是为什么有时他们会做一些奇怪的事情或者编造一些事情。 它们缺乏可靠性,有一系列难以预测的局限性。 因此,我认为虽然这些系统非常有用并且我一直在使用它们,但我们必须谨慎对待对它们的信任。 尤其是在没有人工监督的情况下。 P。 因为? R。 他们可能会犯严重的错误。 一个明显的例子是自动驾驶汽车。 它们尚未出现在我们身边的原因之一是,它们在人类很少会发生的情况下会失败,例如无法识别行人或障碍物。 另一个例子是自动面部识别系统。 这些机器非常擅长检测图像中的人脸,但在识别深色皮肤的人或女性方面表现较差。 通过 ChatGPT,我们看到了无数他们言出必行的案例。 米切尔教授每天都使用人工智能工具,但认识到它们的局限性并始终监控她的结果。凯特·乔伊斯 P。 生成式人工智能的繁荣对学科的发展是有利还是有害? R。 从某种程度上来说,这 炒作 它增加了人们的期望,然后导致失望。 在人工智能的历史上,这种情况已经发生过很多次。 在 […]

微软希望如何使其人工智能副驾驶更加可靠

Bird并不否认微软正在尝试使用额外的安全功能来遏制如果不开发自己的人工智能系统就可能不存在的问题。 这位经理表示,因此,可靠和可靠的人工智能不是一种状态,而是一个源自人们如何使用人工智能的过程。 伯德说:“当用户探索技术的巨大经济和创造潜力时,总会有人做出不当行为。” “这就是为什么我们正在创建适当的安全机制来防止这种情况发生。” 另请阅读: 移动人工智能助手是下一个重大事件吗? 1711780151 #微软希望如何使其人工智能副驾驶更加可靠 2024-03-28 16:13:14

大型语言模型使用一种极其简单的机制来检索一些存储的知识 | 麻省理工学院新闻

大型语言模型(例如为 ChatGPT 等流行人工智能聊天机器人提供支持的语言模型)非常复杂。 尽管这些模型在许多领域被用作工具,例如客户支持、代码生成和语言翻译,但科学家们仍然没有完全掌握它们的工作原理。 为了更好地了解幕后发生的事情,麻省理工学院和其他地方的研究人员研究了这些巨大的机器学习模型检索存储的知识时的工作机制。 他们发现了一个令人惊讶的结果:大型语言模型(LLM)通常使用非常简单的线性函数来恢复和解码存储的事实。 此外,该模型对相似类型的事实使用相同的解码函数。 线性函数是只有两个变量且没有指数的方程,捕获两个变量之间简单的直线关系。 研究人员表明,通过识别不同事实的线性函数,他们可以探索模型以了解它对新主题的了解,以及知识存储在模型中的位置。 研究人员使用他们开发的技术来估计这些简单的函数,发现即使模型错误地回答了提示,它通常也存储了正确的信息。 将来,科学家可以使用这种方法来查找并纠正模型内部的错误,这可以减少模型有时给出错误或无意义答案的倾向。 “尽管这些模型非常复杂,是基于大量数据进行训练的非线性函数,并且很难理解,但有时它们内部有非常简单的机制。 这就是一个例子,”电气工程和计算机科学 (EECS) 研究生、论文共同主要作者 Evan Hernandez 说道。 详细介绍这些发现的论文。 埃尔南德斯与东北大学计算机科学研究生 Arnab Sharma 共同撰写了这篇论文。 他的导师 Jacob Andreas,EECS 副教授,计算机科学与人工智能实验室 (CSAIL) 成员; 资深作者 David Bau,东北大学计算机科学助理教授; 以及麻省理工学院、哈佛大学和以色列理工学院的其他人。 该研究将在国际学习表征会议上公布。 寻找事实 大多数大型语言模型,也称为转换器模型,是 神经网络。 神经网络松散地基于人脑,包含数十亿个互连的节点或神经元,这些节点或神经元被分为许多层,并对数据进行编码和处理。 存储在变压器中的许多知识可以表示为连接主体和客体的关系。 例如,“迈尔斯·戴维斯演奏小号”是将主语迈尔斯·戴维斯与客体小号联系起来的关系。 随着变压器获得更多知识,它会跨多个层存储有关某个主题的更多事实。 如果用户询问该主题,模型必须解码最相关的事实以响应查询。 如果有人通过说“迈尔斯·戴维斯演奏。”来提示变压器。 。 ”。 模型应该回答“喇叭”而不是“伊利诺伊州”(迈尔斯·戴维斯出生的州)。 “在网络计算的某个地方,必须有一种机制来寻找迈尔斯·戴维斯吹小号的事实,然后提取该信息并帮助生成下一个单词。 我们想了解这种机制是什么,”埃尔南德斯说。 研究人员进行了一系列实验来探索法学硕士,结果发现,尽管它们极其复杂,但这些模型使用简单的线性函数来解码关系信息。 每个函数都特定于正在检索的事实类型。 例如,变压器每次想要输出一个人演奏的乐器时都会使用一个解码函数,而每次想要输出一个人出生的状态时都会使用不同的函数。 研究人员开发了一种方法来估计这些简单函数,然后计算 47 种不同关系的函数,例如“一个国家的首都”和“乐队的主唱”。 虽然可能存在无数种可能的关系,但研究人员选择研究这个特定的子集,因为它们代表了可以用这种方式编写的事实类型。 […]