说话。可以与界面进行交流的47岁女人。 (加利福尼亚大学伯克利分校)

来自加利福尼亚大学伯克利分校和旧金山(美国)的一支科学团队设计了一种能够将语音活动转化为大脑的设备,几乎是实时的,在18年后,与四年的四年级妇女一起获得了一个47岁的-old -old妇女。

这项工作解决了言语神经假体潜伏期的“旧问题”,即,在主题试图说话的那一刻与声音发生的那一刻之间发生的时间。感谢基于人工智能(AI)的最新进展,研究人员开发了一种传输方法,该方法几乎是实时实时综合了可听见的语音中的大脑信号。它的描述于周一发表在《自然神经科学》杂志上。

科学家解释说:“使用类似类型的算法,我们发现我们可以解码神经元数据,并首次使几乎同步的语音传递成为可能。结果是一种更自然和流体的语音综合。”

对于另一个主要科学家爱德华·张来说,这项新技术“具有巨大的潜力”,可以改善影响言语的严重瘫痪者的生活质量。

“令人兴奋的是,AI的最新进展极大地加速了在不久的将来,在现实世界中实用的脑订购界面。”作为临床试验的一部分,Chang和Anumanchipalli的设备在一名47岁患有四副症(肢体瘫痪和躯干)的47岁女性中实现了脑部的界面,在中风后发声18年。

为了收集必要的数据以训练其算法,研究人员首先使参与者在屏幕上查看符号,例如“你好,你好吗?”一词,然后尝试默默地发音该短语。

因此,作者使用参与者的大脑活动训练了一个深度学习的神经元网络,该网络是通过植入的电极在其感官的语音皮层上注册的,同时在其内部发音在大脑中发音,其中包含1,024个单词,其中包含1,024个独特的单词。

另一个工作签名者Cheol Jun Cho总结了神经假体的作用,方法是将运动皮层的神经元数据样本(控制语音的产生产生),然后使用AI来解码大脑功能并将其转化为语音。 “我们基本上拦截了思想转化为表达的迹象(…)。

因此,我们正在解码是在想法发生后,在我们决定说些什么之后,我们决定了哪些单词使用以及如何移动声带的肌肉。透明

使用新的传输方法,可以几乎实时产生可听见的输出,而主题试图发言,收集了加利福尼亚大学伯克利分校工程学院的声明。

为了排除该系统只是匹配模式并重复培训数据的一部分,研究人员测试了他们合成不属于初级训练词汇一部分的单词的能力。

在这种情况下,他们从SO称为北约语音字母的26个单词中,例如“ Alpha”或“ Bravo”。 Anumanchipalli总结道:“我们发现我们的模型做得很好,这确实表明它正在学习声音或声音的基本组成部分。”

1743870372
#与AI的界面使一个瘫痪的女人几乎实时说话 #今天的编年史
2025-04-05 16:00:00

Leave a Reply

Your email address will not be published. Required fields are marked *