安妮(Ann)是一个无能为力的瘫痪者,由于神经假体允许研究人员的一组研究人员设计,因此能够再次从大脑传播声音 加州大学伯克利分校 y 加州大学旧金山加州大学 他发现了一种恢复严重瘫痪者演讲的方法。
调查发表在自然神经科学”,解决了语音神经假体中持续的潜伏期问题,当受试者试图说话的那一刻和声音发生的那一刻之间的时间。利用基于人工智能的建模方面的最新进展,研究人员开发了一种传输方法,该方法几乎实时地综合了声音中的大脑信号。
这项技术代表了促进与失去言语能力的人进行沟通的关键步骤。
他说:“我们的流媒体方法结合了Alexa和Siri等设备的快速声音解码能力。” Gopala Anumanchipalli。 «使用类似算法,我们发现我们可以 解码神经元数据 而且,这是第一次允许传输几乎同步的声音。结果是一种更自然,更流畅的语音综合»。
这项研究的主要CO -Investigator Neurosgeon Edward Chang说:“这项新技术具有改善严重麻痹的人们的生活质量,影响言语。”
研究人员还证明,他们的方法可以与其他各种大脑检测接口(包括微电极矩阵(MEA))良好,其中电极穿透脑表面或非侵入性记录(SEMG),这些记录(SEMG)在面部使用传感器来测量肌肉活动。
Kaylo LittleJohn说:“通过在其他无声语音数据集中证明语音中大脑的精确合成,我们表明该技术不限于特定类型的设备。” “只要有一个好兆头,可以以不同的方式使用相同的算法。”
根据研究的主要参与者Cheol Jun Cho的说法,神经假体的作用是采用运动皮层的神经元数据样本,这是控制语音产生的大脑的一部分,然后使用AI来解码语音脑功能。
他说:“基本上,我们拦截了思想转化为表达的信号,在运动控制的过程中。
为了收集必要的数据以训练他们的算法,研究人员首先要求ANN查看屏幕(例如:“你好,你好吗?”),然后尝试沉默地说那句话。
利特尔约翰说:“这为我们提供了她产生的神经元活动的零散窗户和她试图说的客观祈祷的映射,而无需随时发声。”
这项技术具有改善严重麻痹的人们的生活质量,影响言语
由于ANN没有剩余的发声,因此研究人员没有客观的音频或退出,他们可以为此分配神经元数据。他们使用AI解决了这一挑战,以完成丢失的细节。
“我们使用怀孕的语音文本模型来生成音频并模拟目标。”
在先前对BCI的研究中,研究人员的解码延迟很长,单句话的延迟约为8秒。使用新的传输方法,可以几乎实时生成可听见的输出,而受试者试图说话。
为了衡量潜伏期,研究人员使用了语音检测方法,这使他们能够识别指示语音尝试开始的大脑信号。
«我们可以看到,就意图的迹象而言,一秒钟内,我们获得了第一个声音 – Says Anumanchipalli。和 该设备可以连续解码因此,安可以继续不间断地说话»。
这种更高的速度并没有降低精度。最快的界面提供了与以前的方法相同的高水平解码精度,而无需传输。
研究人员还实时测试了模型的能力,以合成不属于训练数据集词汇的单词。在这种情况下,北约语音字母的26个稀有词,例如“ alpha”,“ bravo”,“ charlie”,et。
«我们想看看我们是否可以概括不可见的单词并真正解码Ann的语音模式。我们发现我们的模型做得很好,这表明声音或声音的基本组成部分有效地学习»。
安·安(Ann)也参加了2023年的研究,他与研究人员分享了他在新传输合成方法中的经验与将文本解码为先前研究的语音的方法进行比较。
Anumanchipalli说:“ Ann传播流媒体合成是一种具有更大自愿控制的方式。” 几乎实时聆听自己的声音会增加您的拟人化感»。
这项最后一项工作为研究人员带来了又一步的一步,可以通过BCI设备获得自然主义的演讲,同时为未来的进步感到基础。
研究人员还集中精力提高输出语音的表现力,以反映语音,音色或音量的变化,例如某人兴奋时。
报告错误
1743452590
#神经假体脑疫苗恢复脑瘫患者的语音
2025-03-31 15:00:00