
Команда нейроинженеров из Калифорнийского университета в Беркли и Сан-Франциско представила систему, которая преобразует нейронные сигналы в синтезированную речь с задержкой менее секунды. Технология впервые позволила 47-летней Энн, лишившейся речи из-за инсульта в 2005 году, общаться с помощью голоса, почти мгновенно воспроизводящего её мысли. Это достижение открывает путь к восстановлению коммуникации для пациентов с тяжёлыми формами паралича.
Основой разработки стал алгоритм, аналогичный тем, что используются в голосовых помощниках вроде Siri. Однако вместо обработки звука он декодирует активность моторной коры — области мозга, управляющей артикуляцией. «Мы перехватываем сигналы в момент, когда мозг планирует движение речевых мышц, ещё до того, как человек попытается издать звук», — пояснил Чхоль Джун Чо, соавтор исследования и аспирант UC Berkeley.

В ходе клинических испытаний Энн носила имплантированные электроды, которые фиксировали активность её мозга, пока она мысленно повторяла фразы с экрана. Нейросеть, обученная на записях её голоса до травмы, преобразовывала эти сигналы в аудиоречь. Система не только воспроизвела 80% тренировочных предложений точно, но и корректно синтезировала редкие слова из фонетического алфавита NATO, такие как «Альфа» и «Браво». «Модель научилась распознавать базовые элементы речи, а не просто запоминать шаблоны», — подчеркнул Гопала Ануманчипалли, соавтор проекта.
Ключевым прорывом стала ликвидация задержки: предыдущие системы требовали до восьми секунд для генерации фразы, что делало диалог неестественным. Новая технология сократила этот промежуток до одной секунды. «Мы видим, как первый звук появляется практически синхронно с нейронным сигналом», — отметил Ануманчипалли. Пациентка Энн описала этот опыт как «возвращение ощущения себя», подчеркнув, что немедленная обратная связь кардинально отличается от прежних методов с поэтапным преобразованием мыслей в текст и голос.
Система совместима с разными типами сенсоров: инвазивными микроэлектродными массивами (MEA), которые внедряются в ткань мозга, и неинвазивными поверхностными датчиками (sEMG), считывающими активность лицевых мышц. Это расширяет её применение для пациентов с различными формами паралича.
Сейчас учёные работают над добавлением эмоциональной окраски в синтезированную речь — интонации, громкости и тембра. «Даже малейшие изменения тона радикально меняют смысл. Например, слово “хорошо” может звучать как одобрение или сарказм», — объяснил Кейло Литтлджон, аспирант UC Berkeley. Для решения этой задачи команда анализирует нейронные паттерны, связанные с паралингвистическими особенностями.
Технология остаётся экспериментальной, но исследователи уверены, что при поддержке фондов она станет доступна в клиниках в течение десятилетия. Проект уже получил финансирование от Национального института глухоты и коммуникативных расстройств (NIDCD), японской программы Moonshot и частных организаций.
-
05.04.2025 20:08:00 | iXBT.com
05.04.2025 19:58:00 | iXBT.com
05.04.2025 19:52:00 | iXBT.com
05.04.2025 19:47:00 | iXBT.com
05.04.2025 16:42:26 | Ведомости
05.04.2025 16:05:00 | iXBT.com
05.04.2025 15:57:00 | iXBT.com
05.04.2025 15:46:02 | TechCult.ru
05.04.2025 15:41:00 | iXBT.com
05.04.2025 15:29:00 | iXBT.com
05.04.2025 15:27:00 | iXBT.com
05.04.2025 15:22:00 | iXBT.com
05.04.2025 15:16:00 | iXBT.com
05.04.2025 14:57:00 | iXBT.com
05.04.2025 14:53:00 | iXBT.com
05.04.2025 14:37:00 | iXBT.com
05.04.2025 14:33:00 | iXBT.com
05.04.2025 14:19:00 | iXBT.com
05.04.2025 14:00:00 | iXBT.com
05.04.2025 12:36:00 | iXBT.com
05.04.2025 12:11:00 | iXBT.com
05.04.2025 11:55:01 | TechCult.ru
05.04.2025 11:50:00 | iXBT.com
05.04.2025 10:51:00 | iXBT.com
05.04.2025 10:48:00 | iXBT.com
05.04.2025 10:34:00 | iXBT.com
05.04.2025 10:18:00 | iXBT.com
05.04.2025 09:48:00 | iXBT.com
05.04.2025 09:47:00 | iXBT.com
05.04.2025 09:46:00 | iXBT.com
05.04.2025 09:32:00 | iXBT.com
05.04.2025 09:23:00 | iXBT.com
05.04.2025 09:21:00 | iXBT.com
05.04.2025 09:01:00 | iXBT.com
-
06.04.2025 12:45:00 | ferra.ru
06.04.2025 10:30:30 | ferra.ru
06.04.2025 09:21:16 | Хабр
06.04.2025 09:00:35 | Хабр
06.04.2025 08:55:25 | Хабр
06.04.2025 08:39:49 | Хабр
06.04.2025 08:36:20 | Хабр
06.04.2025 08:15:11 | ferra.ru
06.04.2025 08:00:56 | Хабр
06.04.2025 07:30:24 | ferra.ru
06.04.2025 07:15:10 | Хабр
06.04.2025 05:15:53 | Хабр
Техническая поддержка проекта ВсеТут