Искусственный интеллект (ИИ) превращает мозговые волны в произнесенные слова - это должно помочь пациентам с "синдромом запертого человека" (другое название - синдром "запертого внутри")

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Учёные наконец-то достигли прорыва в преобразовании сигналов мозга в звучную речь с точностью до 100%.

Этому состоянию посвящена 19 серия ("Взаперти") пятого сезона "Доктора Хауса". В этой серии молодой человек попал в ДТП на велосипеде. Будучи обездвиженным, он слышит разговор врачей, считающих пациента безнадежным и обсуждающих, как тот может послужить донором органов.

( https://vk.cc/ctSI7E ).

Синдром представляет собой состояние, когда пациент бодрствует и находится в сознании, и при этом у него имеются тетраплегия и паралич нижних пар черепных нервов, вследствие чего отсутствуют мимика, движения, речь, и общение с пациентом возможно только посредством движений глазных яблок...«Синдром запертого человека» развивается вследствие инсульта (кровоизлияния или инфаркта с локализацией в мосте мозга) с формированием тетраплегии и поражения ядер нижних пар черепных нервов и центров, участвующих в обеспечении горизонтальных движений глазных яблок. Реже, встречаются другие заболевания, вызывающие тяжелый распространенный паралич, такие как синдром Гийена – Барре и злокачественные опухоли с локализацией в задней черепной ямке и мосту мозга.

Синдром "запертого человека" также может быть результатом инфекции, опухолей, токсинов, травмы, артериовенозных мальформаций и употребления опиоидов.

У пациентов не нарушена когнитивная функция, в состоянии бодрствования у них открыты глаза, цикл сон-бодрствование в норме. Они могут слышать и видеть. Однако они не могут двигать нижней частью лица, жевать, глотать, говорить, дышать, двигать конечностями или совершать движения глаз в боковом направлении.

Подробнее об этом состоянии - https://vk.cc/ctSIkQ

Исследователи из Radboud University и UMC Utrecht достигли прорыва в преобразовании сигналов мозга в звучную речь с точностью до 100%.

Для эксперимента учёные попросили непарализованных людей с эпилепсией - с установленными мозговыми имплантами - произносить несколько слов вслух, пока измерялась активность их мозга.

О проведённом исследовании рассказывает на русском языке клинический психолог Апфельбаум А.-Э. Д.:

Команда использовала мозговые импланты и искусственный интеллект для непосредственного отображения активности мозга в речь у пациентов с эпилепсией.

Эта технология нацелена на восстановление голоса людям в состоянии "запертости", которые парализованы и не могут говорить. Исследователи считают, что успех этого проекта представляет собой значительное достижение в области интерфейсов мозг-компьютер.

Ключевые факты:

- С использованием комбинации мозговых имплантов и искусственного интеллекта исследователям удалось предсказывать произносимые слова с точностью от 92% до 100%.

- Команда сосредотачивалась на экспериментах с непарализованными людьми с временными мозговыми имплантами, декодируя их произнесенные слова на основе активности мозга.

- В настоящее время технология ориентирована на отдельные слова, но будущие цели включают в себя возможность предсказывать полные предложения и абзацы на основе активности мозга.

Исследователи из Radboud University и UMC Utrecht смогли превратить сигналы из мозга в звучную речь.

Декодируя сигналы из мозга с помощью комбинации имплантатов и искусственного интеллекта, они смогли предсказать слова, которые люди хотели сказать, с точностью от 92% до 100%.

Их результаты опубликованы в научном журнале, посвященном нейробиологической инженерии Journal of Neural Engineering

https://iopscience.iop.org/article/10.1088/1741-2552/ace8be

«Мы надеемся, что в конечном итоге сможем сделать эту технологию доступной для пациентов в состоянии 'запертости', которые парализованы и не могут общаться», - говорит Юлия Березуцкая (Julia Berezutskaya).

«Эти люди теряют способность двигать своими мышцами и, следовательно, говорить. Разрабатывая интерфейс мозг-компьютер, мы можем проанализировать активность мозга и вернуть им голос.»

Для эксперимента в их новой статье исследователи попросили непарализованных людей с временными мозговыми имплантами произносить несколько слов вслух, пока измерялась активность их мозга.

Ю. Березуцкая: «Затем мы смогли установить непосредственное соответствие между активностью мозга, с одной стороны, и речью, с другой. Мы также использовали продвинутые модели искусственного интеллекта, чтобы преобразовать эту активность мозга непосредственно в звучную речь.»

«Это означает, что мы не только смогли угадать, что говорили люди, но мы могли сразу же преобразовать эти слова в понятные, понимаемые звуки. Кроме того, воссозданная речь даже звучала как у исходного диктора - в его тональности и манере говорить.»

Эти результаты подчеркивают необходимость оптимизации модели для достижения наилучших результатов расшифровки речи и выделяют потенциал, который декодирование речи на основе реконструкции из сенсорномоторного кортекса может предложить для разработки следующего поколения технологии интерфейсов мозг-компьютер для коммуникации.


Источник: iopscience.iop.org

Комментарии: