Энтропия — это показатель регулярности или хаотичности сигнала, а также мера его индивидуальности

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Энтропия — это показатель регулярности или хаотичности сигнала, а также мера его индивидуальности. Например, походка людей, ритм шагов носит индивидуальный характер, и эту индивидуальность может уловить функция энтропии.

Существует более 40 видов функций энтропий, которые разрабатываются под отдельные задачи. В новой работе ученые ПетрГУ создали алгоритм, помогающий выбрать наиболее оптимальную энтропию (или их сочетание) для классификации сигналов.

Работу программы проверили на «коротких сигналах» — аналогичные, например, используют при снятии ЭЭГ с электроэнцефалографа. В итоге компьютер подобрал сочетание энтропий, которое позволит на 20% точнее классифицировать сигналы, а значит и выявлять нарушения в электрической активности головного мозга ?, которые возникают при эпилепсии, деменции и болезни Альцгеймера.

Результаты исследования опубликованы в журнале Mathematics.


Источник: vk.com

Комментарии: