Что такое энтропия?

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


2018-07-15 17:00

Теория хаоса

Термин «энтропия» широко применяют в естественных и точных науках. Впервые его ввели в термодинамике в качестве функции состояния термодинамической системы, которая определяла меру необратимого рассеивания энергии. В случае со статистической физикой энтропия характеризует вероятность появления одного из макроскопических состояний. Также термин весьма активно применяют в математике. В целом, энтропию можно интерпретировать в качестве меры неопределенности некоей системы. А можно в виде информационной емкости системы — последнее связано с именем американского математика Клода Шеннона.

Переведено и озвучено: DeeAFilm Studio

http://vk.com/deeafilm_studio

https://www.facebook.com/deeafilm/

Озвучил: Артём Бахтин

Перевод: Юрий Аркалов


Источник: www.facebook.com

Комментарии: