Утром имел неосторожность про себя подумать хорошо!

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Но торжество моё было недолгим – та же неисправимая реальность меня настигла, накрыв неприятным сообщением, и ввергла в пространство рассуждения о таком явлении, как информация. И тут одно отягощающее обстоятельство – сила моего отторжения всего формального, и особенно в Церкви, – усугубило мой приход, простите меня, к критике информационного поля освещения церковных событий.

Опираясь на авторитетное мнение профессора Н.В. Черниговской о том, что мозг – не дуршлаг, и информация в нем задерживается навсегда, я намеренно перестал читать некоторые информационные ресурсы. Как правило, эти ресурсы преподают одинаковую, скучную, томно-нудную информацию, которая, по сути свой, является неким отчетом о том, что все живы и работают в поте лица. Да, такой себе жанр, – не тревожный, не военный, – пасторальный – мирно пасущееся духовенство со своей паствой на полях церковной жизни.

Но в какой-то момент мне пришла в голову мысль – а не может ли такое накопление одинаковых сюжетов привести к некой энтропии, информационной энтропии? Ведь любая система стремится к равновесию и выравниванию, и это правило справедливо для любой замкнутой системы, и наша Вселенная такова. Правда современная физика допускает, что одна из формулировок второго закона термодинамики – закон неубывания энтропии в замкнутых системах – может нарушаться. Энтропия, как выяснила международная группа ученых, может убывать в энергетически изолированных квантовых системах. Но всё же классическая энтропия обрекает нас на термодинамическое вымирание!

А информация? – это же, наверное, другое! – подумал я. И как же было удивительно узнать о том, что информационная энтропия – явление законное и научное!

«В теории информации энтропия — это средняя скорость генерирования значений некоторым случайным источником данных. Величина информационной энтропии, связанная с определенным значением данных, вычисляется по формуле:

H=?n?i=1PilogPi,

где Pi — вероятность i-го состояния системы (значения принимаемого переменной), n — число состояний системы (значений, принимаемых переменной).

Когда источник данных генерирует значение, имеющее низкую вероятность (т.е. когда происходит маловероятное, неожиданное событие), с ним связана большая информация, чем с более вероятным событием. Количество информации, выражаемое событием, связанным с появлением определенного значения данных, можно рассматривать как случайную переменную, математическое ожидание которой и равно информационной энтропии.

Таким образом, информационную энтропию можно рассматривать как меру неупорядоченности или неопределенности состояния некоторой системы, описываемой данными. В этом смысле она является прямым аналогом понятия энтропии, используемой в статистической термодинамике. Впервые понятие энтропии как меры информации было введено К. Шенноном в 1948 году».

И вот мой собственный, безусловно, для многих неверный, вывод: лучше меньше, да интереснее!


Источник: vk.com

Комментарии: