Информация единицы измерения количества информации служат для измерения объёма информации - величины, исчисляемой логарифмически.

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости

Новостная лента форума ailab.ru


Информация единицы измерения количества информации служат для измерения объёма информации - величины, исчисляемой логарифмически. Чаще всего информация единицы измерения количества информации касается объёма компьютерной памяти и объёма данных, передаваемых по цифровым каналам связи. Единица - бит - является основой исчисления информации в цифровой технике. Особое название имеет 4 бита - ниббл (полубайт, тетрада, четыре двоичных разряда), которые вмещают в себя количество информации, содержащейся в одной шестнадцатеричной цифре. Итак, информация о единицах измерения количества информации будет выглядеть следующим образом: байт, килобайт, мегабайт, гигабайт.

Количество данных для передачи одной и той же информации может быть различным в зависимости от способа кодирования этой информации (от используемого алфавита).

Количество данных, обрабатываемых компьютером, измеряется в байтах, но чаще для этого используются более крупные единицы:

1 Килобайт (Кб) = 210 байт = 1024 байт.

1 Мегабайт (Мб) = 210 Кб = 1 048 576 байт.

1 Гигабайт (Гб) = 210 Мб = 1 073 741 824 байт.

1 килобайт (кб) = 103 байт = 1 000 байт.

1 мегабайт (мб) = 106 байт = 1 000 000 байт.

1 гигабайт (гб) = 109 байт = 1 000 000 000 байт.

Скорость передачи данных и пропускную способность каналов связи принято измерять в битах в секунду (бит/с) и кратных этому:

1 килобит (кбит/с) = 103 бит/с.

1 мегабит (мбит/с) = 106 бит/с.

1 гигабит (гбит/с) = 109 бит/с.

Объем информации, требующейся при полном отсутствии предварительных данных для выбора одного из двух равноценных и совершенно независимых вариантов, принято считать единицей информации и обозначать, как бит.

Технический способ измерения количества информации (или, точнее, информационного объема сообщения) основан на подсчета количества символов, из которых образовано сообщение. При этом не учитывается смысловое содержание сообщения. Например, многократное повторение одного и того же текста не несет новой информации, однако в результате занимает больший объем памяти, требует большего времени для передачи и т.п.

Алфавитный подход основан на том, что всякое сообщение можно закодировать с помощью конечной последовательности символов некоторого алфавита. Алфавитный подход является объективным, т.е. он не зависит от субъекта, воспринимающего сообщение. Смысл сообщения учитывается на этапе выбора алфавита кодирования либо не учитывается вообще. Алфавитный подход является объективным способом измерения информации в отличие от субъективного, содержательного, подхода.

Применение алфавитного подхода удобно при использовании технических средств работы с информацией.

При алфавитном подходе, если допустить, что все символы алфавита встречаются в тексте с одинаковой частотой (равновероятно), то количество информации, которое несет каждый символ (информационный вес одного символа), вычисляется по формуле: Х=log2 N, где N - мощность алфавита (полное количество символов, составляющих алфавит выбранного кодирования). В алфавите, который состоит из двух символов (двоичное кодирование), каждый символ несет 1 бит (2^1) информации; из четырех символов - каждый символ несет 2 бита информации (2^2); из восьми символов - 3 бита (2^3) и т.д. Один символ из алфавита мощностью 256 (2^8) несет в тексте 8 битов информации. Как мы уже выяснили, такое количество информации называется байт. Алфавит из 256 символов используется для представления текстов в компьютере. Один байт информации можно передать с помощью одного символа кодировки ASCII. Если весь текст состоит из K символов, то при алфавитном подходе размер содержащейся в нем информации I определяется по формуле: , где x - информационный вес одного символа в используемом алфавите.

Отличный от взглядов Хартли, Шеннона, Винера и Бриллюэна подход к определению понятия "количество информации", был предложен в 1965 году академиком А.Н. Колмогоровым, который он назвал алгоритмическим.

Исходя из того, что "по существу наиболее содержательным является представление о количестве информации "в чем-либо" (Х) и "о чем-либо" (Y)", А.Н. Колмогоров для оценки информации в одном конечном объекте относительно другого конечного объекта предложил использовать теорию алгоритмов. За количество информации при этом, принимается значение некоторой функции от сложности каждого из объектов и длины программы (алгоритма) преобразования одного объекта в другой.

Решение задачи определения количества информации в алгоритмическом подходе имеет общий вид и схематично выглядит следующим образом.

"Относительной сложностью" объекта Y при заданном Х будем считать минимальную длину "программы" Р получения Y из Х. Сформулированное так определение зависит от "метода программирования". Метод программирования есть не что иное, как функция, ставящая в соответствие программе Р и объекту Х объект Y".

Алгоритмическая информация может принимать как положительные, так и отрицательные значения.

Содержательный подход к измерению информации. Сообщение - информативный поток, который в процессе передачи информации поступает к приёмнику. Сообщение несёт информацию для человека, если содержащиеся в нём сведения являются для него новыми и понятными. Если сообщение не информативно, то количество информации с точки зрения человека = 0. Алфавитный подход к измерению информации не связывает количество информации с содержанием сообщения.

В содержательном подходе возможна качественная оценка информации: новая, срочная, важная и т.д.

Содержательный подход часто называют субъективным, так как разные люди (субъекты) информацию об одном и том же предмете оценивают по-разному. Но если число исходов не зависит от суждений людей (случай бросания кубика или монеты), то информация о наступлении одного из возможных исходов является объективной.

Вероятностный подход к измерения информации. Все события происходят с различной вероятностью, но зависимость между вероятностью событий и количеством информации, полученной при совершении того или иного события можно выразить формулой которую в 1948 году предложил Шеннон.

Комментарии: