Немного о понятии "информация" в технических системах

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Термин «информация» ведет свои истоки от латинского слова Informatio — «осведомленность», «разъяснение», «истолкование». На протяжении множества столетий он неоднократно менял свое значение. Изначально под информацией понималось представление, понятие, а уже позже так стали обозначать сведения и передачу устных или письменных сообщений. Но если оставаться на позиции изначальной этимологии слова, то невольно соглашаешься с тем, что понятие «информация» содержит в себе в качестве этимологической основы понятие «форма», которая в свою очередь содержит в себе некое знание, опять же как осведомленность, истолкование и пр.

С середины XX столетия информация становится общенаучным понятием, одним из базовых в кибернетике. Во многих энциклопедиях и словарях в обобщенном варианте можно прочитать, что информация — это одно из наиболее общих понятий науки, обозначающее некоторые сведения, совокупность каких-либо данных, знаний.

«Информация»— это... Информация. К сожалению, такого «тривиального» определения термину «информация» найти не удалось, и даже более того, определения, построенные по схеме «это принято называть», — заведомо уязвимы из-за своей незаконченности, которая может проявиться после изменения (расширения) смысла объектов или явлений, используемых в определении. Ибо сохраняется вероятность появления в уже известных объектах ранее неизвестных свойств, что меняет ранее выработанное понятие; сохраняется также возможность обнаружения ранее неизвестных объектов или явлений, свойствам которых ранее выработанные первичные понятия не вполне отвечают или даже совсем не отвечают» — писал Джон Миллер.

«В широком смысле информатика (ср. со сходными по звучанию и происхождению нем. Informatik и фр. Informatique, в противоположность традиционному англоязычному термину computer science — компьютерные науки — в США или computing science —вычислительная наука — в Британии) есть наука о вычислениях, хранении и обработке информации. Она включает дисциплины, так или иначе относящиеся к вычислительным машинам: как абстрактные, вроде анализа алгоритмов, так и довольно конкретные, к примеру, разработка языков программирования.

Согласно тезису Черча—Тьюринга все известные типы вычислительных машин качественно эквивалентны в своих возможностях: любое действие, выполнимое на одной вычислительной машине, также выполнимо и на другой. Тезис иногда преподносят как фундаментальный принцип информатики, обращая особое внимание на машину Тьюринга и машину фон-неймановской архитектуры, поскольку они имеют явное сходство с большинством из ныне действующих компьютеров. В рамках современной информатики ученые изучают также и другие типы машин, не только практически осуществимые (такие, как параллельные и квантовые компьютеры), но и сугубо абстрактные математические модели (к примеру, машина случайного доступа, которая имеет бесконечное число регистров).

Темами исследований в информатике являются вопросы: что можно, а что нельзя реализовать в программах (теория вычислимости и искусственный интеллект), каким образом можно решать специфические задачи с максимальной эффективностью (алгоритмы), в каком виде следует хранить и восстанавливать информацию специфического вида (структуры данных), как программы и люди должны взаимодействовать друг с другом (пользовательский интерфейс и языки программирования) и т. п.

Отдельной наукой информатика была признана лишь в 1970-х; до этого она развивалась в составе математики, электроники и других технических наук. Некоторые начала информатики можно обнаружить даже в лингвистике. С момента своего признания отдельной наукой информатика разработала собственные методы и терминологию».

Сегодня рассматриваются три фундаментальные и взаимосвязанные субстанции мира: материя, энергия и информация. Масса рассматривается как мера воздействия гравитации на материю и мера инерции; энергия — как мера движения материи; информация, понятая в количественном смысле, — как мера организации, присущей материальным объектам.

Вышеприведенное определение не дает полного представления понятия информации, а касается ее количественной стороны. То же самое и относительно формулы Шеннона, которая ориентируется на понятие «количество информации», определяет, что «общее количество информации в системе есть сумма ее величин, воплощенных в состояниях системы». Первоначально формула Шеннона была создана для нахождения экономичного кода при передачи информации по каналам связи, ограничивалась рассмотрением дискретных систем с конечным количеством состояний . Можно сказать, что в настоящее время вряд ли мы найдем такое общее определение информации, ??????? было бы годно на все случаи жизни при анализе совершенно разных объектов. «Не существует понятия «информации вообще», ?.?. как выражения чего-то общего, присущего одновременно количеству информации и содержанию информации. В этом отношении понятие информации аналогично понятию стоимости: в классической теории стоимости признается понятие стоимости товаров, которая рассматривается как количество воплощенного в них труда и потребительской стоимости, которая рассматривается как совокупность их потребительских качеств; но отсутствует понятие стоимости вообще, как выражения чего-то общего между двумя сторонами товара». Из этого ясно, что нынешнее определение понятия «информация» носит не только неопределенный и по сути не отвечающий на вопрос, что такое информация, и несет еще и двойственный характер: она имеет конкретное содержание (качество) и абстрактное количество .

Под информацией в широком смысле слова понимают отражение реального мира; в узком смысле — произвольные данные, которые являются объектом хранения, передачи и преобразования. Информацией в наше время называют: обмен сведениями между людьми, между человеком и автоматом, машиной и машиной, программой и программой и т.д.; обмен сигналами в животном и растительном мире; передачу признаков от клетки к клетке, от организма к организму (так называемая генетическая информация). Постепенно смысловое наполнение термина все более расширялось. Информация — это и сведения, поступающие к нам посредством телевидения, телеграфа, радио, телефона; и сведения, хранящиеся в архивах, библиотеках, базах данных. К информации относятся показатели измерительных приборов, привкус пищи, всевозможные запахи и т. п.

По мере расширения содержания данного понятия нарастала крайне важность осмысленной организации процессов движения и обрабатывания информации. Лишь рассматривая обмен информацией в целом, в качестве глобального явления, можно обнаружить его общие черты и закономерности, знание которых может стать весьма важным при исследовании и построении каждой отдельно взятой реализации настоящего явления.

Выполнение этой задачи взял на себя в 1948 ?. профессор математики Массачусетского технологического института Норберт Винер. В работе «Кибернетика, или управление и связь в животном и машине» он представил кибернетику как теорию управления и переработки информации. Под информацией стали понимать не все подряд сведения, а лишь те сведения, которые были новыми и приносили пользу для принятия каких-либо решений, обеспечивающих достижение цели управления. Другие же сведения информацией не являлись.

Н. Винер отметил фундаментальные основы управления и позволил установить общие свойства в различных средах — в природе, обществе, технике. Более того, Н. Винер попытался создать семантическую теорию информации, которая затем получила дальнейшее развитие. Ее сущность состоит по сути в том, что для постижения и применения информации ее адресату крайне важно иметь некоторые знания, поскольку абсолютная неосведомленность последнего перекрывает возможность получения им какой-либо значимой научной информации из сообщения о данном вопросе. Знание общих свойств окружающего мира дает возможность формализовать многие процессы в этих средах, применив мощный математический аппарат и средства компьютерной техники.

В 1949 ?. К. Шеннон и У. Уивер написали работу «Математическая теория связи». В данной статье (и в ряде других) для нахождения объема передаваемой информации они предложили использовать вероятностные методы, базирующиеся на охвате, преимущественно, знаковой структуры информации. В XX столетии стали бурно развиваться разнообразные средства связи (радио телеграф, телефон), конечная цель которых состояла в передаче сообщений. Их применение вызвало к жизни целый ряд вопросов: каким образом обеспечить надежность связи при существовании помех, какой метод кодирования сообщения использовать в том либо другом обстоятельстве, каким образом оптимизировать соотношение длины и смысла сообщения при кодировании и некоторые другие.

Комментарии: