Информация

Материал из Википедии — свободной энциклопедии
(перенаправлено с «Контент»)
Перейти к: навигация, поиск

Информация (от лат. informatio — «разъяснение, изложение, осведомлённость») — сведения (сообщения, данные), независимо от формы их представления [1].

В настоящее время не существует единого определения информации как научного термина. С точки зрения различных областей знания данное понятие описывается своим специфическим набором признаков. Понятие «информация» является базовым (первичным) в курсе информатики, где невозможно дать его определение через другие, более «простые» понятия (так же, в геометрии, например, невозможно выразить содержание базовых понятий «точка», «прямая», «плоскость» через более простые). Содержание основных, базовых понятий в любой науке должно быть пояснено на примерах или выявлено путём их сопоставления с содержанием других понятий. В случае с понятием «информация» проблема его определения ещё более сложная, так как оно является общенаучным понятием. Данное понятие используется в различных науках (информатике, кибернетике, биологии, физике и др.), при этом в каждой науке понятие «информация» связано с различными системами понятий.

История понятия[править | править вики-текст]

Слово «информация» происходит от лат. informatio, что в переводе обозначает сведение, разъяснение, ознакомление. Понятие информации рассматривалось ещё античными философами.

До начала промышленной революции, определение сути информации оставалось прерогативой преимущественно философов. В XX веке вопросами теории информации стали заниматься кибернетика и информатика.

Классификация информации[править | править вики-текст]

Информацию можно разделить на виды по различным критериям:

по способу восприятия:

  • Визуальная — воспринимаемая органами зрения.
  • Аудиальная — воспринимаемая органами слуха.
  • Тактильная — воспринимаемая тактильными рецепторами.
  • Обонятельная — воспринимаемая обонятельными рецепторами.
  • Вкусовая — воспринимаемая вкусовыми рецепторами.

по форме представления:

  • Текстовая — передаваемая в виде символов, предназначенных обозначать лексемы языка.
  • Числовая — в виде цифр и знаков, обозначающих математические действия.
  • Графическая — в виде изображений, предметов, графиков.
  • Звуковая — устная или в виде записи и передачи лексем языка аудиальным путём.
  • Видеоинформация — передаваемая в виде видеозаписи.

по назначению:

  • Массовая — содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума.
  • Специальная — содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация.
  • Секретная — передаваемая узкому кругу лиц и по закрытым (защищённым) каналам.
  • Личная (приватная) — набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции.

по значению:

  • Актуальная — информация, ценная в данный момент времени.
  • Достоверная — информация, полученная без искажений.
  • Понятная — информация, выраженная на языке, понятном тому, кому она предназначена.
  • Полная — информация, достаточная для принятия правильного решения или понимания.
  • Полезная — полезность информации определяется субъектом, получившим информацию в зависимости от объёма возможностей её использования.

по истинности:

Значение термина в различных областях знания[править | править вики-текст]

Философия[править | править вики-текст]

Традиционализм субъективного постоянно доминировал в ранних философских определениях информации, как категории, понятия, свойства материального мира. Информация существует независимо от нашего сознания, и может иметь отражение в нашем восприятии только как результат взаимодействия: отражения, чтения, получения в виде сигнала, стимула. Информация нематериальна, как и все свойства материи. Информация стоит в ряду: материя, пространство, время, системность, функция, и др. что есть основополагающие понятия формализованного отражения объективной реальности в её распространении и изменчивости, разнообразии и проявленности. Информация — свойство материи и отражает её свойства (состояние или способность взаимодействия) и количество (мера) путём взаимодействия.

С материальной точки зрения информация — это порядок следования объектов материального мира[источник не указан 610 дней]. Например, порядок следования букв на листе бумаги по определенным правилам является письменной информацией. Порядок следования разноцветных точек на листе бумаги по определенным правилам является графической информацией. Порядок следования музыкальных нот является музыкальной информацией. Порядок следования генов в ДНК является наследственной информацией. Порядок следования битов в ЭВМ является компьютерной информацией и т. д. и т. п. Для осуществления информационного обмена требуется наличие необходимых и достаточных условий.

Необходимые условия:

  1. Наличие не менее двух различных объектов материального или нематериального мира.
  2. Наличие у объектов общего свойства, позволяющего идентифицировать объекты в качестве носителя информации.
  3. Наличие у объектов специфического свойства, позволяющего различать объекты друг от друга.
  4. Наличие свойства пространства, позволяющее определить порядок следования объектов. Например, расположение письменной информации на бумаге — это специфическое свойство бумаги, позволяющее располагать буквы слева направо и сверху вниз.

Достаточное условие одно:
Наличие субъекта, способного распознавать информацию. Это человек и человеческое общество, общества животных, роботов и т. д.

Различные объекты (буквы, символы, картинки, звуки, слова, предложения, ноты и т. п.), взятые по одному разу, образуют базис информации. Информационное сообщение строится путем выбора из базиса копий объектов и расположения этих объектов в пространстве в определенном порядке. Длина информационного сообщения определяется как количество копий объектов базиса и всегда выражается целым числом. Необходимо различать длину информационного сообщения, которое всегда измеряется целым числом, и количество знаний, содержащегося в информационном сообщении, которое измеряется в неизвестной единице измерения.

С математической точки зрения информация — это последовательность целых чисел, которые записаны в вектор. Числа — это номер объекта в базисе информации. Вектор называется инвариантом информации, так как он не зависит от физической природы объектов базиса. Одно и то же информационное сообщение может быть выражено буквами, словами, предложениями, файлами, картинками, нотами, песнями, видеоклипами, любой комбинацией всех ранее названных. Чем бы мы ни выражали информацию — изменяется только базис, а не инвариант.

В информатике[править | править вики-текст]

Предметом изучения науки являются именно данные: методы их создания, хранения, обработки и передачи[2]

Контент (также: наполнение («наполнение сайта») или содержимое («содержимое сайта»)) — термин[источник не указан 173 дня], означающий все виды информации (как текстовой, так и мультимедийной — изображения, аудио, видео), составляющей наполнение (визуализированное, для посетителя, содержимое) веб-сайта.

Применяется для отделения понятия информации, составляющей внутреннюю структуру страницы/сайта (код), от той, что будет в итоге выведена на экран.

Системология[править | править вики-текст]

Работа с информацией связана с преобразованиями и всегда подтверждает её материальную природу:

  • запись — формирование структуры материи и модуляции потоков путём взаимодействия инструмента с носителем;
  • хранение — стабильность структуры (квазистатика) и модуляции (квазидинамика);
  • чтение (изучение) — взаимодействие зонда (инструмента, преобразователя, детектора) с субстратом или потоком материи.

Системология рассматривает информацию через связь с другими основаниями: I=S/F[MṿRṿT], где: I — информация; S — системность мироздания; F — функциональная связь; M — материя; ṿ — (v подчёркнутое) знак великого объединения (системности, единства оснований); R — пространство; T — Время.

В физике[править | править вики-текст]

Объекты материального мира находятся в состоянии непрерывного изменения, которое характеризуется обменом энергией объекта с окружающей средой. Изменение состояния одного объекта всегда приводит к изменению состояния некоторого другого объекта окружающей среды. Это явление вне зависимости от того, как, какие именно состояния и каких именно объектов изменились, может рассматриваться как передача сигнала от одного объекта другому. Изменение состояния объекта при передаче ему сигнала называется регистрацией сигнала.

Сигнал или последовательность сигналов образуют сообщение, которое может быть воспринято получателем в том или ином виде, а также в том или ином объёме. Информация в физике есть термин, качественно обобщающий понятия «сигнал» и «сообщение». Если сигналы и сообщения можно исчислять количественно, то можно сказать, что сигналы и сообщения являются единицами измерения объёма информации.

Одно и то же сообщение (сигнал) разными системами интерпретируется по-своему. Например, последовательно длинный и два коротких звуковых (а тем более в символьном кодировании -..) сигнала в терминологии азбуки Морзе — это буква Д (или D), в терминологии БИОС от фирмы AWARD — неисправность видеокарты.

В математике[править | править вики-текст]

В математике теория информации (математическая теория связи) — раздел прикладной математики, определяющий понятие информации, её свойства и устанавливающий предельные соотношения для систем передачи данных. Основные разделы теории информации — кодирование источника (сжимающее кодирование) и канальное (помехоустойчивое) кодирование. Математика является больше чем научной дисциплиной. Она создает единый язык всей Науки.

Предметом исследований математики являются абстрактные объекты: число, функция, вектор, множество, и другие. При этом большинство из них вводится аксиоматически (аксиома), то есть без всякой связи с другими понятиями и без какого-либо определения.

Информация не входит в число предметов исследования математики. Тем не менее, слово «информация» употребляется в математических терминах — собственная информация и взаимная информация, относящихся к абстрактной (математической) части теории информации. Однако, в математической теории понятие «информация» связано с исключительно абстрактными объектами — случайными величинами, в то время как в современной теории информации это понятие рассматривается значительно шире — как свойство материальных объектов.

Связь между этими двумя одинаковыми терминами несомненна. Именно математический аппарат случайных чисел использовал автор теории информации Клод Шеннон. Сам он подразумевает под термином «информация» нечто фундаментальное (нередуцируемое). В теории Шеннона интуитивно полагается, что информация имеет содержание. Информация уменьшает общую неопределённость и информационную энтропию. Количество информации доступно измерению. Однако он предостерегает исследователей от механического переноса понятий из его теории в другие области науки.

«Поиск путей применения теории информации в других областях науки не сводится к тривиальному переносу терминов из одной области науки в другую. Этот поиск осуществляется в длительном процессе выдвижения новых гипотез и их экспериментальной проверке.»
К. Шеннон.

В юриспруденции[править | править вики-текст]

Правовое определение понятия «информация» дано в федеральном законе от 27 июля 2006 года № 149-ФЗ «Об информации, информационных технологиях и о защите информации» (Статья 2): «информация — сведения (сообщения, данные) независимо от формы их представления».

Федеральный закон № 149-ФЗ определяет и закрепляет права на защиту информации и информационную безопасность граждан и организаций в ЭВМ и в информационных системах, а также вопросы информационной безопасности граждан, организаций, общества и государства.

В теории управления[править | править вики-текст]

В теории управления (кибернетике), предметом исследования которой являются основные законы управления, то есть развития систем управления, информацией называются сообщения, получаемые системой из внешнего мира при адаптивном управлении (приспособлении, самосохранении системы управления).

В кибернетике[править | править вики-текст]

Основоположник кибернетики Норберт Винер говорил об информации так:

"Информация — это не материя и не энергия, информация — это информация"

Н. Винер Кибернетика, или управление и связь в животном и машине; или Кибернетика и общество

Но основное определение информации, которое он дал в нескольких своих книгах, следующее:

Информация — это обозначение содержания, полученное нами из внешнего мира в процессе приспосабливания к нему нас и наших чувств.

Н. Винер Кибернетика, или управление и связь в животном и машине; или Кибернетика и общество

Эта мысль Винера дает прямое указание на объективность информации, то есть её существование в природе независимо от сознания (восприятия) человека.

Объективную информацию современная кибернетика определяет как объективное свойство материальных объектов и явлений порождать многообразие состояний, которые посредством фундаментальных взаимодействий материи передаются от одного объекта (процесса) другому и запечатлеваются в его структуре[3].

Материальная система в кибернетике рассматривается как множество объектов, которые сами по себе могут находиться в различных состояниях, но состояние каждого из них определяется состояниями других объектов системы. В природе множество состояний системы представляет собой информацию, сами состояния представляют собой первичный код, или код источника. Таким образом, каждая материальная система является источником информации.

Субъективную (семантическую) информацию кибернетика определяет как смысл или содержание сообщения. Информация — это характеристика объекта.

Информация в материальном мире[править | править вики-текст]

Информация — одно из общих понятий, связанных с материей. Информация существует в любом материальном объекте в виде многообразия его состояний и передается от объекта к объекту в процессе их взаимодействия. Существование информации как объективного свойства материи логически вытекает из известных фундаментальных свойств материи — структурности, непрерывного изменения (движения) и взаимодействия материальных объектов.

Структурность материи проявляется как внутренняя расчленённость целостности, закономерный порядок связи элементов в составе целого. Иными словами, любой материальный объект, от субатомной частицы до Метавселенной (Большой взрыв) в целом, представляет собой систему взаимосвязанных подсистем. Вследствие непрерывного движения, понимаемого в широком смысле как перемещение в пространстве и развитие во времени, материальные объекты изменяют свои состояния. Состояния объектов изменяется и при взаимодействиях с другими объектами.

Множество состояний материальной системы и всех её подсистем представляет информацию о системе.

Строго говоря, в силу инфинитности (неопределенности, бесконечности) свойства структурности, количество объективной информации в любом материальном объекте бесконечно. Эта информация называется полной. Однако можно выделять структурные уровни с конечными множествами состояний. Информация, существующая на структурном уровне с конечным числом состояний, называется частной. Для частной информации имеет смысл понятие количество информации.

Из приведенного представления логично и просто вытекает выбор единицы измерения количества информации. Представим себе систему, которая может находиться всего в двух равновероятных состояниях. Присвоим одному из них код «1», а другому — «0». Это минимальное количество информации, которое может содержать система. Оно и является единицей измерения информации и называется бит (от английского bit — binary digit -двоичная цифра). Существуют и другие, более сложно определяемые, способы и единицы измерения количества информации.

В зависимости от материальной формы носителя, информация бывает двух основных видов — аналоговая и дискретная. Аналоговая информация изменяется во времени непрерывно, и принимает значения из континуума значений. Дискретная информация изменяется в некоторые моменты времени и принимает значения из некоторого множества значений.

Любой материальный объект или процесс является первичным источником информации. Все возможные его состояния составляют код источника информации. Мгновенное значение состояний представляется как символ («буква») этого кода.

Для того чтобы информация могла передаваться от одного объекта другому как к приемнику, необходимо, чтобы был какой-то промежуточный материальный носитель, взаимодействующий с источником. Такими переносчиками в природе, как правило, являются быстро распространяющиеся процессы волновой структуры — космические, гамма и рентгеновские излучения, электромагнитные и звуковые волны, потенциалы (а может быть и ещё не открытые волны) гравитационного поля. При взаимодействии электромагнитного излучения с объектом в результате поглощения или отражения изменяется его спектр, то есть изменяются интенсивности некоторых длин волн. Изменяются при взаимодействиях с объектами и гармоники звуковых колебаний. Информация передаётся и при механическом взаимодействии, однако механическое взаимодействие, как правило, приводит к большим изменениям структуры объектов (вплоть до их разрушения), и информация сильно искажается. Искажение информации при её передаче называется дезинформацией.

Перенос информации источника на структуру носителя называется кодированием. При этом происходит преобразование кода источника в код носителя. Носитель с перенесенным на него кодом источника в виде кода носителя называется сигналом.

Tomato.png
Пример. Имеется объект шарообразной формы (источник), взаимодействуя с которым, видимый диапазон спектра электромагнитного излучения, отражённого от объекта, (носитель) изменяется в результате его поглощения или отражения объектом так, что наибольшую интенсивность получает его участок с частотами 484—405 терагерц (сигнал).
(Продолжение примера — в секции «Информация в живой природе»).

Приемник сигнала имеет свой набор возможных состояний, который называется кодом приемника. Сигнал, взаимодействуя с объектом-приемником, изменяет его состояния. Процесс преобразования кода сигнала в код приёмника называется декодированием.

Передачу информации от источника приемнику можно рассматривать как информационное взаимодействие. Информационное взаимодействие кардинально отличается от других взаимодействий. При всех других взаимодействиях материальных объектов происходит обмен веществом и (или) энергией. При этом один из объектов теряет вещество или энергию, а другой получает их. Это свойство взаимодействий называется симметричностью. При информационном взаимодействии приемник получает информацию, а источник не теряет её. Информационное взаимодействие несимметрично.

Объективная информация сама по себе не материальна, она является свойством материи, как, например, структурность, движение, и существует на материальных носителях в виде своих кодов.

Информация в живой природе[править | править вики-текст]

Живая природа сложна и разнообразна. Источниками и приёмниками информации в ней являются живые организмы и их клетки. Организм обладает рядом свойств, отличающих его от неживых материальных объектов. Основные из них:

  • непрерывный обмен веществом, энергией и информацией с окружающей средой;
  • раздражимость, способность организма воспринимать и перерабатывать информацию об изменениях окружающей среды и внутренней среды организма;
  • возбудимость, способность реагировать на действие раздражителей;
  • самоорганизация, проявляемая как изменения организма для адаптации к условиям внешней среды;

Организм, рассматриваемый как система, имеет иерархическую структуру. Эта структура относительно самого организма подразделяется на внутренние уровни: молекулярный, клеточный, уровень органов и, наконец, собственно организм. Однако организм взаимодействует и с надорганизменными живыми системами, уровнями которых являются популяция, экосистема и вся живая природа в целом (биосфера).

Между всеми этими уровнями циркулируют потоки не только вещества и энергии, но и информации.

Информационные взаимодействия в живой природе происходят так же, как и в неживой. Вместе с тем, живая природа в процессе эволюции создала широкое разнообразие источников, носителей и приёмников информации.

Реакция на воздействия внешнего мира проявляется у всех организмов, поскольку она обусловлена раздражимостью. У высших организмов адаптация к внешней среде носит характер сложной деятельности, которая эффективна лишь при достаточно полной и своевременной информации об окружающей среде. Приёмниками информации из внешней среды у них являются органы чувств, к которым относят зрение, слух, обоняние, вкус, осязание и вестибулярный аппарат, рецепторы чувства боли, рецепторы температуры, рецепторы тактильных ощущений. Во внутренней структуре организмов имеются многочисленные внутренние рецепторы, связанные с нервной системой. Нервная система состоит из нейронов, отростки которых аксоны и дендриты представляют собой аналог каналов передачи информации. Главными органами, обеспечивающими хранение и обработку информации у позвоночных, являются спинной мозг и головной мозг. В соответствии с особенностями строения органов чувств информацию, воспринимаемую организмом, можно классифицировать как визуальную, слуховую, вкусовую, обонятельную и тактильную, температурную, информацию вестибулярного аппарата.

Пример (продолжение). Попадая на сетчатку человеческого глаза, сигнал особым образом возбуждает составляющие её клетки. Нервный импульсы клеток через аксоны передаются в мозг. Мозг запоминает это ощущение в виде определенной комбинации состояний составляющих его нейронов. (Продолжение примера — в секции «Информация в человеческом обществе»).

Накапливая информацию, мозг создает на своей структуре связную информационную модель окружающего мира.

В живой природе для организма — приёмника информации важной характеристикой является её доступность. Количество информации, которое нервная система человека способна подать в мозг при чтении текстов, составляет примерно 1 бит за 1/16 с.

Исследование организмов затруднено их сложностью. Допустимая для неживых объектов абстракция структуры как математического множества вряд ли допустима для живого организма, потому что для создания более или менее адекватной абстрактной модели организма необходимо учесть все иерархические уровни его структуры. Поэтому сложно ввести меру количества информации. Очень сложно определяются связи между компонентами структуры. Если известно, какой орган является источником информации, то что является сигналом и что приемником?

До появления вычислительных машин биология занимающаяся исследованиями живых организмов, применяла только качественные, то есть описательные модели. В качественной модели учесть информационные связи между компонентами структуры практически невозможно. Электронно-вычислительная техника позволила применить в биологических исследованиях новые методы, в частности, метод машинного моделирования, предполагающий математическое описание известных явлений и процессов, происходящих в организме, добавление к ним гипотез о некоторых неизвестных процессах и расчет возможных вариантов поведения организма. Полученные варианты сравниваются с реальным поведением организма, что позволяет определить истинность или ложность выдвинутых гипотез. В таких моделях можно учесть и информационное взаимодействие.

Чрезвычайно сложными являются информационные процессы, обеспечивающие существование самой жизни. И хотя интуитивно понятно, что это свойство прямо связано с формированием, хранением и передачей полной информации о структуре организма, абстрактное описание этого феномена представлялось до некоторых пор невозможным. Тем не менее, информационные процессы, обеспечивающие существование этого свойства, частично раскрыты благодаря расшифровке генетического кода и прочтению геномов различных организмов.

Информация в человеческом обществе[править | править вики-текст]

Развитие материи в процессе движения направлено в сторону усложнения структуры материальных объектов. Одна из самых сложных структур — человеческий мозг. Пока это единственная известная нам структура, обладающая свойством, которое сам человек называет сознанием. Говоря об информации мы, как мыслящие существа, априорно подразумеваем, что информация, кроме её наличия в виде принимаемых нами сигналов, имеет ещё и какой-то смысл. Формируя в своем сознании модель окружающего мира как взаимосвязанную совокупность моделей его объектов и процессов, человек использует именно смысловые понятия, а не информацию. Смысл — сущность любого феномена, которая не совпадает с ним самим и связывает его с более широким контекстом реальности. Смысл — понятие, описывающее глобальное содержание некоторого высказывания (см. БСЭ. Смысл). Само слово прямо указывает, что смысловое содержание информации могут формировать только мыслящие приемники информации. В человеческом обществе решающее значение приобретает не сама информация, а её смысловое содержание.

Пример (продолжение). Испытав такое ощущение, человек присваивает объекту понятие — «помидор», а его состоянию понятие — «красный цвет». Кроме того, его сознание фиксирует связь: «помидор» — «красного цвета». Это и есть смысл принятого сигнала. (Продолжение примера: ниже в этой секции).

Способность мозга создавать смысловые понятия и связи между ними является основой сознания. Сознание можно рассматривать как саморазвивающуюся смысловую модель окружающего мира.

Смысл — это не информация. Информация существует только на материальном носителе. Сознание человека считается нематериальным[комм. 1]. Смысл существует в сознании человека в виде слов, образов и ощущений. Человек может произносить слова не только вслух, но и «про себя». Он также «про себя» может создавать (или вспоминать) образы и ощущения. Однако, он может восстановить информацию, соответствующую этому смыслу, произнеся слова или написав их.

Пример (продолжение). Если слова «помидор» и «красный цвет» — смысл понятий, то где же тогда информация? Информация содержится в мозге в виде определенных состояний его нейронов. Она содержится также в напечатанном тексте, состоящем из этих слов, и при кодировании букв трехразрядным двоичным кодом её количество равно 120 бит. Если произнести слова вслух, информации будет значительно больше, но смысл останется тем же. Наибольшее количество информации несёт зрительный образ. Это отражается даже в народном фольклоре — «лучше один раз увидеть, чем сто раз услышать».

Восстановленная таким образом информация называется семантической информацией, поскольку она кодирует смысл некоторой первичной информации (семантика).

ПОМИДОР — КРАСНЫЙ
Семантическая информация

Услышав (или увидев) фразу, произнесенную (или написанную) на языке, которого человек не знает, он получает информацию, но не может определить её смысл. Поэтому для передачи смыслового содержания информации необходимы некоторые соглашения между источником и приемником о смысловом содержании сигналов, то есть слов. Такие соглашения могут быть достигнуты в процессе общения. Общение является одним из важнейших условий существования человеческого общества. Общение включает в себя следующие информационные процессы:

Хранение информации[править | править вики-текст]

Хранение информации осуществляется с помощью её переноса на некоторые материальные носители. Семантическая информация, зафиксированная на материальном носителе для хранения, называется документом.

Хранить информацию человечество научилось очень давно. В наиболее древних формах хранения информации использовалось расположение предметов — раковин и камней на песке, узелков на верёвке. Существенным развитием этих способов явилась письменность — графическое изображение символов на камне, глине, папирусе, бумаге. Огромное значение в развитии этого направления имело изобретение книгопечатания. За свою историю человечество накопило огромный объём информации в библиотеках, архивах, периодических изданиях и других письменных документах.

В настоящее время особое значение получило хранение информации в виде последовательностей двоичных символов. Для реализации этих методов используются разнообразные запоминающие устройства. Они являются центральным звеном систем хранения информации. Кроме них в таких системах используются средства поиска информации (поисковая система), средства получения справок (информационно-справочные системы) и средства отображения информации (устройство вывода). Сформированные по назначению информации такие информационные системы образуют базы данных, банки данных и базы знаний.

Передача информации[править | править вики-текст]

Передачей семантической информации называется процесс её пространственного переноса от источника к получателю (адресату). Передавать и получать информацию человек научился даже раньше, чем хранить её. Речь является способом передачи, который использовали наши далекие предки в непосредственном контакте (разговоре) — ею мы пользуемся и сейчас. Для передачи информации на большие расстояния необходимо использовать значительно более сложные информационные процессы.

Для осуществления такого процесса информация должна быть некоторым образом оформлена (представлена). Для представления информации используются различные знаковые системы — наборы заранее оговоренных смысловых символов: предметов, картинок, написанных или напечатанных слов естественного языка. Представленная с их помощью семантическая информация о каком-либо объекте, явлении или процессе называется сообщением.

Очевидно, что для передачи сообщения на расстояние информация должна быть перенесена на какой-либо мобильный носитель. Носители могут перемещаться в пространстве с помощью транспортных средств, как это происходит с письмами, посылаемыми по почте. Такой способ обеспечивает полную достоверность передачи информации, поскольку адресат получает оригинал сообщения, однако требует значительного времени для передачи. С середины XIX века получили распространение способы передачи информации, использующие естественно распространяющийся носитель информации — электромагнитные колебания (электрические колебания, радиоволны, свет). Реализация этих способов требует:

  1. предварительного переноса информации, содержащейся в сообщении, на носитель — кодирования;
  2. обеспечения передачи полученного таким образом сигнала адресату по специальному каналу связи;
  3. обратного преобразования кода сигнала в код сообщения — декодирования.

Использование электромагнитных носителей делает доставку сообщения адресату почти мгновенной, однако требует дополнительных мер по обеспечению качества (достоверности и точности) передаваемой информации, поскольку реальные каналы связи подвержены воздействию естественных и искусственных помех.

Устройства, реализующие процесс передачи данных, образуют системы связи. В зависимости от способа представления информации системы связи можно подразделять на знаковые (телеграф, телефакс), звуковые (телефон), видео и комбинированные системы (телевидение). Наиболее развитой системой связи в наше время является Интернет.

Обработка информации[править | править вики-текст]

Поскольку информация нематериальна, её обработка заключается в различных преобразованиях. К процессам обработки можно отнести любые переносы информации с носителя на другой носитель. Информация, предназначенная для обработки, называется данными.

Основным видом обработки первичной информации, полученной различными приборами, является преобразование в форму, обеспечивающую её восприятие органами чувств человека. Так, фотоснимки космоса, полученные в рентгеновских лучах, преобразуются в обычные цветные фотографии с использованием специальных преобразователей спектра и фотоматериалов. Приборы ночного видения преобразуют изображение, получаемое в инфракрасных (тепловых) лучах, в изображение в видимом диапазоне. Для некоторых задач связи и управления необходимо преобразование аналоговой информации в дискретную и наоборот. Для этого используются аналого-цифровые и цифро-аналоговые преобразователи сигналов.

Важнейшим видом обработки семантической информации является определение смысла (содержания), заключающегося в некотором сообщении. В отличие от первичной семантическая информация не имеет статистических характеристик, то есть количественной меры — смысл либо есть, либо его нет. А сколько его, если он есть — установить невозможно. Содержащийся в сообщении смысл описывается на искусственном языке, отражающем смысловые связи между словами исходного текста. Словарь такого языка, называемый тезаурусом, находится в приемнике сообщения. Смысл слов и словосочетаний сообщения определяется путем их отнесения к определенным группам слов или словосочетаний, смысл которых уже установлен. Тезаурус, таким образом, позволяет установить смысл сообщения и, одновременно, пополняется новыми смысловыми понятиями. Описанный вид обработки информации применяется в информационно-поисковых системах и системах машинного перевода.

Одним из широко распространенных видов обработки информации является решение вычислительных задач и задач автоматического управления с помощью вычислительных машин.

Обработка информации всегда производится с некоторой целью. Для её достижения должен быть известен порядок действий над информацией, приводящий к заданной цели. Такой порядок действий называется алгоритмом. Кроме самого алгоритма необходимо также некоторое устройство, реализующее этот алгоритм. В научных теориях такое устройство называется автоматом.

Следует отметить как важнейшую особенность информации тот факт, что в силу несимметричности информационного взаимодействия при обработке информации возникает новая информация, а исходная информация не теряется.

Информация в науке[править | править вики-текст]

В современном мире информация представляет собой один из важнейших ресурсов и, в то же время, одну из движущих сил развития человеческого общества. Информационные процессы, происходящие в материальном мире, живой природе и человеческом обществе изучаются (или, по крайней мере, учитываются) всеми научными дисциплинами от философии до маркетинга.

Возрастающая сложность задач научных исследований привела к необходимости привлечения к их решению больших коллективов ученых разных специальностей. Поэтому практически все рассматриваемые ниже теории являются междисциплинарными.

Исторически сложилось так, что исследованием непосредственно информации занимаются две комплексных отрасли науки — кибернетика и информатика.

Современная кибернетика — это мультидисциплинарная отрасль науки, исследующая сверхсложные системы, такие как:

  • человеческое общество (социальная кибернетика),
  • экономика (экономическая кибернетика),
  • живой организм (биологическая кибернетика),
  • человеческий мозг и его функция — сознание (искусственный интеллект).

Информатика, сформировавшаяся как наука в середине прошлого века, отделилась от кибернетики и занимается исследованиями в области способов получения, хранения, передачи и обработки семантической информации.

Обе эти отрасли используют несколько основополагающих научных теорий. К ним относятся теория информации и её разделы — теория кодирования, теория алгоритмов и теория автоматов.

Исследования смыслового содержания информации основываются на комплексе научных теорий под общим названием семиотика.

Теория информации[править | править вики-текст]

Теория информации — комплексная, в основном математическая теория, включающая в себя описание и оценки методов извлечения, передачи, хранения и классификации информации.

Рассматривает носители информации как элементы абстрактного (математического) множества, а взаимодействия между носителями как способ расположения элементов в этом множестве. Такой подход дает возможность формально описать код информации, то есть определить абстрактный код и исследовать его математическими методами. Для этих исследований применяет методы теории вероятностей, математической статистики, линейной алгебры, теории игр и других математических теорий.

Основы этой теории заложил американский учёный Э. Хартли в 1928 г., который определил меру количества информации для некоторых задач связи. Позднее теория была существенно развита американским учёным К. Шенноном, российскими учёными А. Н. Колмогоровым, В.М Глушковым и др.

Современная теория информации включает в себя как разделы теорию кодирования, теорию алгоритмов, теорию цифровых автоматов (см. ниже) и некоторые другие.

Существуют и альтернативные теории информации, например «Качественная теория информации», предложенная польским учёным М. Мазуром.

Теория алгоритмов[править | править вики-текст]

C понятием алгоритма знаком любой человек, даже не подозревая об этом. Вот пример неформального алгоритма:

«Помидоры нарезать кружочками или дольками. Положить в них нашинкованный лук, полить растительным маслом, затем посыпать мелко нарезанным стручковым перцем, перемешать. Перед употреблением посыпать солью, уложить в салатник и украсить зеленью петрушки.» (Салат из помидоров).

Первые в истории человечества правила решения арифметических задач были разработаны одним из известных учёных древности Аль-Хорезми в IX веке нашей эры. В его честь формализованные правила для достижения какой-либо цели называют алгоритмами (ранее употреблялся термин «алгорифм»).

Предметом теории алгоритмов является нахождение методов построения и оценки эффективных (в том числе и универсальных) вычислительных и управляющих алгоритмов для обработки информации. Для обоснования таких методов теория алгоритмов использует математический аппарат теории информации.

Современное научное понятие алгоритмов как способов обработки информации введено в работах Э. Поста и А. Тьюринга в 20-х годах ХХ века (Машина Тьюринга). Большой вклад в развитие теории алгоритмов внесли русские ученые А. Марков (Нормальный алгоритм Маркова) и А. Колмогоров.

Теория автоматов[править | править вики-текст]

Теория автоматов — раздел теоретической кибернетики, в котором исследуются математические модели реально существующих или принципиально возможных устройств перерабатывающих дискретную информацию в дискретные моменты времени.

Понятие автомата возникло в теории алгоритмов. Если существуют некоторые универсальные алгоритмы решения вычислительных задач, то должны существовать и устройства (пусть и абстрактные) для реализации таких алгоритмов. Собственно, абстрактная машина Тюринга, рассматриваемая в теории алгоритмов, является в то же время и неформально определённым автоматом. Теоретическое обоснование построения таких устройств является предметом теории автоматов.

Теория автоматов использует аппарат математических теорий — алгебры, математической логики, комбинаторного анализа, теории графов, теории вероятностей и др.

Теория автоматов вместе с теорией алгоритмов являются основной теоретической базой для создания электронных вычислительных машин и автоматизированных управляющих систем.

Семиотика[править | править вики-текст]

Семиотика — комплекс научных теорий, изучающих свойства знаковых систем. Наиболее существенные результаты достигнуты в разделе семиотики — семантике. Предметом исследований семантики является смысловое содержание информации.

Знаковой системой считается система конкретных или абстрактных объектов (знаков, слов), с каждым из которых определенным образом сопоставлено некоторое значение. В теории доказано, что таких сопоставлений может быть два. Первый вид соответствия определяет непосредственно материальный объект, который обозначает это слово и называется денотат (или, в некоторых работах, — номинат). Второй вид соответствия определяет смысл знака (слова) и называется концепт. При этом исследуются такие свойства сопоставлений как «смысл», «истинность», «определимость», «следование», «интерпретация» и др. Для исследований используется аппарат математической логики и математической лингвистики.

Идеи семантики, намеченные ещё Г. В. Лейбницем и Ф де Соссюром в XIX веке, сформулировали и развили Ч. Пирс (1839—1914), Ч. Моррис (1901–1979), Р. Карнап (1891—1970) и др.

Основным достижением теории является создание аппарата семантического анализа, позволяющего представить смысл текста на естественном языке в виде записи на некотором формализованном семантическом (смысловом) языке.

Семантический анализ является основой для создания устройств (программ) машинного перевода с одного естественного языка на другой.

Дезинформация[править | править вики-текст]

Дезинформацией (также дезинформированием) называется один из способов манипулирования информацией, как то введение кого-либо в заблуждение путём предоставления неполной информации или полной, но уже не нужной информации, или полной, но не в нужной области, искажения контекста, искажения части информации.

Цель такого воздействия всегда одна — оппонент должен поступить так, как это необходимо манипулятору. Поступок объекта, против которого направлена дезинформация, может заключаться в принятии нужного манипулятору решения или в отказе от принятия невыгодного для манипулятора решения. Но в любом случае конечная цель — это действие, которое будет предпринято.

Регистрация[править | править вики-текст]

Регистрация — запись, фиксация фактов или явлений с целью учёта и придания им статуса официально признанных актов (регистрация рождения или брака); внесение в список, в книгу учёта.

Регистрация в различных сферах человеческой деятельности:

В Интернете:

Ошибка[править | править вики-текст]

Ошибка — несоответствие между объектом или явлением, принятым за эталон (материальный объект, решение задачи, действие, которое привело бы к желаемому результату), и объектом/явлением, сопоставленным первому.

Ошибки встречаются как в природе, так и во всех сферах человеческой деятельности. Известно много исторических примеров, в которых ошибки привели к катастрофическим последствиям[прояснить]. Ошибкам посвящено множество афоризмов, их осмысляют философы, поэты, писатели, историки и представители других дисциплин. Так, с утверждением «на ошибках учатся» согласны многие философы-диалектики. Скептики же и агностики полагают, что все наши представления, скорее всего, ошибочны. Зачастую грань между «правильностью» и «ошибочностью» того или иного явления столь тонка, что их невозможно различить.

Анализом ошибок (погрешностей) измерений занимаются теория вероятностей и статистика.

См. также[править | править вики-текст]


Категория информация по отраслям знаний
в информатике
в общественных науках
в других областях

Литература[править | править вики-текст]

Ссылки[править | править вики-текст]

Примечания[править | править вики-текст]

Комментарии
  1. Нейроны мозга являются элементарными материальными носителями информации, сохраняя её в одном из своих возможных состояний. Передача информации осуществляется между нейронами по синапсу электрохимическим путём. Именно такое взаимодействие множества нейронов в рамках одной нейронной сети формирует смысловое понятие из некоторого множества информации. Однако ввиду сложности нейронной сети принцип данного механизма до сих пор остается неизвестным, поэтому сознание рассматривается с нематериальной точки зрения.
Использованная литература
  1. Федеральный закон от 27 июля 2006 года № 149-ФЗ «Об информации, информационных технологиях и о защите информации»
  2. Захаров В. П. Информационные системы (документальный поиск): Учебное пособие / В. П. Захаров. — СПб.: СПб.гос университет, 2002. — 188 с.
  3. В. М. Глушков, Н. М. Амосов и др. «Энциклопедия кибернетики». Киев. 1975 г.