Информация

Материал из Википедии — свободной энциклопедии
Перейти к: навигация, поиск

Информация — сведения, воспринимаемые человеком или специальными устройствами как отражение фактов материального мира в процессе коммуникации[1].

Информация — это не материя и не энергия, информация — это информация

Норберт Винер[2]

Определения понятия «информация» из международных стандартов:

  • знания о предметах, фактах, идеях и т. д., которыми могут обмениваться люди в рамках конкретного контекста (ISO/IEC 10746-2:1996)[3];
  • знания относительно фактов, событий, вещей, идей и понятий, которые в определённом контексте имеют конкретный смысл (ISO/IEC 2382-1:1993)[4].

Определений информации существует множество, причём академик Н. Н. Моисеев даже полагал, что в силу широты этого понятия нет и не может быть строгого и достаточно универсального определения информации[5][6].

Хотя информация должна обрести некоторую форму представления (то есть превратиться в данные), чтобы ей можно было обмениваться, информация есть в первую очередь интерпретация (смысл) такого представления (ISO/IEC/IEEE 24765:2010)[7]. Поэтому в строгом смысле информация отличается от данных, хотя в неформальном контексте эти два термина очень часто используют как синонимы.

Первоначально «информация» — сведения, передаваемые людьми устным, письменным или другим способом (с помощью условных сигналов, технических средств и т. д.); с середины XX в. термин «информация» превратился в общенаучное понятие, включающее обмен сведениями между людьми, человеком и автоматом, автоматом и автоматом; обмен сигналами в животном и растительном мире; передачу признаков от клетки к клетке, от организма к организму (например, генетическая информация); одно из основных понятий кибернетики[8].

Суть и границы явления[править | править вики-текст]

По своей метафизической сути информация — это содержание отражения одного объекта или явления в другом.

Согласно ранее приведённому определению отражения[9] информация выступает как содержание отражения.[10]

В прикладных науках важно уметь определять, что является информацией и что ей не является. В этом плане неправомерно ставить вопрос в форме «содержится ли информация в данном объекте?», так как говорить об «информации вообще», это как говорить об «абсолютной скорости объекта». Информация всегда относительна. Нужно спрашивать, несёт ли объект «А» информацию об объекте «Б» для получателя «В», имеющего цель, соответствующие знания и методы обработки данных.[11]

Кибернетика связывает энергию, материю и информацию с помощью принципа управления: сущность принципа управления заключается в том, что движение и действие больших масс или передача и преобразование больших количеств энергии направляется и контролируется при помощи небольших количеств энергии, несущих информацию. [12]

Определить, было ли взаимодействие информационным или только материальным (энергетическим) можно следующим образом: если на функционирование системы существенно повлияло некоторое воздействие и при дальнейшем описании динамики системы ни переданная ей энергия или импульс, ни состоявшийся обмен материей (если он был) решающего значения не имеют (ими можно пренебречь), то мы говорим, что данное воздействие выступило в роли информации.[11]

Вопрос об отношении информации и материи может решаться по-разному. Сторонник атрибутивной концепции информации Р. Ф. Абдеев считает, что информация содержится в структуре материи (давая, однако, такой информации особое определение структурной и отличая её от оперативной):

«В самой структуре объектов тоже содержится информация — структурная. Она тогда превращается в оперативную, когда появляются получатель информации и канал связи. Другими словами, информация в неорганической природе существует объективно, но как бы в потенциальной форме».[13]

Более поздние представления (как в России, так и за рубежом) тяготеют к функциональной трактовке: информация считается нематериальной, а то, что содержится в структуре объектов, принято называть данными (representation form — ISO/IEC/IEEE 24765:2010).

Взаимоотношения между данными, информацией и получателем С. Г. Середа иллюстрирует следующим примером: след медведя на песке материален, это — данные об объекте; «информация» — восстановленные по этим данным параметры изучаемого объекта: порода зверя, рост, вес, возраст и т. п. Независимо существует объект познания, объективно существуют следы его воздействия на структуру носителя информации (данные об объекте). А вот, сколько интересующей его информации может получить субъект, анализируя имеющиеся данные, зависит от того, какими методами он при этом владеет и что именно его интересует в изучаемом объекте.[11]

Похожий взгляд отражён, например, в определениях из учебников информатики С. В. Симоновича: «Информация — это продукт динамического взаимодействия объективных данных и субъективных методов (естественных, аппаратных, программных и других).»[14][15] Тот же автор выделяет три подхода, которые научные дисциплины и законодатели применяют к определению понятия «информация»: антропоцентрический (то, что может быть преобразовано в знания), техноцентрический (отождествление информации с данными) и недетерминированный (принятие понятия как фундаментального с отказом от определения)[15].

Для исследований самоорганизации динамических систем в синергетике Д. С. Чернавский предлагает пользоваться определением вроде предложенного Генри Кастлером (Henry Quastler)[16]: «Информация есть запомненный выбор одного варианта из нескольких возможных и равноправных.». Это определение достаточно широко используется в естественных науках, а также допускает введение меры — количества информации[17].

История понятия[править | править вики-текст]

Слово «информация» происходит (от лат. informatio, что в переводе обозначает сведение, разъяснение, ознакомление.) Понятие информации рассматривалось ещё античными философами.

В современном мире информация представляет собой один из важнейших ресурсов и, в то же время, одну из движущих сил развития человеческого общества. Информационные процессы, происходящие в материальном мире, живой природе и человеческом обществе изучаются (или, по крайней мере, учитываются) всеми научными дисциплинами от философии до маркетинга.

Исторически сложилось так, что исследованием непосредственно информации занимаются две комплексных отрасли науки — кибернетика и информатика.

Современная кибернетика — это мультидисциплинарная отрасль науки, исследующая сверхсложные системы, такие как:

  • человеческое общество (социальная кибернетика),
  • экономика (экономическая кибернетика),
  • живой организм (биологическая кибернетика),
  • человеческий мозг и его функция — сознание (искусственный интеллект).

Информатика, сформировавшаяся как наука в середине прошлого века, отделилась от кибернетики и занимается исследованиями в области способов получения, хранения, передачи и обработки семантической информации.

Исследования смыслового содержания информации основываются на комплексе научных теорий под общим названием семиотика.[источник не указан 37 дней]

В России философская проблематика понятия «информация» разрабатывалась, начиная с 1960-х, когда вышла статья А. Д. Урсула «Природа информации». С тех пор, явно или неявно, рассматриваются в основном две концепции информации: атрибутивная, по которой информация свойственна всем физическим системам и процессам (А. Д. Урсул, И. Б. Новик, Л. Б. Баженов, Л. А. Петрушенко и другие), и функциональная — информация присуща лишь самоорганизующимся системам (П. В. Копнин, А. М. Коршунов, В. С. Тюхтин, Б. С. Украинцев и другие)[18].

Классификация информации[править | править вики-текст]

Информацию можно разделить на виды по различным критериям:

  • По объектам информационного взаимодействия:
    • Человек — человек
    • Человек — автомат.
    • Автомат — автомат.
    • Обмен сигналами в животном и растительном мире.
    • Передача признаков от клетки к клетке
    • Передача признаков от организма к организму
  • По способу восприятия:
    • Визуальная — воспринимаемая органами зрения.
    • Аудиальная — воспринимаемая органами слуха.
    • Тактильная — воспринимаемая тактильными рецепторами.
    • Обонятельная — воспринимаемая обонятельными рецепторами.
    • Вкусовая — воспринимаемая вкусовыми рецепторами.
  • По форме представления:
    • Текстовая — передаваемая в виде символов, предназначенных обозначать лексемы языка.
    • Числовая — в виде цифр и знаков, обозначающих математические действия.
    • Графическая — в виде изображений, предметов, графиков.
    • Звуковая — устная или в виде записи и передачи лексем языка аудиальным путём.
    • Видеоинформация — передаваемая в виде видеозаписи.
  • По назначению:
    • Массовая — содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума.
    • Специальная — содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация.
    • Секретная — передаваемая узкому кругу лиц и по закрытым (защищённым) каналам.
    • Личная (приватная) — набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции.
  • По значению:
    • Актуальная — информация, ценная в данный момент времени.
    • Достоверная — информация, полученная без искажений.
    • Понятная — информация, выраженная на языке, понятном тому, кому она предназначена.
    • Полная — информация, достаточная для принятия правильного решения или понимания.
    • Полезная — полезность информации определяется субъектом, получившим информацию в зависимости от объёма возможностей её использования.

Информация в различных областях знания[править | править вики-текст]

В информатике[править | править вики-текст]

Предметом изучения информатики являются именно данные: методы их создания, хранения, обработки и передачи[19]

В физике[править | править вики-текст]

Объекты материального мира находятся в состоянии непрерывного изменения, которое характеризуется обменом энергией объекта с окружающей средой. Изменение состояния одного объекта всегда приводит к изменению состояния некоторого другого объекта окружающей среды. Это явление вне зависимости от того, как, какие именно состояния и каких именно объектов изменились, может рассматриваться как передача сигнала от одного объекта другому. Изменение состояния объекта при передаче ему сигнала называется регистрацией сигнала.

Сигнал или последовательность сигналов образуют сообщение, которое может быть воспринято получателем в том или ином виде, а также в том или ином объёме. Информация в физике есть термин, качественно обобщающий понятия «сигнал» и «сообщение». Если сигналы и сообщения можно исчислять количественно, то можно сказать, что сигналы и сообщения являются единицами измерения объёма информации.

Одно и то же сообщение (сигнал) разными системами интерпретируется по-своему. Например, последовательно длинный и два коротких звуковых (а тем более в символьном кодировании -..) сигнала в терминологии азбуки Морзе — это буква Д (или D), в терминологии БИОС от фирмы AWARD — неисправность видеокарты.

В математике[править | править вики-текст]

Теория информации (математическая теория связи) — изучает процессы хранения, преобразования и передачи информации. Она основана на научных методах измерения количества информации. Теория информации развилась из потребностей теории связи. Основополагающими считаются «Работы по теории информации и кибернетике[20]» К.Шеннона, опубликованные в 1948 году. Теория информации изучает пределы возможностей систем передачи данных, а также основные принципы их проектирования и технической реализации[21].

С теорией информации связаны радиотехника (теория обработки сигналов) и информатика, относящийся к измерению количества передаваемой информации, её свойства и устанавливающий предельные соотношения для систем . Основные разделы теории информации — кодирование источника (сжимающее кодирование) и канальное (помехоустойчивое) кодирование Информация не входит в число предметов исследования математики. Тем не менее, слово «информация» употребляется в математических терминах — собственная информация и взаимная информация, относящихся к абстрактной (математической) части теории информации. Однако, в математической теории понятие «информация» связано с исключительно абстрактными объектами — случайными величинами, в то время как в современной теории информации это понятие рассматривается значительно шире — как свойство материальных объектов[источник не указан 55 дней].

Связь между этими двумя одинаковыми терминами несомненна. Именно математический аппарат случайных чисел использовал автор теории информации Клод Шеннон. Сам он подразумевает под термином «информация» нечто фундаментальное (нередуцируемое). В теории Шеннона интуитивно полагается, что информация имеет содержание. Информация уменьшает общую неопределённость и информационную энтропию. Количество информации доступно измерению. Однако он предостерегает исследователей от механического переноса понятий из его теории в другие области науки[источник не указан 55 дней].

В теории управления (кибернетике)[править | править вики-текст]

В теории управления (кибернетике), предметом исследования которой являются основные законы управления, то есть развития систем управления, информацией называются сообщения, получаемые системой из внешнего мира при адаптивном управлении (приспособлении, самосохранении системы управления)[источник не указан 55 дней].

Основоположник кибернетики Норберт Винер дал следующее определение информации: «Информация — это обозначение содержания, полученное нами из внешнего мира в процессе приспосабливания к нему нас и наших чувств»[2].

Материальная система в кибернетике рассматривается как множество объектов, которые сами по себе могут находиться в различных состояниях, но состояние каждого из них определяется состояниями других объектов системы. В природе множество состояний системы представляет собой информацию, сами состояния представляют собой первичный код, или код источника. Таким образом, каждая материальная система является источником информации.

Субъективную (семантическую) информацию кибернетика определяет как смысл или содержание сообщения. Информация — это характеристика объекта.

Теория алгоритмов[править | править вики-текст]

Предметом теории алгоритмов является нахождение методов построения и оценки эффективных (в том числе и универсальных) вычислительных и управляющих алгоритмов для обработки информации[источник не указан 55 дней]. Для обоснования таких методов теория алгоритмов использует математический аппарат теории информации[источник не указан 55 дней].

Современное научное понятие алгоритмов как способов обработки информации введено в работах Э. Поста и А. Тьюринга в 20-х годах ХХ века (Машина Тьюринга)[источник не указан 55 дней]. Большой вклад в развитие теории алгоритмов внесли русские ученые А. Марков (Нормальный алгоритм Маркова) и А. Колмогоров.

Семиотика[править | править вики-текст]

Семиотика — комплекс научных теорий, изучающих свойства знаковых систем. Наиболее существенные результаты достигнуты в разделе семиотики — семантике. Предметом исследований семантики является смысловое содержание информации.

Знаковой системой считается система конкретных или абстрактных объектов (знаков, слов), с каждым из которых определенным образом сопоставлено некоторое значение. В теории доказано, что таких сопоставлений может быть два. Первый вид соответствия определяет непосредственно материальный объект, который обозначает это слово и называется денотат (или, в некоторых работах, — номинат). Второй вид соответствия определяет смысл знака (слова) и называется концепт. При этом исследуются такие свойства сопоставлений как «смысл», «истинность», «определимость», «следование», «интерпретация» и др. Для исследований используется аппарат математической логики и математической лингвистики.

Идеи семантики, намеченные ещё Г. В. Лейбницем и Ф. де Соссюром в XIX веке, сформулировали и развили Ч. Пирс (1839—1914), Ч. Моррис (1901—1979), Р. Карнап (1891—1970) и др.

Основным достижением теории является создание аппарата семантического анализа, позволяющего представить смысл текста на естественном языке в виде записи на некотором формализованном семантическом (смысловом) языке.

Семантический анализ является основой для создания устройств (программ) машинного перевода с одного естественного языка на другой.

Дезинформация[править | править вики-текст]

Дезинформацией (также дезинформированием) называется один из способов манипулирования информацией, как то введение кого-либо в заблуждение путём предоставления неполной информации или полной, но уже не нужной информации, или полной, но не в нужной области, искажения контекста, искажения части информации.

Цель такого воздействия всегда одна — оппонент должен поступить так, как это необходимо манипулятору. Поступок объекта, против которого направлена дезинформация, может заключаться в принятии нужного манипулятору решения или в отказе от принятия невыгодного для манипулятора решения. Но в любом случае конечная цель — это действие, которое будет предпринято.

См. также[править | править вики-текст]

Категория информация по отраслям знаний
в информатике
в общественных науках
в физиологии и медицине
в других областях

Литература[править | править вики-текст]

Ссылки[править | править вики-текст]

Примечания[править | править вики-текст]

Комментарии
Использованная литература
  1. ГОСТ 7.0-99 Информационно-библиотечная деятельность, библиография. Термины и определения
  2. 1 2 Винер Н. Кибернетика, или управление и связь в животном и машине; или Кибернетика и общество/ 2-е издание. — М.: Наука; Главная редакция изданий для зарубежных стран, 1983. — 344 с.
  3. ISO/IEC 10746-2:1996, Information technology — Open Distributed Processing — Reference Model: Foundations.3.2.5: knowledge that is exchangeable amongst users about things, facts, concepts, and so on, in a universe of discourse
  4. ISO/IEC 2382-1:1993, Information technology — Vocabulary — Part 1: Fundamental terms.01.01.01: knowledge concerning objects, such as facts, events, things, processes, or ideas, including concepts, that within a certain context has a particular meaning
  5. Моисеев Н.Н. Расставание с простотой. — М.: АГРАФ, 1998. — С. 98.
  6. Хургин, 2007
  7. ISO/IEC/IEEE 24765:2010 Systems and software engineering — Vocabulary: Although information will necessarily have a representation form to make it communicable, it is the interpretation of this representation (the meaning) that is relevant in the first place
  8. Информация // Большой энциклопедический словарь / 2-е изд., перераб. и доп. — М.: Большая Российская энциклопедия, 2000. — 1434 с.
  9. «Отражение — это воздействие одной материальной системы на другую, ведущее к установлению определённого (конкретного) тождества между системами, когда внутренние различия одной системы (отражающей) соответствуют внутренним различиям другой системы (отражаемой)»
  10. Урсул, А. Д. Природа информации: философский очерк / А. Д. Урсул; Челяб. гос. акад. культуры и искусств; Науч.-образоват. центр «Информационное общество»; Рос. гос. торгово-эконом. ун-т; Центр исслед. глоб. процессов и устойчивого развития. — 2-е изд. — Челябинск, 2010. — 231 с.
  11. 1 2 3 Середа, С. Г. Анализ понятия «информация» — метафоры и трактовки / Дистанционное и виртуальное обучение. — Москва. — 2011. N 12
  12. Лидовский В. В. Теория информации: Учебное пособие. — М.:Компания Спутник+, 2004. — 111 с. — ISBN 5-93406-661-7
  13. Абдеев Р. Ф. Философия информационной цивилизации. — М.: ВЛАДОС, 1994. — 336 с.: 58 ил.
  14. Информатика: Базовый курс / С. В. Симонович и др. — СПб.: Питер, 2003. — 640 с.: ил. ISBN 5-8046-0134-2.
  15. 1 2 Симонович С. В. и др. Информатика для юристов и экономистов. — СПб: Питер, 2001. — 688 с. — ISBN 5-272-00249-0.
  16. Кастлер Г.. Возникновение биологической организации = The Emergence of Biological Organization. — М.: Мир, 1967.
  17. Чернавский, 2004, 1.1 Определения понятия «информация»
  18. Материалы «круглого стола» Информационный подход в междисциплинарной перспективе//ред. В. В. Пирожков, Вопросы философии, 2010.
  19. Захаров В. П. Информационные системы (документальный поиск): Учебное пособие / В. П. Захаров. — СПб.: СПб.гос университет, 2002. — 188 с.
  20. C. E. Shannon «A Mathematical Theory of Communication» (Перевод в сборнике Шеннон К. «Работы по теории информации и кибернетике». — М.: ИЛ, 1963. — 830 с., С. 243-322)
  21. Теория информации // «Энциклопедия Кругосвет».[1]