Теория информации

Материал из Википедии — свободной энциклопедии
Перейти к: навигация, поиск

Теория информации (математическая теория связи) — раздел прикладной математики, радиотехники (теория обработки сигналов) и информатики, относящийся к измерению количества информации[1][нет в источнике], её свойства и устанавливающий предельные соотношения для систем передачи данных. Как и любая математическая теория, оперирует математическими моделями, а не реальными физическими объектами (источниками и каналами связи). Использует, главным образом, математический аппарат теории вероятностей и математической статистики.

Основные разделы теории информации — кодирование источника (сжимающее кодирование) и канальное (помехоустойчивое) кодирование. Теория информации тесно связана с криптографией и другими смежными дисциплинами.

История[править | править вики-текст]

Клода Шеннона (19162001) называют «отцом теории информации». Разработанная им теория дала инженерам-разработчикам систем передачи данных возможность определения ёмкости коммуникационного канала[2]. Часть теории, изучающей передачу информации, не занимается значением (семантикой) передаваемого сообщения, однако дополняющая часть теории информации обращает внимание на содержимое через сжатие с потерями субъекта сообщения, используя критерий точности.

Применение[править | править вики-текст]

Достижения и методы теории информации широко используются в

См. также[править | править вики-текст]

Примечания[править | править вики-текст]

Библиография[править | править вики-текст]

Ссылки[править | править вики-текст]