Теория сложности вычислений

Материал из Википедии — свободной энциклопедии
Перейти к навигации Перейти к поиску

Теория сложности вычислений — подраздел теоретической информатики, занимающейся исследованием сложности алгоритмов для решения задач на основе формально определённых моделей вычислительных устройств. Сложность алгоритмов измеряется необходимыми ресурсами, в основном это продолжительность вычислений или необходимый объём памяти. В отдельных случаях исследуются другие степени сложности, такие как размер микросхем, или количество процессоров, необходимая для работы параллельных алгоритмов.

Следует не путать теорию сложности вычислений с теорией вычислимости, которая занимается поиском ответа на вопрос о том, какие задачи могут быть вообще решены с помощью алгоритмов. Основная задача исследований в теории сложности вычислений заключается в классификации всех разрешимых задач. В частности, делаются попытки разделить множество задач с эффективными алгоритмами решения от множества трудно разрешимых задач.

Обзор[править | править код]

Вычислительную сложность алгоритма обычно выражают через символ «О большое», что указывает порядок величины вычислительной сложности. Это просто член разложения функции сложности, которая растет быстрее при росте n, а все члены низшего порядка игнорируются. Например, если временная сложность порядка n2, то она выражается как O(n2) .

Временная сложность, измеренная подобным образом, не зависит от реализации.

Не нужно знать ни точного времени выполнения отдельных инструкций, ни числа битов, которые представляют различные переменные, ни даже скорости процессора. Один компьютер может быть на 50 % быстрее другого, а у третьего ширина шины данных может быть вдвое больше, однако сложность алгоритма, оцененная по порядку величины, не изменится. При оценке довольно сложных алгоритмов всем остальным можно пренебречь (с точностью до постоянного множителя).

Оценка вычислительной сложности наглядно демонстрирует, как объём входных данных влияет на требования к времени и объёму памяти.

Например, если T=O(n), удвоение входных данных удвоит и время выполнения алгоритма. Если T=O(2n), то добавления лишь одного бита к входным данным удвоит время выполнения алгоритма.

Главной целью теории сложности является обеспечение механизмов классификации вычислительных задач в соответствии с ресурсами, необходимыми для их решения. Классификация не должна зависеть от конкретной вычислительной модели, а скорее оценивать внутреннюю сложность задачи.

Ресурсы, которые оцениваются, как уже было отмечено ранее, могут быть такими: время, пространство памяти, случайные биты, количество процессоров и т. д., но обычно главным фактором является время и реже пространство.

Теория рассматривает минимальное время и объём памяти для решения сложного варианта задачи теоретически на компьютере, известном как машина Тьюринга. Машина Тьюринга является конечным автоматом с бесконечной магнитной лентой памяти для чтения и записи. Это означает, что машина Тьюринга — реалистичная вычислительная модель.

Задачи, которые можно решить с помощью алгоритмов с полиномиальным временем, называют задачи, которые решаются — при условии нормальных входных данных — за приемлемое время (точное определение «приемлемости» зависит от конкретных условий) .

Задачи, которые можно решить только с помощью суперполиномиальних алгоритмов с полиномиальным временем, является вычислительно сложными даже при относительно малыми значениями n.

Тьюринг доказал, что некоторые задачи невозможно решить. Даже без учёта временной сложности алгоритма, создать алгоритм для их решения невозможно.

Асимптотическая сложность[править | править код]

Обозначение Интуитивное объяснение Определение
ограничена сверху функцией (С точностью до постоянного множителя) асимптотически или
ограничена снизу функцией (С точностью до постоянного множителя) асимптотически
ограничена снизу и сверху функцией асимптотически
доминирует над асимптотически
доминирует над асимптотически
эквивалентна асимптотически

Распространеные сложности алгоритмов[править | править код]

Обозначение Пояснение Примеры
Устойчивое время работы, независимо от размера задачи. Ожидаемое время поиска в хэше.
Очень медленный рост необходимого времени. Ожидаемое время работы интерполирующего поиска элементов.
Логарифмический рост   — удвоение размера задачи увеличивает время работы на постоянную величину. Вычисления; двоичный поиск в массиве из элементов.
Линейный рост   — удвоение размера задачи удвоит и необходимое время. Сложение / вычитание чисел из цифр; линейный поиск в массиве из элементов.
Линеаризованный рост   — удвоение размера задачи увеличит необходимое время чуть более чем вдвое. Сортировка слиянием или множеством элементов; нижняя граница сортировки со сравнением элементов.
Квадратичный рост   — удвоение размера задачи в 4 раза увеличивает необходимое время. Элементарные алгоритмы сортировки.
Кубическое рост   — удвоение размера задачи увеличивает необходимое время в восемь раз. Обычное умножение матриц.
Экспоненциальный рост   — увеличение размера задачи на приводит к кратному увеличению необходимого времени; удвоение размера задачи увеличивает необходимое время в квадрат Некоторые задачи коммивояжера, алгоритмы поиска полным перебором.

Классы сложности[править | править код]

Класс сложности — множество задач распознавания, для решения которых существуют алгоритмы, схожие по вычислительной сложностью. Задачи можно разбить на классы согласно сложности их решения. Все классы сложности находятся в иерархическом отношении: одни содержат в себе другие. Однако большинство включений неизвестно, являются ли они строгими. Класс P, что является самым низким, содержит все задачи, которые можно решить за полиномиальное время. В класс NP входят все задачи, которые можно решить за полиномиальный время только на недетерминированной машине Тьюринга (это вариант обычной машины Тьюринга, которая может делать предположения). Такая машина делает предположение относительно решения задачи "или «удачно угадывает», перебирая все предположения параллельно — и проверяет свое предположение за полиномиальное время.

Класс P[править | править код]

Класс P (от англ. Polynomial) — множество задач, для которых существуют «быстрые» алгоритмы решения (время работы которых полиномиально зависит от размера входных данных). Класс P включен в более широкие классы сложности алгоритмов. Для любого языка программирования можно определить класс P подобным образом (заменив в определении машину Тьюринга на реализацию языка программирования). Если компилятор языка, на котором реализован алгоритм, замедляет выполнение алгоритма полиномиальной (то есть время выполнения алгоритма на машине Тьюринга меньше некоторого многочлена от времени выполнения его на языке программирования), то определение классов P для этого языка и для машины Тьюринга совпадают. Код на ассемблере допускает преобразование в машину Тьюринга с небольшим полиномиальным замедлением, а поскольку все существующие языки допускают компиляцию в ассемблер (опять же, с полиномиальным замедлением), то определение класса P для машин Тьюринга и для любого существующего языка программирования совпадают.

Класс NP[править | править код]

Класс NP (от англ. Non-deterministic polynomial) — множество задач, решение которых возможно при наличии некоторых дополнительных сведений (так называемого сертификата решения), то есть возможность «быстро» (за время, не превосходящего полином от размера данных) проверить решение на машине Тьюринга. Эквивалентно класс NP можно определить как совокупность задач, которые можно «быстро» решить на недетерминированной машине Тьюринга.

Класс NP определяется для множества языков, то есть множеств слов над конечным алфавитом Σ. Язык L принадлежит классу NP, если существуют двухместный предикат из класса P (то есть исчисляемый за полиномиальное время) и константа такие, что для любого слова условие равносильно условию .

Отношение классов сложности NP и P[править | править код]

В теории алгоритмов вопрос о равенстве классов сложности P и NP является одной из центральных открытых проблем уже более трех десятилетий. Если на него будет дан утвердительный ответ, это будет означать, что теоретически возможно решать много сложных задач существенно быстрее, чем сейчас. Из определения классов P и NP сразу вытекает следствие: . Однако до сих пор ничего не известно о строгости этого включения, то есть существует задача, лежащая в NP, но не лежащая в P. Если такой задачи не существует, то все задачи, принадлежащие классу NP, можно будет решать за полиномиальное время, что обещает огромную выгоду с вычислительной точки зрения. Сейчас самые сложные задачи из класса NP (так называемые NP -полное задачи) можно решить за экспоненциальное время, что почти всегда неприемлемо. В настоящее время большинство математиков считают, что эти классы не равны. Согласно опросу, проведенному в 2002 году среди 100 ученых,[1] 61 человек считает, что ответ   — «не равны»; 9   — «равные»; 22 не смогли ответить; 8 считают, что гипотеза не выводится из текущей системы аксиом и, таким образом, не может быть доказана или опровергнута. Из вышесказанного видно, что проблема исследования отношения классов P и NP является актуальной в научной среде и требует более глубокого анализа.

Неподатливость[править | править код]

Задачи которые можно решить теоретически (имея огромное, но конечное время), но на практике занимают слишком много времени, чтобы их решение могло быть полезным, называются неподдающимися (англ. intractable)

История[править | править код]

Примером раннего анализа сложности алгоритмов является проведенный анализ алгоритма Евклида, который сделал Габриель Ламе в 1844 году.

К началу исследований, которые были явно посвящены изучению сложности алгоритмов, многие исследователи заложили их теоретический фундамент. Самым влиятельным среди них был Алан Тьюринг, который ввел понятие машин Тьюринга в 1936 году, которые оказались очень удачными и гибкими упрощенными моделями компьютера.

Примечания[править | править код]

  1. Gasarch W.I. «The P=?NP poll.» / William I. Gasarch SIGACT News. Volume 33. [Електронний ресурс] — 2002 — С. — Режим доступу: http://www.cs.umd.edu/~gasarch/papers/poll.pdf - ст. 34-47

Литература[править | править код]

  • Christos H. Papadimitriou: Computational Complexity. Addison-Wesley, Reading / Mass. 1995, ISBN 0-201-53082-1 .
  • Lance Fortnow, Steve Homer: A Short History of Computational Complexity. Online-Manuskript (PDF, 225 kB)
  • Jan van Leeuwen (Hrsg.): Handbook of Theoretical Computer Science, Volume A: Algorithms and Complexity. The MIT Press / Elsevier, Amsterdam 1994, ISBN 0-262-72020-5 .
  • Juris Hartmanis, Richard Edwin Stearns : On the computational complexity of algorithms. In: Trans. American Mathematical Society. 117/1965, S. 285—306, ISSN 0002-9947(англ.)
  • Ding-Zhu Du, Ker-I Ko: Theory of Computational Complexity. John Wiley & Sons, New York 2000, ISBN 0-471-34506-7 .
  • Michael R. Garey, David S. Johnson: Computers and Intractability: A guide to the theory of NP-completeness. Freeman, New York 2003, ISBN 0-7167-1045-5 .
  • Michael Sipser: Introduction to the Theory of Computation. 2. Auflage. Thomson, Boston 2006, ISBN 0-534-95097-3 . (International Edition)
  • Кузюрин М. М., Фомин С.   А.   Эффективные алгоритмы и сложность вычислений. 2008
  • Немировский А. С., Юдин Д.   Б.   Сложность и эффективность методов оптимизации. М .: Наука, 1979