OpenVZ

Материал из Википедии — свободной энциклопедии
Перейти к: навигация, поиск
OpenVZ
OpenVZ-logo.png
виртуализация на уровне ОС
Тип

виртуализация

Разработчик

Сообщество, поддерживается Parallels

Операционная система

Linux

Аппаратная платформа

x86, x86-64, IA-64, PowerPC, SPARC, ARM

Последняя версия

Ядро:
2.6.32-042stab084.17 (стабильное)[1]
2.6.32-042stab084.17 (экспериментальное)[2]
vzctl — 4.6.1[3]
vzquota — 3.1[4]

Лицензия

GNU GPL v.2

Сайт

openvz.org

OpenVZ и libvirt

OpenVZ — реализация технологии виртуализации на уровне операционной системы, которая базируется на ядре Linux. OpenVZ позволяет на одном физическом сервере запускать множество изолированных копий операционной системы, называемых «виртуальные частные серверы» (Virtual Private Servers, VPS) или «виртуальные среды» (Virtual Environments, VE).

Поскольку OpenVZ базируется на ядре Linux, в отличие от виртуальных машин (напр. VMware, Parallels Desktop) или паравиртуализационных технологий (напр. Xen), в роли «гостевых» систем могут выступать только дистрибутивы Linux. Однако, виртуализация на уровне операционной системы в OpenVZ даёт лучшую[5] производительность, масштабируемость, плотность размещения, динамическое управление ресурсами, а также лёгкость в администрировании, чем у альтернативных решений. Согласно сайту OpenVZ, накладные расходы на виртуализацию очень малы, и падение производительности составляет всего 1-3 %, по сравнению с обычными Linux-системами.

OpenVZ является базовой платформой для Virtuozzo — проприетарного продукта Parallels, Inc. OpenVZ распространяется на условиях лицензии GNU GPL v.2.

OpenVZ состоит из модифицированного ядра Linux и пользовательских утилит.

Ядро[править | править исходный текст]

Ядро OpenVZ — это модифицированное ядро Linux, добавляющее концепцию виртуальной среды (VE). Ядро обеспечивает виртуализацию, изоляцию, управление ресурсами и чекпоинтинг (сохранение текущего состояния VE).

Версии ядра[править | править исходный текст]

На данный момент поддерживается несколько веток OpenVZ-ядер. Ветки различаются по стабильности и по версии RHEL, на базе которой были основаны[6].

Версия ядра Стабильная/Тестовая Версия RHEL
vzkernel-2.6.32-042stab085.17 Stable 6
vzkernel-2.6.32-042stab084.17 Testing 6
ovzkernel-2.6.18-348.16.1.el5.028stab108.1 Stable 5.9
ovzkernel-2.6.18-371.3.1.el5.028stab110.1 Testing 5.10

Комплект пользовательских утилит[править | править исходный текст]

Основными утилитами являются:

  • vzctl — Основная утилита для управления контейнерами. Применяется для создания, удаления, запуска, остановки и перезапуска контейнеров, а также для применения новых параметров. В состав пакета также входят vzlist, vzmigrate, vzcalc, vzcfgvalidate, vzmemcheck, vzcpucheck, vzpid, vzsplit и некоторые другие, менее значимые утилиты.
  • vzlist — Печатает листинг контейнеров. Поддерживает выборки по различным параметрам контейнеров и их комбинациям.
  • vzmigrate — Утилита для offline и online миграции.
  • vzcfgvalidate — Проверяет верность конфигурационного файла контейнера.
  • vzmemcheck, vzcpucheck, vzcalc — Служат для получения информации об используемых ресурсах.
  • vzsplit — Служит для генерации конфигурационных файлов контейнеров. Позволяет «разделить» физический сервер на указанное число частей.
  • vzpid — Позволяет определить, какому контейнеру принадлежит процесс. В качестве параметра принимает pid-номер процесса.
  • vzquota — Утилита для работы с дисковой квотой контейнера.
  • vzubc — Утилита для замены cat /proc/user_beancounters.

Также существует ряд утилит либо не поддерживаемых официально, либо «заброшенных»:

  • vzdump — Неофициальная утилита для создания backup’ов контейнеров. Поддерживает «горячее» создание копий.
  • vzrpm, vzyum, vzpkg — утилиты для работы с HardwareNode с пакетной системой гостевого окружения и темплейтами.
  • vzpkg2 — Форк vzpkg, поддерживает менеджмент RedHat-based и Debian-based гостевых окружений (CentOS, Fedora, Debian, Ubuntu). По всей видимости, проект заброшен.

Виртуализация и изоляция[править | править исходный текст]

Каждая VE — это отдельная сущность, и с точки зрения владельца VE она выглядит практически как обычный физический сервер. Каждая VE имеет свои собственные:

Файлы
Системные библиотеки, приложения, виртуализованные ФС /proc и /sys, виртуализованные блокировки и т. п.
Пользователи и группы
Свои собственные пользователи и группы, включая root.
Дерево процессов
VE видит только свои собственные процессы (начиная с init). Идентификаторы процессов (PID) также виртуализованы, поэтому PID программы init — 1.
Сеть
Виртуальное сетевое устройство (venet), позволяющая VE иметь свои собственные адреса IP, а также наборы правил маршрутизации и файрволла (netfilter/iptables).
Устройства
При необходимости администратор OpenVZ сервера может дать VE доступ к реальным устройствам, напр. сетевым адаптерам, портам, разделам диска и т. д.
Объекты IPC
Разделяемая память, семафоры, сообщения.

Управление ресурсами[править | править исходный текст]

Управление ресурсами в OpenVZ состоит из трёх компонентов: двухуровневая дисковая квота, честный планировщик процессора, и так называемые «юзер бинкаунтеры» (user beancounters). Эти ресурсы могут быть изменены во время работы VE, перезагрузка не требуется.

Двухуровневая дисковая квота[править | править исходный текст]

Администратор OpenVZ сервера может установить дисковые квоты на VE, в терминах дискового пространства и количества айнодов (i-nodes, число которых примерно равно количеству файлов). Это первый уровень дисковой квоты.

В дополнение к этому, администратор VE (root) может использовать обычные утилиты внутри своей VE для настроек стандартных дисковых квот UNIX для пользователей и групп.

Честный планировщик процессора[править | править исходный текст]

Планировщик процессора в OpenVZ также двухуровневый. На первом уровне планировщик решает, какой VE дать квант процессорного времени, базируясь на значении параметра cpuunits для VE. На втором уровне стандартный планировщик Linux решает, какому процессу в выбранном VE дать квант времени, базируясь на стандартных приоритетах процесса в Линуксе и т. п.

Администратор OpenVZ сервера может устанавливать различные значения cpuunits для разных VE, и процессорное время будет распределяться соответственно соотношению этих величин назначенных для VE.

Также имеется параметр ограничения — cpulimit, устанавливающий верхний лимит процессорного времени в процентах, отводимый для определенной VE.

User Beancounters[править | править исходный текст]

User Beancounters — это набор счётчиков, ограничений и гарантий на каждую VE. Имеется набор из примерно 20 параметров, которые выбраны для того, чтобы покрыть все аспекты работы VE так, чтобы никакая VE не могла злоупотребить каким-либо ресурсом, который ограничен для всего сервера, и таким образом помешать другим VE.

Ресурсы, которые считаются и контролируются — это, в основном, оперативная память и различные объекты в ядре, например, разделяемые сегменты памяти IPC, сетевые буферы и т. п. Каждый ресурс можно посмотреть в файле /proc/user_beancounters  — для него есть пять значений: текущее использование, максимальное использование (за всё время жизни VE), барьер, лимит и счётчик отказов. Смысл барьера и лимита зависит от параметра; вкратце, о них можно думать как о мягком лимите и жёстком лимите. Если какой-либо ресурс пытается превысить лимит, его счётчик отказов увеличивается — таким образом, владелец VE может видеть, что происходит, путём чтения файла /proc/user_beancounters в своём VE.

Чекпоинтинг и миграция на лету[править | править исходный текст]

Функциональность миграции «на лету» и чекпоинтинга была выпущена для OpenVZ в середине апреля 2006. Она позволяет переносить VE с одного физического сервера на другой без необходимости останавливать/перезапускать VE. Этот процесс называется чекпоинтинг: VE «замораживается» и её полное состояние сохраняется в файл на диске. Далее этот файл можно перенести на другую машину и там «разморозить» (восстановить) VE. Задержка этого процесса (время, когда VE заморожена) — примерно несколько секунд; важно подчеркнуть, что это задержка в обслуживании, а не отказ в обслуживании.

Начиная с версии 2.6.24, в ядро включены pid namespaces (пространства имен pid, pid — идентификатор процесса), вследствие чего миграция «на лету» становится «безопасной», так как в этом случае 2 процесса в разных VE смогут иметь один и тот же pid.

Так как все детали состояния VE, включая открытые сетевые соединения, сохраняются, то с точки зрения пользователя VE процесс миграции выглядит как задержка в ответе: скажем, одна из транзакций базы данных заняла больше времени, чем обычно, и далее работа продолжается как обычно; таким образом, пользователь не замечает, что его сервер баз данных работает уже на другом физическом сервере.

Эта возможность делает реальными такие сценарии, как апгрейд сервера без необходимости его перезагрузки: к примеру, если вашей СУБД нужно больше памяти или более мощный процессор, вы покупаете новый более мощный сервер и мигрируете VE с СУБД на него, а потом увеличиваете лимиты на эту VE. Если вам нужно добавить оперативной памяти в сервер, вы мигрируете все VE с этого сервера на другой, выключаете сервер, устанавливаете дополнительную память, запускаете сервер и мигрируете все VE обратно.

vSwap[править | править исходный текст]

Начиная с версий ядра RHEL 6 042stab04x, появилась поддержка vSwap. Теперь не нужно высчитывать UBC лимиты. Достаточно при создании «гостевой системы» указать всего лишь PHYSPAGES и SWAPPAGES.

Page cache isolation[править | править исходный текст]

Начиная с kernel 042stab068.8 появилась возможность ограничивать использование контейнерами дискового кэша.

Отличительные черты OpenVZ[править | править исходный текст]

Масштабируемость[править | править исходный текст]

Ввиду того, что OpenVZ использует одно ядро для всех VE, система является столь же масштабируемой, как обычное ядро Linux 2.6, то есть поддерживает максимально до 4096 процессоров и до 64 ГБ оперативной памяти для x86-версии (с использованием PAE)[7] и 64ТБ для x86-64[8]. Единственная виртуальная среда может быть расширена до размеров всего физического сервера, то есть, использовать все доступное процессорное время и память.

Можно использовать OpenVZ с единственной виртуальной средой на сервере. Данный подход позволяет VE полностью использовать все аппаратные ресурсы сервера с практически «родной» производительностью, и пользоваться дополнительными преимуществами: независимость VE от «железа», подсистему управления ресурсами, «живую» миграцию.

Плотность[править | править исходный текст]

Плотность OpenVZ на машине с 768 МБ (¾ ГБ) ОЗУ

OpenVZ способна размещать сотни виртуальных сред на современном аппаратном обеспечении. Основными ограничивающими факторами являются объём ОЗУ и частота процессора.

Данный график показывает зависимость времени отклика веб-серверов VE к количеству VE на машине. Измерения были сделаны на машине с 768 МБ (¾ ГБ) ОЗУ; на каждой VE был запущен обычный набор процессов: init, syslogd, crond, sshd и веб-сервер Apache. Демоны Apache отдавали статические страницы, которые закачивались утилитой http_load, и при этом измерялось время первого отклика. Как можно видеть, при увеличении количества VE время отклика становится больше — это происходит ввиду нехватки оперативной памяти и сильного своппинга.

В данном сценарии возможно запустить до 120 таких VE на машине с ¾ ГБ ОЗУ. Так как при увеличении объёма оперативной памяти плотность возрастает практически линейно, можно экстраполировать, что на машине с 2 GB памяти возможно запустить примерно 320 таких VE, при условии сохранения хорошей производительности.

Массовое управление[править | править исходный текст]

Владелец физического сервера с OpenVZ (root) может видеть все процессы и файлы всех VE. Эта особенность делает возможным массовое управление, в отличие от других технологии виртуализации (напр. VMware или Xen), где виртуальные сервера являются отдельными сущностями, которыми невозможно напрямую управлять с хост-системы.

Примеры использования[править | править исходный текст]

Эти примеры использования подходят ко всем виртуализационным технологиям. Однако, уникальность технологии виртуализации на уровне ОС заключается в том, что пользователю не нужно много «платить» за виртуализацию (напр. потерей производительности и т. п.), что делает низлежащие сценарии ещё более привлекательными.

Безопасность
Можно использовать отдельные VE для каждого сетевого сервиса (напр. таких, как веб-сервер, почтовый сервер, DNS сервер и т.д). В случае, если хакер находит и использует уязвимость в одном из приложений, чтобы попасть в систему, всё, что он сможет поломать, это тот самый сервис с уязвимостью — все остальные сервисы находятся в отдельных изолированных VE, к которым он не имеет доступа.
Консолидация серверов
Используя OpenVZ, простаивающие сервера могут быть консолидированы (объединены) путём их переноса внутрь виртуальных сред. Таким образом, можно увеличить загрузку серверов и уменьшить занимаемое ими место, за счёт сокращения количества машин.
Разработка и тестирование ПО
Обычно разработчикам и тестировщикам программного обеспечения под Linux требуется доступ ко множеству различных дистрибутивов, и у них часто возникает необходимость переинсталляции дистрибутивов с нуля. Используя OpenVZ, они могут получить всё это на одном сервере, без необходимости перезагрузок и с «родной» производительностью.

Аналогичные технологии[править | править исходный текст]

Другие реализации технологии виртуализации на уровне операционной системы: Linux-VServer, FreeBSD Jails, LXC, Solaris Containers, IBM AIX6 WPARs.

Недостатки[править | править исходный текст]

Из недостатков можно выделить:

Ограниченность в выборе «гостевой» ОС
В роли «гостевой» системы могут выступать только различные дистрибутивы Linux.

См. также[править | править исходный текст]

Примечания[править | править исходный текст]

  1. Download/kernel/rhel6  (англ.)
  2. Download/kernel/rhel6-testing  (англ.)
  3. Download/vzctl  (англ.)
  4. Download/vzquota  (англ.)
  5. HPL-2007-59 technical report  (англ.)
  6. Download/kernel (англ.). wiki.openvz.org. Проверено 22 января 2014.
  7. Different kernel flavors (англ.). wiki.openvz.org. Проверено 22 января 2014.
  8. Andi Kleen. Linux kernel documentation (англ.). kernel.org (Илюь 2004). Проверено 22 января 2014.

Ссылки[править | править исходный текст]