Kubernetes

Материал из Википедии — свободной энциклопедии
Перейти к навигации Перейти к поиску
Kubernetes
Kubernetes logo.svg
Тип Linux Foundation Project[d]
Разработчик Google[1]
Написана на Go[2][3]
Операционная система кроссплатформенность
Первый выпуск 7 июня 2014
Последняя версия
Лицензия Apache License 2.0[5]
Сайт kubernetes.io

Kubernetes (от др.-гр. κυβερνήτης (читается как «кибернетес»), — «кормчий», «рулевой»[6], часто также используется нумероним K8s[6]) — открытое программное обеспечение для автоматизации развёртывания, масштабирования и управления контейнеризированными приложениями[7]. Поддерживает основные технологии контейнеризации, включая Docker, rkt, также возможна поддержка технологий аппаратной виртуализации[8].

Оригинальная версия была разработана компанией Google для внутренних нужд, впоследствии система передана под управление Cloud Native Computing Foundation. Используются рядом крупных организаций и интернет-проектов, в частности, инфраструктура фонда Wikimedia Foundation перенесена с самостоятельно разработанного программного обеспечения для организации кластеров на Kubernetes.

История[править | править код]

Google Container Engine talk at Google Cloud Summit

Основные разработчики первых версий внутренней системы Google — программисты Джо Беда (Joe Beda), Брендан Бёрнс (Brendan Burns) и Крэйг Маклаки (Craig McLuckie[9]), в дальнейшем к проекту присоединились их коллеги Брайан Грант (Brian Grant) и Тим Хокин (Tim Hockin). Основной язык программирования системы — Go. На разработку и внутреннюю идеологию Kubernetes серьёзно повлиял другой продукт Google, оставшийся внутренней разработкой — система управления кластерами Google Borg[10][11], над которым ранее работал ряд ключевых разработчиков Kubernetes.

Оригинальное наименование проекта — Project Seven (отсылка к героине сериала Star Trek, возвращённой в индивидуальное и дружественное к людям состояние из статуса члена нечеловеческого роевого кибернетического разума Коллектива Боргов)[12]; семь ручек на штурвале логотипа проекта — аллюзия на этот художественный образ.

В середине 2014 года опубликованы исходные коды проекта[13]. 21 июля 2015 года выпущена версия 1.0[14]; после чего Google в партнёрстве с Linux Foundation организован специальный фонд Cloud Native Computing Foundation (CNCF)[15], которому корпорация передала Kubernetes в качестве начального технологического вклада.

Концепции[править | править код]

Как и многие другие сложные продукты, Kubernetes в рамках своей экосистемы вводит ряд специфических понятий и концепций.

Узел (node) — это отдельная физическая или виртуальная машина, на которой развёрнуты и выполняются контейнеры приложений. Каждый узел в кластере содержит сервисы для запуска приложений в контейнерах (например Docker), а также компоненты, предназначенные для централизованного управления узлом.

Под (pod, с англ. — «стручок, кокон») — базовая единица для управления и запуска приложений, один или несколько контейнеров, которым гарантирован запуск на одном узле, обеспечивается разделение ресурсов[16] и предоставляется уникальный в пределах кластера IP-адрес[17]. Последнее позволяет приложениям, развёрнутым на поде, использовать фиксированные и предопределённые номера портов без риска конфликта. Поды могут напрямую управляться с использованием API Kubernetes или управление ими может быть передано контроллеру[16].

Том (volume) — общий ресурс хранения для совместного использования из контейнеров, развёрнутых в пределах одного пода.

Все объекты управления (узлы, поды, контейнеры) в Kubernetes помечаются метками (label), селекторы меток (label selector) — это запросы, которые позволяют получить ссылку на объекты, соответствующие какой-то из меток[16]; метки и селекторы — это главный механизм Kubernetes, который позволяет выбрать, какой из объектов следует использовать для запрашиваемой операции.

Сервисом в Kubernetes называют совокупность логически связанных наборов подов и политик доступа к ним. Например, сервис может соответствовать одному из уровней программного обеспечения, разработанного в соответствии с принципами многоуровневой архитектуры программного обеспечения. Набор подов, соответствующий сервису, получается в результате выполнения селектора соответствующей метки[16].

Kubernetes обеспечивает функции обнаружения сервисов и маршрутизации по запросу, в частности, система умеет переназначать необходимые для обращения к сервису IP-адрес и доменное имя сервиса различным подам, входящим в его состав. При этом обеспечивается балансировка нагрузки между подами, чьи метки соответствуют сервису в стиле Round robin DNS, а также корректная работа в том случае, если один из узлов кластера вышел из строя и размещённые на нём поды автоматически переместились на другой.[17] По умолчанию сервис доступен внутри управляемого Kubernetes кластера, например поды бэкенда группируются для обеспечения балансировки нагрузки и в таком виде предоставляются фронтенду, но он может быть настроен и для того, чтобы предоставлять доступ к входящим в его состав подам извне, как к единому фронтенду.[18]

Контроллер (controller) — это процесс, который управляет состоянием кластера, пытаясь привести его от фактического к желаемому[19]; он делает это, оперируя набором подов, который определяется с помощью селекторов меток, являющихся частью определения контроллера[20]. Выполнение контроллеров обеспечивается компонентом Kubernetes Controller Manager. Один из типов контроллеров, самый известный — это контроллер репликации (Replication Controller), который обеспечивает масштабирование, запустив указанное количество копий пода в кластере. Он также обеспечивает запуск новых инстансов пода, в том случае если узел, на который работает управляемый этим контроллером под, выходит из строя..[19]Другие контроллеры, входящие в основную систему Kubernetes, включают в себя «DaemonSet Controller», который обеспечивает запуск пода на каждой машине (или подмножеством машин) и «Job Controller» для запуска подов, которые выполняются до завершения, например, как часть пакетного задания.

Операторы (operators) — специализированный вид программного обеспечения Kubernetes, предназначенный для включения в кластер сервисов, сохраняющих своё состояние между выполнениями (stateful, таких как СУБД, системы мониторинга или кэширования[21]. Назначение операторов — предоставить возможность управления stateful-приложениями в кластере Kubernetes прозрачным для способом и скрыть подробности их настроек от основного процесса управления кластером Kubernetes.

Архитектура и компоненты[править | править код]

Архитектура Kubernetes

Система реализует архитектуру «ведущий — ведомый»: выделяется подсистема управления кластером, а часть компонентов управляют индивидуальным, ведомыми узлами (называемых собственно узлами Kubernetes)[16][22].

Подсистема управления[править | править код]

Подсистема обеспечивает управление распределением нагрузки и коммуникациями внутри кластера и состоит из следующих приложений. Компоненты подсистемы управления могут выполняться на одном или на нескольких параллельно работающих мастер-узлах, совместно обеспечивающих режим высокой доступности[22].

Etcd[en] — компонент подсистемы управления, отвечающий за согласованное хранение конфигурационных данных кластера, в некотором смысле — распределённый эквивалент каталога /etc Unix-систем. Реализован как легковесная распределённая NoSQL-СУБД класса «ключ — значение»; создан в рамках проекта CoreOS.

Сервер API — ключевой компонент подсистемы управления, предоставляющий API в стиле REST (с использованием коммуникации в формате JSON поверх HTTP-транспорта), и используемый для организации внешнего и внутреннего доступа к функциям Kubernetes[16]. Сервер API обновляет состояние объектов, хранящееся в etcd, позволяя своим клиентам управлять распределением контейнеров и нагрузки между нодами управляемой системы.

Планировщик (scheduler) — компонент подсистемы управления, который выбирает, на каком узле должен выполняться конкретный под, опираясь на критерии доступности ресурсов. Планировщик отслеживает использование ресурсов на каждом из узлов, обеспечивая распределение нагрузки так, чтобы она не превышала доступный объём ресурсов. Для этой цели планировщик должен обладать информацией о доступных на каждом из узлов ресурсах, требованиях к ним со стороны управляемых подов, а также различных дополнительных пользовательских ограничениях и политиках, таких как QoS, требования аффинитета и антиаффинитета (affinity — anti-affinity — связки или развязки объектов управления друг с другом), локализации данных[en]. Иными словами, роль планировщика — находить и предоставлять ресурсы в зависимости от запросов, возникающих в связи с загрузкой[23].

Менеджер контроллеров (controller manager) — процесс, выполняющий основные контроллеры Kubernetes, такие как DaemonSet Controller и Replication Controller run in. Контроллеры взаимодействуют с сервером API Kubernetes, создавая, обновляя и удаляя управляемые ими ресурсы (поды, точки входа в сервисы, и другие).

Kubectl — интерфейс командной строки, наряду с API обеспечивающий управление ресурсами, подконтрольными Kubernetes.

Компоненты узлов[править | править код]

Процедура работы Kubernetes состоит в том, что ресурсы нод Kubernetes динамически распределяются между выполняемыми на них подами. Каждый узел в кластере Kubernetes содержит ряд типовых компонентов.

Сервис для запуска контейнеров обеспечивает функции выполнения контейнеров соответствующего вида (в зависимости от типа используемого контейнерного движка). С точки зрения программной среды Kubernetes, контейнеры инкапсулируются в подах, при этом сами контейнеры являются наиболее низкоуровневыми программными компонентами, с которыми взаимодействует программное обеспечение Kubernetes. Они, в свою очередь, содержат выполняемые приложения, библиотеки и иные необходимые для работы этих приложений ресурсы. Для внешнего мира контейнеры доступны через назначаемый каждому из контейнеров IP-адрес.

Kubelet отвечает за статус выполнения подов на узле — отслеживает, корректно ли выполняется каждый из контейнеров, находясь в рабочем состоянии. Kubelet обеспечивает запуск, останов и управление контейнерами приложений, организованными в поды. Функционально Kubelet можно рассматривать как аналог supervisord[16][24]. Если обнаруживается, что какой-то из подов находится в неверном состоянии, компонент пытается осуществить его повторное развёртывание и перезапуск на узле. Статус самого узла отправляется на подсистеме управления каждые несколько секунд в форме диагностических сообщений (heartbeat message). Если мастер-узел, исходя из содержания этих сообщений или их отсутствия, обнаруживает, что конкретный узел не работает должным образом, процесс подсистемы управления Replication Controller пытается перезапустить необходимые поды на другом узле, находящемся в рабочем состоянии.

Kube-proxy — компонент, являющийся комбинацией сетевого прокси-сервера и балансировщика нагрузки. Реализованные в нём операции сетевого уровня используют абстракцию сервиса[16]. Он отвечает за маршрутизацию входящего трафика на конкретные контейнеры, работающие в пределах пода, расположенного на узле. Маршрутизация обеспечивается на основе IP-адреса и порта входящего запроса.

cAdvisor — агент системы внутреннего мониторинга Kubernetes, собирающий метрики производительности и информацию об использовании контейнерами, работающими в пределах ноды, таких ресурсов как время работы центрального процессора, оперативной памяти, нагрузку на файловую и сетевую системы.

Разработка и развёртывание[править | править код]

Kubernetes предоставляет ряд средств для интеграции процессов разработки и развёртывания программного обеспечения, работающего под управлением этой системы. Среди наиболее часто используемых в этих целях инструментов:

  • Minikube — специализированная конфигурация Kubernetes, предназначенная для развёртывания на локальной машине, например, компьютере разработчика, применяется для изучения и локальных экспериментов над Kubernetes;
  • Helm — официальный менеджер пакетов Kubernetes, функциональный эквивалент apt-get и yum[25];
  • Monocular — веб-интерфейс для управления пакетами, упакованными в соответствии со стандартами Helm.

Для каждого из подобных инструментов существует определённый спектр альтернатив, например, в качестве прямой замены Helm используется система развёртывания инфраструктуры приложений Terraform[26]. Существует и противоположный принятому разработчиками Helm и Terraform подход, который подразумевает перемещение файлов ресурсов Kubernetes в репозиторий, например в git и дальнейшую работу с ними как с разновидностью специфического кода (такой способ работы предлагает проект kubecfg).

Распространение и конкуренция[править | править код]

Многие из поставщиков систем управления контейнерами поддержали Kubernetes, реализовав его поддержку в своих продуктах, ряд из них приняли участие в деятельности CNCF. В частности, Rancher Labs[en] включила Kubernetes в дистрибутив своей системы управления контейнерами Rancher container management platform[27], Pivotal Software[en] использовала Kubernetes продукте Pivotal Container Service (PKS)[28], Red Hat — в составе PaaS-системы OpenShift[en][29][30] (являющейся, по сути, расширенной версией Kubernetes, часто даже называемой «дистрибутивом Kubernetes»), CoreOS включила систему в состав коммерческой версии дистрибутива Container Linux Tectonic, а IBM использовала его в IBM Cloud Container Service[31][32] и в продукте IBM Cloud Private[33][34][35]. Корпорация Oracle присоединилась к Cloud Native Computing Foundation в сентябре 2017 и включила Kubernetes в состав Oracle Cloud[en] и Oracle Linux[36].

Считается, что к концу 2010-х годов Kubernetes стал стандартом де-факто для использования облачных системах и сервисах по модели PaaS, предусматривающих контейнеризацию приложений, в частности, является основной контейнеризационных сервисов ряда крупнейших публично-облачных провайдеров — Amazon (AWS Elastic Container Service), Microsoft (Microsoft Azure Containers), Google (Google Cloud Platform[en] Kubernetes Engine).

При этом развиваются и альтернативные продукты для оркестрации контейнеризированных приложений — Docker Swarm[en] от фирмы-разработчика Docker и Nomad от компании HashiCorp[en]. По сравнению с Docker Swarm, Kubernetes функционально богаче, но обладает более высоким порогом вхождения в технологию. При переходе от Docker Swarm к Kubernetes необходимо использовать приложение Kompose для конвертации созданных в Docker Compose файлов описаний оркестрации в формат, поддерживаемый Kubernetes.

Примечания[править | править код]

  1. http://kubernetes.io/
  2. https://github.com/kubernetes/kubernetes/search?l=go
  3. The kubernetes Open Source Project on Open Hub: Languages Page — 2006.
  4. Release 1.12.2 — 2018.
  5. https://github.com/kubernetes/kubernetes/blob/master/LICENSE
  6. 1 2 What is Kubernetes (K8s)?. Dialogic Glossary of Telecom Terms. Архивировано 11 октября 2017 года.
  7. kubernetes/kubernetes (англ.). GitHub. Архивировано 21 апреля 2017 года.
  8. Расширение Kubevirt обеспечивает для возможность запуска подов не на основе Docker, а на основе любых виртуальных машин, поддерживаемых libvirt.
  9. Google Made Its Secret Blueprint Public to Boost Its Cloud (англ.). Архивировано 1 июля 2016 года.
  10. Abhishek Verma; Luis Pedrosa; Madhukar R. Korupolu; David Oppenheimer; Eric Tune; John Wilkes (April 21–24, 2015). «Large-scale cluster management at Google with Borg». Proceedings of the European Conference on Computer Systems (EuroSys). Архивировано из оригинала 2017-07-27.
  11. Borg, Omega, and Kubernetes - ACM Queue. queue.acm.org. Архивировано 9 июля 2016 года.
  12. Early Stage Startup Heptio Aims to Make Kubernetes Friendly.
  13. Google Open Sources Its Secret Weapon in Cloud Computing. Wired. Проверено 24 сентября 2015. Архивировано 10 сентября 2015 года.
  14. As Kubernetes Hits 1.0, Google Donates Technology To Newly Formed Cloud Native Computing Foundation. TechCrunch. Проверено 24 сентября 2015. Архивировано 23 сентября 2015 года.
  15. Cloud Native Computing Foundation. Архивировано 3 июля 2017 года.
  16. 1 2 3 4 5 6 7 8 An Introduction to Kubernetes. DigitalOcean. Проверено 24 сентября 2015. Архивировано 1 октября 2015 года.
  17. 1 2 Langemak, Jon Kubernetes 101 – Networking. Das Blinken Lichten (11 февраля 2015). Проверено 2 ноября 2015. Архивировано 25 октября 2015 года.
  18. Langemak, Jon Kubernetes 101 – External Access Into The Cluster. Das Blinken Lichten (15 февраля 2015). Проверено 2 ноября 2015. Архивировано 26 октября 2015 года.
  19. 1 2 Overview of a Replication Controller. Documentation. CoreOS. Проверено 2 ноября 2015. Архивировано 22 сентября 2015 года.
  20. Intro: Docker and Kubernetes training - Day 2. Red Hat (20 октября 2015). Проверено 2 ноября 2015. Архивировано 29 октября 2015 года.
  21. Introducing Operators: Putting Operational Knowledge into Software // CoreOS
  22. 1 2 Kubernetes Infrastructure. OpenShift Community Documentation. OpenShift. Проверено 24 сентября 2015. Архивировано 6 июля 2015 года.
  23. The Three Pillars of Kubernetes Container Orchestration - Rancher Labs. rancher.com (18 May 2017). Проверено 22 мая 2017. Архивировано 24 июня 2017 года.
  24. Marhubi, Kamal What [.. is a Kubelet?]. kamalmarhubi.com (27 августа 2015). Архивировано 13 ноября 2015 года.
  25. Using Helm to deploy to Kubernetes (англ.). daemonza.github.io. Проверено 23 февраля 2018.
  26. Harshal Shah. Terraform vs. Helm for Kubernetes // DZone. — 2017. — 2 ноября.
  27. Deploy and Manage Kubernetes Clusters | Rancher Labs (англ.), Rancher Labs. Архивировано 16 апреля 2017 года.
  28. Software, Pivotal Pivotal Container Service (PKS) (EN). pivotal.io (17 января 2017).
  29. OpenShift v3 Platform Combines Docker, Kubernetes. blog.openshift.com. Проверено 14 августа 2014. Архивировано 6 июля 2015 года.
  30. Why Red Hat Chose Kubernetes for OpenShift. blog.openshift.com. Проверено 7 ноября 2016. Архивировано 21 февраля 2017 года.
  31. IBM Launches Bluemix Container Service with Kubernetes to Fuel Highly Secure and Rapid Development of Cognitive Apps (англ.). ibm.com.
  32. IBM chases Google, Microsoft with Kubernetes in the cloud (англ.). infoworld.com.
  33. IBM Announces IBM Cloud Private (англ.). ibm.com. Архивировано 1 ноября 2017 года.
  34. IBM Cloud Private brings cloud native computing to your data center (англ.). techcrunch.com. Архивировано 3 ноября 2017 года.
  35. IBM Cloud Private launches with bet open architecture wins hybrid cloud scrum (англ.). zdnet.com. Архивировано 3 ноября 2017 года.
  36. Oracle Joins Cloud Native Computing Foundation as Platinum Member - Cloud Native Computing Foundation (англ.), Cloud Native Computing Foundation (13 сентября 2017).

Ссылки[править | править код]