<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Katamarina - PaaS-платформа для построения облачных инфраструктур. – Katamarina OS</title><link>https://katamarina.ru/docs/kos/</link><description>Recent content in Katamarina OS on Katamarina - PaaS-платформа для построения облачных инфраструктур.</description><generator>Hugo -- gohugo.io</generator><language>ru</language><atom:link href="https://katamarina.ru/docs/kos/index.xml" rel="self" type="application/rss+xml"/><item><title>Docs: Руководство по установке</title><link>https://katamarina.ru/docs/kos/install/</link><pubDate>Mon, 01 Jan 0001 00:00:00 +0000</pubDate><guid>https://katamarina.ru/docs/kos/install/</guid><description>
&lt;h3 id="требования-к-минимальной-конфигурации">Требования к минимальной конфигурации:&lt;/h3>
&lt;h4 id="управляющий-узел-виртуальная-машина-с-linux---как-минимум-1-шт">Управляющий узел (виртуальная машина с Linux) - как минимум 1 шт.:&lt;/h4>
&lt;ul>
&lt;li>
&lt;p>Любая Linux-подобная ОС, включая российские (РЕД ОС, Альт, Астра Линукс)&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Наличие 500 МБ свободного места на диске.&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Наличие установленной и работоспособной утилиты kubectl версии 1.33 и выше.&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Для установки kubectl можно использовать руководство:
&lt;a href="https://kubernetes.io/docs/tasks/tools/install-kubectl-linux/" target="_blank">https://kubernetes.io/docs/tasks/tools/install-kubectl-linux/&lt;/a>&lt;/p>
&lt;/li>
&lt;/ul>
&lt;h4 id="вычислительный-узел-пустая-виртуальная-машина-или-физический-сервер-без-установленной-операционной-системы">Вычислительный узел (пустая виртуальная машина или физический сервер без установленной операционной системы):&lt;/h4>
&lt;ul>
&lt;li>
&lt;p>Архитектура: x86_64&lt;/p>
&lt;/li>
&lt;li>
&lt;p>vCPU/CPU: 4 ядра&lt;/p>
&lt;/li>
&lt;li>
&lt;p>vRAM/RAM: 16 GB&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Основной диск: чистый диск, размер от 20ГБ (в формате RAW/IDE для виртуальной машины)&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Дополнительный диск (опционально): чистый диск, размер от 200ГБ (в формате RAW/IDE для виртуальной машины)&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Сеть: IPv4, &lt;strong>обязательно автоматическое получение адреса по DHCP при загрузке&lt;/strong>&lt;/p>
&lt;/li>
&lt;/ul>
&lt;h3 id="подготовительные-действия-для-вычислительного-узла-выполняются-в-системе-управления-виртуальными-машинами-или-management-консоли-сервера">Подготовительные действия для вычислительного узла (выполняются в системе управления виртуальными машинами или management-консоли сервера):&lt;/h3>
&lt;p>Загрузить ISO-образ по ссылке:&lt;/p>
&lt;p>
&lt;a href="http://files.katamarina.ru/download" target="_blank">http://files.katamarina.ru/download&lt;/a>&lt;/p>
&lt;ol>
&lt;li>
&lt;p>Подключить ISO-образ к виртуальной машине (или через виртуальный CD-ROM к серверу).&lt;/p>
&lt;img width="1022" height="362" alt="image_2025-12-16_11-44-32" src="https://github.com/user-attachments/assets/c43fbaa7-c557-4663-84f6-b2ea7c68e677" />
&lt;/li>
&lt;li>
&lt;p>Выставить порядок загрузки устройств, чтобы он начинался с ISO/CD-ROM.&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Включить виртуальную машину/сервер.&lt;/p>
&lt;/li>
&lt;li>
&lt;p>Дождаться загрузки с ISO-образа.&lt;/p>
&lt;/li>
&lt;/ol>
&lt;p>Корректно загруженная система должна выглядеть следующим образом:&lt;/p>
&lt;img width="798" height="556" alt="image_2025-12-16_12-26-17" src="https://github.com/user-attachments/assets/6cb336c5-b25f-40c9-8848-ab30a5d10d2b" />
&lt;p>Убедиться, что в верхней панели статуса присутствует поле &lt;strong>KATAMARINA v1.11&lt;/strong>*, в поле &lt;strong>STAGE&lt;/strong> отображается статус &lt;strong>&amp;ldquo;Maintenance&amp;rdquo;&lt;/strong>.&lt;/p>
&lt;p>Сохранить/запомнить присвоенный по DHCP управляющий IP-адрес вычислительного узла для следующего шага (в примере - 192.168.122.34).&lt;/p>
&lt;p>В случае отличий - произвести полную очистку основного диска (или пересоздать новый (в случае ВМ) и перезагрузить систему с ISO-образа заново).&lt;/p>
&lt;h3 id="первоначальное-развертывание-кластера-выполняется-на-управляющем-узле">Первоначальное развертывание кластера, выполняется на управляющем узле:&lt;/h3>
&lt;p>Установка выполняется из под пользователя с правами администратора/root.&lt;/p>
&lt;p>&lt;strong>1. Установить управляющую утилиту:&lt;/strong>&lt;/p>
&lt;pre tabindex="0">&lt;code>curl -sL http://files.katamarina.ru/scripts/install |sh
&lt;/code>&lt;/pre>&lt;p>&lt;strong>2. Проверить корректность установки (вывод должен совпадать):&lt;/strong>&lt;/p>
&lt;pre tabindex="0">&lt;code>talosctl
&lt;/code>&lt;/pre>&lt;p>Пример корректного вывода команды:&lt;/p>
&lt;pre tabindex="0">&lt;code>A CLI for out-of-band management of Kubernetes nodes created by Talos
Usage:
talosctl [command]
Available Commands:
apply-config Apply a new configuration to a node
root@demo:~#
&lt;/code>&lt;/pre>&lt;p>&lt;strong>3. Установить управляющий IP-адрес вычислительного узла (который был сохранен в предыдущем шаге):&lt;/strong>&lt;/p>
&lt;pre tabindex="0">&lt;code>export TALOS_CONTROL_PLANE_IP=192.168.122.34
&lt;/code>&lt;/pre>&lt;p>&lt;strong>4. Сгенерировать конфигурацию для будущего кластера:&lt;/strong>&lt;/p>
&lt;pre tabindex="0">&lt;code>talosctl gen config katamarina-demo https://$TALOS_CONTROL_PLANE_IP:6443
&lt;/code>&lt;/pre>&lt;p>Пример корректного вывода команды:&lt;/p>
&lt;pre tabindex="0">&lt;code>generating PKI and tokens
Created /root/controlplane.yaml
Created /root/worker.yaml
Created /root/talosconfig
root@demo:~#
&lt;/code>&lt;/pre>&lt;p>&lt;strong>5. Применить конфигурацию вычислительного узла:&lt;/strong>&lt;/p>
&lt;pre tabindex="0">&lt;code>talosctl apply-config --insecure -n $TALOS_CONTROL_PLANE_IP --file ./controlplane.yaml
&lt;/code>&lt;/pre>&lt;p>&lt;strong>6. Вычислительный узел будет автоматически перезагружен, дождаться перезагрузки.&lt;/strong>&lt;/p>
&lt;p>После перезагрузки экран вычислительного узла должен выглядеть следующим образом:&lt;/p>
&lt;img width="797" height="637" alt="image_2025-12-16_12-09-57" src="https://github.com/user-attachments/assets/c4f55c05-421e-4674-876e-1f9bd07b3cc8" />
&lt;p>Убедиться, что IP-адрес вычислительного узла остался прежним (в примере - 192.168.122.34).&lt;/p>
&lt;p>&lt;strong>7. Инициализировать базовую конфигурацию кластера:&lt;/strong>&lt;/p>
&lt;p>Команды далее - по прежнему выполняются в консоли управляющего узла.&lt;/p>
&lt;pre tabindex="0">&lt;code>talosctl bootstrap --nodes $TALOS_CONTROL_PLANE_IP --endpoints $TALOS_CONTROL_PLANE_IP --talosconfig=./talosconfig
&lt;/code>&lt;/pre>&lt;p>&lt;strong>8. Сформировать кластер:&lt;/strong>&lt;/p>
&lt;pre tabindex="0">&lt;code>talosctl kubeconfig kubeconf --nodes $TALOS_CONTROL_PLANE_IP --endpoints $TALOS_CONTROL_PLANE_IP --talosconfig ./talosconfig
&lt;/code>&lt;/pre>&lt;p>&lt;strong>9. Проверить, что управляющий кластер был сформирован.&lt;/strong>&lt;/p>
&lt;pre tabindex="0">&lt;code>./kubectl --kubeconfig ./kubeconf get nodes
&lt;/code>&lt;/pre>&lt;p>Пример корректного вывода команды:&lt;/p>
&lt;pre tabindex="0">&lt;code>NAME STATUS ROLES AGE VERSION
talos-xxq-hug NotReady control-plane 21s v1.34.1
root@demo:~#
&lt;/code>&lt;/pre>&lt;ol start="10">
&lt;li>Базовая установка завершена, для дальнейшего конфигурирования используйте Руководство Администратора.&lt;/li>
&lt;/ol></description></item><item><title>Docs: Руководство Администратора платформы</title><link>https://katamarina.ru/docs/kos/admin/</link><pubDate>Mon, 01 Jan 0001 00:00:00 +0000</pubDate><guid>https://katamarina.ru/docs/kos/admin/</guid><description>
&lt;h2 id="администрирование-и-устранение-неполадок">Администрирование и устранение неполадок&lt;/h2>
&lt;blockquote>
&lt;p>Устранение неполадок в Control Plane и других сбоев в кластерах Talos Linux.&lt;/p>
&lt;/blockquote>
&lt;p>В этом руководстве мы предполагаем, что Talos настроен с включенными по умолчанию функциями, такими как
&lt;a href="https://docs.siderolabs.com/talos/v1.11/configure-your-talos-cluster/system-configuration/discovery" target="_blank">Служба обнаружения&lt;/a> и
&lt;a href="https://docs.siderolabs.com/kubernetes-guides/advanced-guides/kubeprism" target="_blank">KubePrism&lt;/a>.
Если эти функции отключены, некоторые из шагов по устранению неполадок могут быть неприменимы или потребовать корректировки.&lt;/p>
&lt;p>Данное руководство построено таким образом, что его можно выполнять шаг за шагом; пропускайте разделы, не относящиеся к вашей проблеме.&lt;/p>
&lt;h2 id="настройка-сети">Настройка сети&lt;/h2>
&lt;p>Поскольку Talos Linux — это операционная система, основанная на API, важно настроить сеть таким образом, чтобы обеспечить доступ к API.
Некоторую информацию можно получить с помощью
&lt;a href="https://docs.siderolabs.com/talos/v1.11/deploy-and-manage-workloads/interactive-dashboard" target="_blank">интерактивной панели мониторинга&lt;/a>, доступной на консоли машины.&lt;/p>
&lt;p>При работе в облаке сетевые настройки должны выполняться автоматически.
В то время как при работе на физическом оборудовании может потребоваться более специфичная конфигурация, см.
&lt;a href="https://docs.siderolabs.com/talos/v1.11/platform-specific-installations/bare-metal-platforms/network-config" target="_blank">руководство по настройке сети на физическом оборудовании&lt;/a>.&lt;/p>
&lt;h2 id="api-talos">API Talos&lt;/h2>
&lt;p>API Talos работает на порту 50000 (../learn-more/talos-network-connectivity).
Узлы Control Plane всегда должны предоставлять доступ к API Talos, в то время как рабочие узлы нуждаются в доступе к узлам Control Plane для выдачи TLS-сертификатов для рабочих узлов.&lt;/p>
&lt;h3 id="проблемы-с-брандмауэром">Проблемы с брандмауэром&lt;/h3>
&lt;p>Убедитесь, что брандмауэр не блокирует порт 50000 и
&lt;a href="https://docs.siderolabs.com/talos/v1.11/learn-more/talos-network-connectivity" target="_blank">коммуникацию&lt;/a> на портах 50000/50001 внутри кластера.&lt;/p>
&lt;h3 id="проблемы-с-конфигурацией-клиента">Проблемы с конфигурацией клиента&lt;/h3>
&lt;p>Убедитесь, что используете правильный файл конфигурации клиента &lt;code>talosconfig&lt;/code>, соответствующий вашему кластеру.
Дополнительную информацию см. в разделе
&lt;a href="https://docs.siderolabs.com/talos/v1.11/getting-started/getting-started" target="_blank">начало работы&lt;/a>.&lt;/p>
&lt;p>Наиболее распространенная проблема заключается в том, что команда &lt;code>talosctl gen config&lt;/code> записывает &lt;code>talosconfig&lt;/code> в файл в текущем каталоге, в то время как &lt;code>talosctl&lt;/code> по умолчанию берет конфигурацию из стандартного расположения (&lt;code>~/.talos/config&lt;/code>).
Путь к файлу конфигурации можно указать с помощью флага &lt;code>--talosconfig&lt;/code> в команде &lt;code>talosctl&lt;/code>.&lt;/p>
&lt;h3 id="конфликт-в-kubernetes-и-подсетях-хоста">Конфликт в Kubernetes и подсетях хоста&lt;/h3>
&lt;p>Если &lt;code>talosctl&lt;/code> возвращает ошибку, указывающую на то, что IP-адреса сертификатов пусты, это может быть связано с конфликтом между Kubernetes и подсетями хоста.
API Talos работает в хост-сети, но автоматически исключает подсети и сети Kubernetes из набора доступных адресов.&lt;/p>
&lt;p>В конфигурации машины Talos по умолчанию указаны следующие IPv4 CIDR для подов и сервисов Kubernetes: &lt;code>10.244.0.0/16&lt;/code> и &lt;code>10.96.0.0/12&lt;/code>.
Если в хост-сети используется одна из этих подсетей, измените конфигурацию машины, чтобы использовать другую подсеть.&lt;/p>
&lt;h3 id="неверные-конечные-точки">Неверные конечные точки&lt;/h3>
&lt;p>Интерфейс командной строки &lt;code>talosctl&lt;/code> подключается к API Talos через указанные конечные точки, которые должны представлять собой список адресов машин Control Plane.
В случае недоступности каких-либо конечных точек клиент автоматически повторит попытку подключения к другим точкам доступа.&lt;/p>
&lt;p>Рабочие узлы не следует использовать в качестве конечной точки, поскольку они не могут перенаправлять запросы на другие узлы.&lt;/p>
&lt;p>Адрес
&lt;a href="https://docs.siderolabs.com/talos/v1.11/networking/vip" target="_blank">VIP&lt;/a> ни в коем случае нельзя использовать в качестве конечной точки API Talos.&lt;/p>
&lt;h3 id="tcp-балансировщик-нагрузки">TCP-балансировщик нагрузки&lt;/h3>
&lt;p>При использовании балансировщика нагрузки TCP убедитесь, что конечная точка балансировщика нагрузки включена в список &lt;code>.machine.certSANs&lt;/code> в конфигурации машины.&lt;/p>
&lt;h2 id="системные-требования">Системные требования&lt;/h2>
&lt;p>Если минимальные
&lt;a href="https://docs.siderolabs.com/talos/v1.11/getting-started/system-requirements" target="_blank">системные требования&lt;/a> не соблюдены, это может проявляться различными способами, например, в виде случайных сбоев при запуске служб или сбоев при загрузке образов из реестра контейнеров.&lt;/p>
&lt;h2 id="проведение-проверок-состояния-здоровья">Проведение проверок состояния здоровья&lt;/h2>
&lt;p>Talos Linux предоставляет набор базовых проверок работоспособности с помощью команды &lt;code>talosctl health&lt;/code>, которую можно использовать для проверки состояния кластера.&lt;/p>
&lt;p>В режиме по умолчанию команда &lt;code>talosctl health&lt;/code> использует информацию из
&lt;a href="https://docs.siderolabs.com/talos/v1.11/configure-your-talos-cluster/system-configuration/discovery" target="_blank">discovery&lt;/a> для получения сведений о членах кластера.
Это можно переопределить с помощью флагов командной строки &lt;code>--control-plane-nodes&lt;/code> и &lt;code>--worker-nodes&lt;/code>.&lt;/p>
&lt;h2 id="журналы-сбора">Журналы сбора&lt;/h2>
&lt;p>Хотя журналы и состояние системы можно запросить через API Talos, часто бывает полезно собрать журналы со всех узлов кластера и проанализировать их в автономном режиме.
Команда &lt;code>talosctl support&lt;/code> позволяет собирать журналы и другую информацию с узлов, указанных с помощью флага &lt;code>--nodes&lt;/code> (поддерживается несколько узлов).&lt;/p>
&lt;h2 id="обнаружение-и-членство-в-кластере">Обнаружение и членство в кластере&lt;/h2>
&lt;p>Talos Linux использует
&lt;a href="https://docs.siderolabs.com/talos/v1.11/configure-your-talos-cluster/system-configuration/discovery" target="_blank">службу обнаружения&lt;/a> для обнаружения других узлов в кластере.&lt;/p>
&lt;p>Список участников на каждой машине должен быть согласованным: &lt;code>talosctl -n &amp;lt;IP&amp;gt; get members&lt;/code>.&lt;/p>
&lt;h3 id="некоторые-участники-отсутствуют">Некоторые участники отсутствуют&lt;/h3>
&lt;p>Убедитесь в наличии подключения к службе обнаружения (по умолчанию &lt;code>discovery.talos.dev:443&lt;/code>) и в том, что реестр обнаружения не отключен.&lt;/p>
&lt;h3 id="дублирующиеся-участники">Дублирующиеся участники&lt;/h3>
&lt;p>Не используйте одни и те же базовые секреты для генерации конфигурации машин для нескольких кластеров, поскольку некоторые секреты используются для идентификации членов одного и того же кластера.
Таким образом, если одна и та же конфигурация машины (или секреты) используется для многократного создания и уничтожения кластеров, служба обнаружения будет видеть одни и те же узлы как членов разных кластеров.&lt;/p>
&lt;h3 id="удаленные-участники-все-еще-присутствуют">Удаленные участники все еще присутствуют&lt;/h3>
&lt;p>Talos Linux удаляет себя из службы обнаружения при
&lt;a href="https://docs.siderolabs.com/talos/v1.11/configure-your-talos-cluster/lifecycle-management/resetting-a-machine" target="_blank">перезагрузке&lt;/a>.
Если устройство не было перезагружено, оно может отображаться как участник кластера в течение максимального времени жизни службы обнаружения (30 минут), после чего будет автоматически удалено.&lt;/p>
&lt;h2 id="проблемы-с-etcd">Проблемы с &lt;code>etcd&lt;/code>&lt;/h2>
&lt;p>&lt;code>etcd&lt;/code> — это распределенное хранилище типа «ключ-значение», используемое Kubernetes для хранения своего состояния.
Talos Linux предоставляет средства автоматизации для управления компонентами &lt;code>etcd&lt;/code>, работающими на узлах Control Plane.
Если &lt;code>etcd&lt;/code> неисправен, сервер API Kubernetes не сможет корректно функционировать.&lt;/p>
&lt;p>Всегда рекомендуется запускать нечетное количество участников &lt;code>etcd&lt;/code>, поскольку при наличии 3 или более участников обеспечивается отказоустойчивость в случае сбоев меньшего количества участников, чем необходимо для достижения кворума.&lt;/p>
&lt;p>Типичные шаги по устранению неполадок:&lt;/p>
&lt;ul>
&lt;li>Проверьте состояние службы &lt;code>etcd&lt;/code> с помощью команды &lt;code>talosctl -n IP service etcd&lt;/code> для каждого узла Control Plane.&lt;/li>
&lt;li>Проверьте принадлежность &lt;code>etcd&lt;/code> к каждому узлу Control Plane с помощью команды &lt;code>talosctl -n IP etcd members&lt;/code>.&lt;/li>
&lt;li>Проверьте логи &lt;code>etcd&lt;/code> с помощью команды &lt;code>talosctl -n IP logs etcd&lt;/code>&lt;/li>
&lt;li>Проверьте наличие оповещений &lt;code>etcd&lt;/code> с помощью команды &lt;code>talosctl -n IP etcd alarm list&lt;/code>&lt;/li>
&lt;/ul>
&lt;h3 id="все-службы-etcd-застряли-в-состоянии-pre">Все службы &lt;code>etcd&lt;/code> застряли в состоянии &lt;code>Pre&lt;/code>&lt;/h3>
&lt;p>Убедитесь, что хотя бы один участник был
&lt;a href="https://docs.siderolabs.com/talos/v1.11/getting-started/getting-started#kubernetes-bootstrap" target="_blank">запущен&lt;/a>.&lt;/p>
&lt;p>Убедитесь, что машина может загрузить образ контейнера &lt;code>etcd&lt;/code>, проверьте &lt;code>talosctl dmesg&lt;/code> на наличие сообщений, начинающихся с префикса &lt;code>retrying:&lt;/code>.&lt;/p>
&lt;h3 id="некоторые-службы-etcd-застряли-в-состоянии-pre">Некоторые службы &lt;code>etcd&lt;/code> застряли в состоянии &lt;code>Pre&lt;/code>&lt;/h3>
&lt;p>Убедитесь, что трафик на порту 2380 между узлами Control Plane не заблокирован.&lt;/p>
&lt;p>Убедитесь, что кворум &lt;code>etcd&lt;/code> не потерян.&lt;/p>
&lt;p>Убедитесь, что все узлы Control Plane отображаются в выводе команды &lt;code>talosctl get members&lt;/code>.&lt;/p>
&lt;h3 id="отчеты-и-оповещения-etcd">Отчеты и оповещения &lt;code>etcd&lt;/code>&lt;/h3>
&lt;p>См. руководство по
&lt;a href="https://docs.siderolabs.com/talos/v1.11/build-and-extend-talos/cluster-operations-and-maintenance/etcd-maintenance" target="_blank">обслуживанию etcd&lt;/a>.&lt;/p>
&lt;h3 id="кворум-etcd-потерян">Кворум &lt;code>etcd&lt;/code> потерян&lt;/h3>
&lt;p>См. руководство по
&lt;a href="https://docs.siderolabs.com/talos/v1.11/build-and-extend-talos/cluster-operations-and-maintenance/disaster-recovery" target="_blank">аварийному восстановлению&lt;/a>.&lt;/p>
&lt;h3 id="другие-вопросы">Другие вопросы&lt;/h3>
&lt;p>&lt;code>etcd&lt;/code> будет запускаться только на узлах Control Plane.
Если узел назначен рабочим узлом, не следует ожидать, что на нем будет запущена команда &lt;code>etcd&lt;/code>.&lt;/p>
&lt;p>При первой загрузке узла каталог данных &lt;code>etcd&lt;/code> (&lt;code>/var/lib/etcd&lt;/code>) пуст и будет заполнен только при запуске &lt;code>etcd&lt;/code>.&lt;/p>
&lt;p>Если служба &lt;code>etcd&lt;/code> аварийно завершает работу и перезапускается, проверьте ее журналы с помощью команды &lt;code>talosctl -n &amp;lt;IP&amp;gt; logs etcd&lt;/code>.
Наиболее распространенные причины аварий:&lt;/p>
&lt;ul>
&lt;li>Неверные аргументы, переданные через &lt;code>extraArgs&lt;/code> в конфигурации;&lt;/li>
&lt;li>При загрузке Talos с непустого диска с уже установленной Talos, &lt;code>/var/lib/etcd&lt;/code> содержит данные из старого кластера.&lt;/li>
&lt;/ul>
&lt;h2 id="проблемы-с-kubelet-и-узлами-kubernetes">Проблемы с &lt;code>kubelet&lt;/code> и узлами Kubernetes&lt;/h2>
&lt;p>Сервис &lt;code>kubelet&lt;/code> должен быть запущен на всех узлах Talos и отвечает за запуск подов Kubernetes.
статические поды (включая компоненты Control Plane) и регистрация узла на сервере API Kubernetes.&lt;/p>
&lt;p>Если &lt;code>kubelet&lt;/code> не запущен на узле Control Plane, он заблокирует запуск компонентов Control Plane.&lt;/p>
&lt;p>Узел не будет зарегистрирован в Kubernetes до тех пор, пока не будет запущен сервер API Kubernetes и не будут применены начальные манифесты Kubernetes.&lt;/p>
&lt;h3 id="kubelet-не-запущен">&lt;code>kubelet&lt;/code> не запущен&lt;/h3>
&lt;p>Убедитесь, что образ &lt;code>kubelet&lt;/code> доступен (&lt;code>talosctl image ls --namespace system&lt;/code>).&lt;/p>
&lt;p>Проверьте логи &lt;code>kubelet&lt;/code> с помощью команды &lt;code>talosctl -n IP logs kubelet&lt;/code> на наличие ошибок запуска:&lt;/p>
&lt;ul>
&lt;li>Убедитесь, что версия Kubernetes
&lt;a href="https://docs.siderolabs.com/talos/v1.11/getting-started/support-matrix" target="_blank">поддерживается&lt;/a> в этом релизе Talos.&lt;/li>
&lt;li>Убедитесь, что дополнительные аргументы &lt;code>kubelet&lt;/code> и дополнительная конфигурация, предоставляемая вместе с конфигурацией машины Talos, являются допустимыми.&lt;/li>
&lt;/ul>
&lt;h3 id="talos-выдает-ошибку-узел-не-найден">Talos выдает ошибку &amp;ldquo;Узел не найден&amp;rdquo;&lt;/h3>
&lt;p>&lt;code>kubelet&lt;/code> еще не зарегистрировал узел на сервере API Kubernetes; это ожидаемое поведение на этапе первоначальной загрузки кластера, после чего ошибка исчезнет.
Если сообщение не исчезает, проверьте работоспособность API Kubernetes.&lt;/p>
&lt;p>Менеджер контроллеров Kubernetes («kube-controller-manager») отвечает за мониторинг сертификата.
подписание запросов на подписание сертификатов (CSR) и выдача сертификатов по каждому из них.
«Кублетт» отвечает за генерацию и отправку запросов на обслуживание клиентов (CSR) для своего приложения.
связанный узел.&lt;/p>
&lt;p>Состояние любого запроса на подписание сертификата (CSR) можно проверить с помощью команды &lt;code>kubectl get csr&lt;/code>:&lt;/p>
&lt;pre tabindex="0">&lt;code>$ kubectl get csr
NAME AGE SIGNERNAME REQUESTOR CONDITION
csr-jcn9j 14m kubernetes.io/kube-apiserver-client-kubelet system:bootstrap:q9pyzr Approved,Issued
csr-p6b9q 14m kubernetes.io/kube-apiserver-client-kubelet system:bootstrap:q9pyzr Approved,Issued
csr-sw6rm 14m kubernetes.io/kube-apiserver-client-kubelet system:bootstrap:q9pyzr Approved,Issued
csr-vlghg 14m kubernetes.io/kube-apiserver-client-kubelet system:bootstrap:q9pyzr Approved,Issued
&lt;/code>&lt;/pre>&lt;h3 id="команда-kubectl-get-nodes-выдает-ошибку-неверный-внутренний-ip-адрес">Команда &lt;code>kubectl get nodes&lt;/code> выдает ошибку &amp;ldquo;Неверный внутренний IP-адрес&amp;rdquo;.&lt;/h3>
&lt;p>Настройте правильный внутренний IP-адрес с помощью
&lt;a href="https://docs.siderolabs.com/talos/v1.11/reference/configuration/v1alpha1/config#Config.machine.kubelet.nodeIP" target="_blank">&lt;code>.machine.kubelet.nodeIP&lt;/code>&lt;/a>&lt;/p>
&lt;h3 id="команда-kubectl-get-nodes-выдает-ошибку-неверный-внешний-ip-адрес">Команда &lt;code>kubectl get nodes&lt;/code> выдает ошибку &amp;ldquo;Неверный внешний IP-адрес&amp;rdquo;.&lt;/h3>
&lt;p>Talos Linux не управляет внешним IP-адресом, это делается с помощью Kubernetes Cloud Controller Manager.&lt;/p>
&lt;h3 id="команда-kubectl-get-nodes-выдает-ошибку-неверное-имя-узла">Команда &lt;code>kubectl get nodes&lt;/code> выдает ошибку &amp;ldquo;Неверное имя узла&amp;rdquo;.&lt;/h3>
&lt;p>По умолчанию имя узла Kubernetes определяется на основе имени хоста.
Обновите имя хоста, используя конфигурацию машины, облачную конфигурацию или DHCP-сервер.&lt;/p>
&lt;h3 id="узел-не-готов">Узел не готов&lt;/h3>
&lt;p>В Kubernetes узел помечается как «готовый» только после того, как его CNI-интерфейс будет активирован.
Загрузка изображений CNI и запуск CNI занимают минуту-две.
Если узел застрял в этом состоянии слишком долго, проверьте поды CNI и логи с помощью &lt;code>kubectl&lt;/code>.
Как правило, ресурсы, связанные с CNI, создаются в пространстве имен &lt;code>kube-system&lt;/code>.&lt;/p>
&lt;p>Например, для стандартного CNI Talos Flannel:&lt;/p>
&lt;pre tabindex="0">&lt;code>$ kubectl -n kube-system получить модули
NAME READY STATUS RESTARTS AGE
...
kube-flannel-25drx 1/1 Running 0 23m
kube-flannel-8lmb6 1/1 Running 0 23m
kube-flannel-gl7nx 1/1 Running 0 23m
kube-flannel-jknt9 1/1 Running 0 23m
...
&lt;/code>&lt;/pre>&lt;h3 id="дублирующиесяустаревшие-узлы">Дублирующиеся/Устаревшие узлы&lt;/h3>
&lt;p>Talos Linux не удаляет узлы Kubernetes автоматически, поэтому, если узел удален из кластера, он все равно останется в Kubernetes.
Удалите узел из Kubernetes с помощью команды &lt;code>kubectl delete node &amp;lt;node-name&amp;gt;&lt;/code>.&lt;/p>
&lt;h3 id="talos-жалуется-на-ошибки-сертификатов-в-api-kubelet">Talos жалуется на ошибки сертификатов в API &lt;code>kubelet&lt;/code>&lt;/h3>
&lt;p>Эта ошибка может появиться во время начальной загрузки кластера и исчезнет после запуска сервера API Kubernetes и регистрации узла.&lt;/p>
&lt;p>Пример логов Talos:&lt;/p>
&lt;pre tabindex="0">&lt;code>[talos] controller failed {&amp;#34;component&amp;#34;: &amp;#34;controller-runtime&amp;#34;, &amp;#34;controller&amp;#34;: &amp;#34;k8s.KubeletStaticPodController&amp;#34;, &amp;#34;error&amp;#34;: &amp;#34;error refreshing pod status: error fetching pod status: Get \&amp;#34;https://127.0.0.1:10250/pods/?timeout=30s\&amp;#34;: remote error: tls: internal error&amp;#34;}
&lt;/code>&lt;/pre>&lt;p>По умолчанию &lt;code>kubelet&lt;/code> выдает самоподписанный серверный сертификат, но при включении функции &lt;code>rotate-server-certificates&lt;/code>,
&lt;code>kubelet&lt;/code> выдает свой сертификат, используя &lt;code>kube-apiserver&lt;/code>.
Убедитесь, что запрос на подписание сертификата &lt;code>kubelet&lt;/code> одобрен сервером API Kubernetes.&lt;/p>
&lt;p>В любом случае, эта ошибка не является критической, поскольку она влияет только на передачу информации о состоянии пода в Talos Linux.&lt;/p>
&lt;h2 id="control-plane-kubernetes">Control Plane Kubernetes&lt;/h2>
&lt;p>Control Plane Kubernetes состоит из следующих компонентов:&lt;/p>
&lt;ul>
&lt;li>&lt;code>kube-apiserver&lt;/code> — API-сервер Kubernetes&lt;/li>
&lt;li>&lt;code>kube-controller-manager&lt;/code> — менеджер контроллеров Kubernetes&lt;/li>
&lt;li>&lt;code>kube-scheduler&lt;/code> — планировщик Kubernetes&lt;/li>
&lt;/ul>
&lt;p>При желании &lt;code>kube-proxy&lt;/code> может запускаться как DaemonSet для обеспечения связи между подом и сервисом.&lt;/p>
&lt;p>&lt;code>coredns&lt;/code> обеспечивает разрешение имен для кластера.&lt;/p>
&lt;p>CNI не является частью Control Plane, но он необходим для подов Kubernetes, использующих сетевое взаимодействие между подами.&lt;/p>
&lt;p>Поиск и устранение неисправностей всегда следует начинать с &lt;code>kube-apiserver&lt;/code>, а затем переходить к другим компонентам.&lt;/p>
&lt;p>В Talos Linux &lt;code>kube-apiserver&lt;/code> настроен на взаимодействие с &lt;code>etcd&lt;/code>, работающим на том же узле, поэтому &lt;code>etcd&lt;/code> должен быть работоспособен, прежде чем &lt;code>kube-apiserver&lt;/code> сможет запуститься.
Компоненты &lt;code>kube-controller-manager&lt;/code> и &lt;code>kube-scheduler&lt;/code> настроены на взаимодействие с компонентом &lt;code>kube-apiserver&lt;/code> на том же узле, поэтому они не запустятся, пока &lt;code>kube-apiserver&lt;/code> не будет работать корректно.&lt;/p>
&lt;h3 id="статические-модули-control-plane">Статические модули Control Plane&lt;/h3>
&lt;p>Talos должен генерировать статические определения подов для Control Plane Kubernetes.
в качестве ресурсов:&lt;/p>
&lt;pre tabindex="0">&lt;code>$ talosctl -n &amp;lt;IP&amp;gt; get staticpods
NODE NAMESPACE TYPE ID VERSION
172.20.0.2 k8s StaticPod kube-apiserver 1
172.20.0.2 k8s StaticPod kube-controller-manager 1
172.20.0.2 k8s StaticPod kube-scheduler 1
&lt;/code>&lt;/pre>&lt;p>Talos должен сообщить, что статические определения подов отображаются для &lt;code>kubelet&lt;/code>:&lt;/p>
&lt;pre tabindex="0">&lt;code>$ talosctl -n &amp;lt;IP&amp;gt; dmesg | grep &amp;#39;rendered new&amp;#39;
172.20.0.2: user: warning: [2023-04-26T19:17:52.550527204Z]: [talos] rendered new static pod {&amp;#34;component&amp;#34;: &amp;#34;controller-runtime&amp;#34;, &amp;#34;controller&amp;#34;: &amp;#34;k8s.StaticPodServerController&amp;#34;, &amp;#34;id&amp;#34;: &amp;#34;kube-apiserver&amp;#34;}
172.20.0.2: user: warning: [2023-04-26T19:17:52.552186204Z]: [talos] rendered new static pod {&amp;#34;component&amp;#34;: &amp;#34;controller-runtime&amp;#34;, &amp;#34;controller&amp;#34;: &amp;#34;k8s.StaticPodServerController&amp;#34;, &amp;#34;id&amp;#34;: &amp;#34;kube-controller-manager&amp;#34;}
172.20.0.2: user: warning: [2023-04-26T19:17:52.554607204Z]: [talos] rendered new static pod {&amp;#34;component&amp;#34;: &amp;#34;controller-runtime&amp;#34;, &amp;#34;controller&amp;#34;: &amp;#34;k8s.StaticPodServerController&amp;#34;, &amp;#34;id&amp;#34;: &amp;#34;kube-scheduler&amp;#34;}
&lt;/code>&lt;/pre>&lt;p>Если статические определения подов не отображаются, проверьте состояние служб &lt;code>etcd&lt;/code> и &lt;code>kubelet&lt;/code> (см. выше).
а также журналы выполнения контроллера (&lt;code>talosctl logs controller-runtime&lt;/code>).&lt;/p>
&lt;h3 id="состояние-модуля-управления">Состояние модуля управления&lt;/h3>
&lt;p>Изначально компонент &lt;code>kube-apiserver&lt;/code> не будет запущен, и потребуется некоторое время, прежде чем он полностью заработает.
во время загрузки Bootstrap (изображение следует брать из интернета и т. д.)&lt;/p>
&lt;p>Состояние компонентов Control Plane на каждом из узлов Control Plane можно проверить с помощью команды &lt;code>talosctl containers -k&lt;/code>:&lt;/p>
&lt;pre tabindex="0">&lt;code>$ talosctl -n &amp;lt;IP&amp;gt; containers --kubernetes
NODE NAMESPACE ID IMAGE PID STATUS
172.20.0.2 k8s.io kube-system/kube-apiserver-talos-default-controlplane-1 registry.k8s.io/pause:3.2 2539 SANDBOX_READY
172.20.0.2 k8s.io └─ kube-system/kube-apiserver-talos-default-controlplane-1:kube-apiserver:51c3aad7a271 registry.k8s.io/kube-apiserver:v1.35.0 2572 CONTAINER_RUNNING
&lt;/code>&lt;/pre>&lt;p>Журналы компонентов Control Plane можно проверить с помощью команды &lt;code>talosctl logs --kubernetes&lt;/code> (или с помощью &lt;code>-k&lt;/code> в качестве сокращенной записи):&lt;/p>
&lt;pre tabindex="0">&lt;code>talosctl -n &amp;lt;IP&amp;gt; logs -k kube-system/kube-apiserver-talos-default-controlplane-1:kube-apiserver:51c3aad7a271
&lt;/code>&lt;/pre>&lt;p>Если компонент control plane сообщает об ошибке при запуске, проверьте следующее:&lt;/p>
&lt;ul>
&lt;li>Убедитесь, что версия Kubernetes
&lt;a href="https://docs.siderolabs.com/talos/v1.11/getting-started/support-matrix" target="_blank">поддерживается&lt;/a> в этом релизе Talos.&lt;/li>
&lt;li>Убедитесь, что дополнительные аргументы и дополнительные параметры конфигурации, предоставленные вместе с конфигурацией машины Talos, являются допустимыми.&lt;/li>
&lt;/ul>
&lt;h3 id="манифесты-начальной-загрузки-kubernetes">Манифесты начальной загрузки Kubernetes&lt;/h3>
&lt;p>В рамках процесса начальной загрузки Talos внедряет манифесты начальной загрузки в API-сервер Kubernetes.
Существует два типа таких манифестов: системные манифесты, встроенные в Talos, и дополнительные манифесты, загружаемые извне (пользовательские CNI, дополнительные манифесты в конфигурации машины):&lt;/p>
&lt;pre tabindex="0">&lt;code>$ talosctl -n &amp;lt;IP&amp;gt; get manifests
NODE NAMESPACE TYPE ID VERSION
172.20.0.2 controlplane Manifest 00-kubelet-bootstrapping-token 1
172.20.0.2 controlplane Manifest 01-csr-approver-role-binding 1
172.20.0.2 controlplane Manifest 01-csr-node-bootstrap 1
172.20.0.2 controlplane Manifest 01-csr-renewal-role-binding 1
172.20.0.2 controlplane Manifest 02-kube-system-sa-role-binding 1
172.20.0.2 controlplane Manifest 03-default-pod-security-policy 1
172.20.0.2 controlplane Manifest 05-https://docs.projectcalico.org/manifests/calico.yaml 1
172.20.0.2 controlplane Manifest 10-kube-proxy 1
172.20.0.2 controlplane Manifest 11-core-dns 1
172.20.0.2 controlplane Manifest 11-core-dns-svc 1
172.20.0.2 controlplane Manifest 11-kube-config-in-cluster 1
&lt;/code>&lt;/pre>&lt;p>Подробную информацию о каждом манифесте можно получить, добавив параметр &lt;code>-o yaml&lt;/code>:&lt;/p>
&lt;pre tabindex="0">&lt;code>$ talosctl -n &amp;lt;IP&amp;gt; get manifests 01-csr-approver-role-binding --namespace=controlplane -o yaml
node: 172.20.0.2
metadata:
namespace: controlplane
type: Manifests.kubernetes.talos.dev
id: 01-csr-approver-role-binding
version: 1
phase: running
spec:
- apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
name: system-bootstrap-approve-node-client-csr
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: system:certificates.k8s.io:certificatesigningrequests:nodeclient
subjects:
- apiGroup: rbac.authorization.k8s.io
kind: Group
name: system:bootstrappers
&lt;/code>&lt;/pre>&lt;h3 id="другие-компоненты-control-plane">Другие компоненты Control Plane&lt;/h3>
&lt;p>После запуска сервера API Kubernetes проблемы с другими компонентами Control Plane можно устранить с помощью команды &lt;code>kubectl&lt;/code>:&lt;/p>
&lt;pre tabindex="0">&lt;code>kubectl get nodes -o wide
kubectl get pods -o wide --all-namespaces
kubectl describe pod -n NAMESPACE POD
kubectl logs -n NAMESPACE POD
&lt;/code>&lt;/pre>&lt;h2 id="api-kubernetes">API Kubernetes&lt;/h2>
&lt;p>Конфигурацию клиента Kubernetes API (&lt;code>kubeconfig&lt;/code>) можно получить с помощью Talos API, используя команду &lt;code>talosctl -n &amp;lt;IP&amp;gt; kubeconfig&lt;/code>.
В Talos Linux кластер в основном не зависит от конечной точки API Kubernetes, но конечную точку API Kubernetes следует настроить.
корректно обеспечивается внешний доступ к кластеру.&lt;/p>
&lt;h3 id="конечная-точка-control-plane-kubernetes">Конечная точка Control Plane Kubernetes&lt;/h3>
&lt;p>Конечная точка Control Plane Kubernetes — это единственный канонический URL-адрес, по которому осуществляется доступ к API Kubernetes.
В частности, в системах управления с высокой доступностью (HA) эта конечная точка может указывать на балансировщик нагрузки или DNS-имя, которое может
имеют несколько записей типа &lt;code>A&lt;/code> ​​и &lt;code>AAAA&lt;/code>.&lt;/p>
&lt;p>Подобно собственному API Talos, API Kubernetes использует взаимный TLS, клиентское соединение.
сертификаты и общий центр сертификации (ЦС).
В отличие от веб-сайтов общего назначения, здесь нет необходимости в вышестоящем центре сертификации, поэтому инструменты не требуют дополнительных настроек.
например, cert-manager, Let&amp;rsquo;s Encrypt или подобные продукты.
поскольку подтвержденные TLS-сертификаты не требуются.
Однако шифрование &lt;em>есть&lt;/em>, поэтому схема URL всегда будет &lt;code>https://&lt;/code>.&lt;/p>
&lt;p>По умолчанию сервер API Kubernetes в Talos работает на порту 6443.
Таким образом, URL-адреса конечных точек Control Plane для Talos почти всегда будут иметь следующий вид:
&lt;code>https://endpoint:6443&lt;/code>.
(Необходимо указать порт, поскольку он не соответствует порту по умолчанию &lt;code>443&lt;/code> (https:// &amp;hellip;
Указанная выше &lt;code>endpoint&lt;/code> может быть DNS-именем или IP-адресом, но она должна быть следующей:
направлено на &lt;em>множество&lt;/em> всех узлов Control Plane, в отличие от
один.&lt;/p>
&lt;p>Как уже упоминалось выше, этого можно достичь с помощью ряда стратегий, в том числе:&lt;/p>
&lt;ul>
&lt;li>внешний балансировщик нагрузки&lt;/li>
&lt;li>DNS-записи&lt;/li>
&lt;li>Встроенный в Talos общий IP-адрес (
&lt;a href="https://docs.siderolabs.com/talos/v1.11/networking/vip" target="_blank">VIP&lt;/a>)&lt;/li>
&lt;li>Установление BGP-пиринга для общего IP-адреса (например, с помощью
&lt;a href="https://kube-vip.io" target="_blank">kube-vip&lt;/a>)&lt;/li>
&lt;/ul>
&lt;p>Использование DNS-имени здесь — хорошая идея, поскольку это позволяет использовать любой другой вариант, одновременно предоставляя&amp;hellip;
слой абстракции.
Это позволяет изменять базовые IP-адреса без влияния на
канонический URL.&lt;/p>
&lt;p>В отличие от большинства сервисов в Kubernetes, API-сервер работает в рамках сетевой инфраструктуры хоста.
Это означает, что он использует то же сетевое пространство имен, что и хост.
Это означает, что вы можете использовать IP-адрес(а) хоста для обращения к Kubernetes.
API-сервер.&lt;/p>
&lt;p>Для обеспечения доступности API важно, чтобы любой балансировщик нагрузки был осведомлен о следующем:
проверка работоспособности серверов бэкэнд-API для минимизации сбоев во время работы.
Типичные операции с узлами, такие как перезагрузка и обновление.&lt;/p>
&lt;h2 id="прочее">Прочее&lt;/h2>
&lt;h3 id="проверка-журналов-выполнения-контроллера">Проверка журналов выполнения контроллера&lt;/h3>
&lt;p>Talos использует набор
&lt;a href="https://docs.siderolabs.com/talos/v1.11/learn-more/controllers-resources" target="_blank">контроллеров&lt;/a>, которые работают с ресурсами для построения и поддержки операций машины.&lt;/p>
&lt;p>Некоторую отладочную информацию можно получить из логов контроллера с помощью команды &lt;code>talosctl logs controller-runtime&lt;/code>:&lt;/p>
&lt;pre tabindex="0">&lt;code>talosctl -n &amp;lt;IP&amp;gt; logs controller-runtime
&lt;/code>&lt;/pre>&lt;p>Контроллеры постоянно работают в цикле согласования, поэтому в любой момент времени они могут запускаться, выходить из строя или перезапускаться.
Это ожидаемое поведение.&lt;/p>
&lt;p>Если в журнале &lt;code>controller-runtime&lt;/code> нет новых сообщений, это означает, что контроллеры успешно завершили согласование, и текущее состояние системы соответствует желаемому состоянию системы.&lt;/p></description></item><item><title>Docs: Руководство Пользователя платформы</title><link>https://katamarina.ru/docs/kos/user/</link><pubDate>Mon, 01 Jan 0001 00:00:00 +0000</pubDate><guid>https://katamarina.ru/docs/kos/user/</guid><description>
&lt;h2 id="интерактивная-панель-управления">Интерактивная панель управления&lt;/h2>
&lt;blockquote>
&lt;p>Инструмент для проверки состояния работающей системы&lt;/p>
&lt;/blockquote>
&lt;p>Интерактивная панель мониторинга включена для всех платформ, кроме образов SBC. Панель мониторинга можно отключить с помощью параметра ядра talos.dashboard.disabled=1&lt;/p>
&lt;p>Панель управления работает только на физической видеоконсоли (не последовательной консоли) на втором виртуальном терминале (TTY).
Первый виртуальный терминал отображает журналы ядра. Переключение между виртуальными терминалами осуществляется с помощью клавиш &lt;code>&amp;lt;Alt+F1&amp;gt;&lt;/code>и &lt;code>&amp;lt;Alt+F2&amp;gt;&lt;/code>&lt;/p>
&lt;p>Клавиши &lt;code>&amp;lt;F1&amp;gt;&lt;/code>— &lt;code>&amp;lt;Fn&amp;gt;&lt;/code>используются для переключения между различными экранами панели управления.&lt;/p>
&lt;p>Панель управления использует либо фреймбуфер UEFI, либо фреймбуфер VGA/VESA (для загрузки через устаревший BIOS).&lt;/p>
&lt;h2 id="управление-разрешением-панели-управления">Управление разрешением панели управления&lt;/h2>
&lt;p>В системах со старым BIOS разрешение экрана можно настроить с помощью
&lt;a href="https://docs.kernel.org/fb/vesafb.html" target="_blank">&lt;code>vga=&lt;/code> kernel parameter&lt;/a>.&lt;/p>
&lt;p>В современных ядрах и платформах этот параметр часто игнорируется. Для получения надежных результатов рекомендуется загрузка с UEFI .&lt;/p>
&lt;p>При работе в режиме UEFI разрешение экрана можно установить через настройки гипервизора или микропрограммы UEFI.&lt;/p>
&lt;h2 id="сводная-информация-f1">Сводная информация (&lt;code>F1&lt;/code>)&lt;/h2>
&lt;img src="https://mintcdn.com/siderolabs-fe86397c/ggZ02hqyfoEX1q-x/talos/v1.9/deploy-and-manage-workloads/images/interactive-dashboard-1.png?fit=max&amp;auto=format&amp;n=ggZ02hqyfoEX1q-x&amp;q=85&amp;s=d35339535e51eb7b15456a5af52b8404" alt="Interactive Dashboard Summary Screen" width="920" data-og-width="1556" data-og-height="1234" data-path="talos/v1.9/deploy-and-manage-workloads/images/interactive-dashboard-1.png" data-optimize="true" data-opv="3" srcset="https://mintcdn.com/siderolabs-fe86397c/ggZ02hqyfoEX1q-x/talos/v1.9/deploy-and-manage-workloads/images/interactive-dashboard-1.png?w=280&amp;fit=max&amp;auto=format&amp;n=ggZ02hqyfoEX1q-x&amp;q=85&amp;s=e14103d301b3ef32aa72c7e86c35336e 280w, https://mintcdn.com/siderolabs-fe86397c/ggZ02hqyfoEX1q-x/talos/v1.9/deploy-and-manage-workloads/images/interactive-dashboard-1.png?w=560&amp;fit=max&amp;auto=format&amp;n=ggZ02hqyfoEX1q-x&amp;q=85&amp;s=bb8736e7d213e21f1626c415ab79ac78 560w, https://mintcdn.com/siderolabs-fe86397c/ggZ02hqyfoEX1q-x/talos/v1.9/deploy-and-manage-workloads/images/interactive-dashboard-1.png?w=840&amp;fit=max&amp;auto=format&amp;n=ggZ02hqyfoEX1q-x&amp;q=85&amp;s=7f46f23ed09dd6514cd2142e96ed4442 840w, https://mintcdn.com/siderolabs-fe86397c/ggZ02hqyfoEX1q-x/talos/v1.9/deploy-and-manage-workloads/images/interactive-dashboard-1.png?w=1100&amp;fit=max&amp;auto=format&amp;n=ggZ02hqyfoEX1q-x&amp;q=85&amp;s=0a95e859089462874314eed0f0fbf3c3 1100w, https://mintcdn.com/siderolabs-fe86397c/ggZ02hqyfoEX1q-x/talos/v1.9/deploy-and-manage-workloads/images/interactive-dashboard-1.png?w=1650&amp;fit=max&amp;auto=format&amp;n=ggZ02hqyfoEX1q-x&amp;q=85&amp;s=c441116ab6ca1b037ef5756d725e5f53 1650w, https://mintcdn.com/siderolabs-fe86397c/ggZ02hqyfoEX1q-x/talos/v1.9/deploy-and-manage-workloads/images/interactive-dashboard-1.png?w=2500&amp;fit=max&amp;auto=format&amp;n=ggZ02hqyfoEX1q-x&amp;q=85&amp;s=974f517194643fca7d4a6a2443fadc26 2500w" />
&lt;p>В заголовке представлена ​​краткая информация об узле:&lt;/p>
&lt;ul>
&lt;li>имя хоста&lt;/li>
&lt;li>версия ОС&lt;/li>
&lt;li>время безотказной работы&lt;/li>
&lt;li>информация об аппаратном обеспечении процессора и памяти&lt;/li>
&lt;li>загрузка ЦП и памяти, количество процессов&lt;/li>
&lt;/ul>
&lt;p>В табличном представлении отображается сводная информация о машине:&lt;/p>
&lt;ul>
&lt;li>UUID (из данных SMBIOS)&lt;/li>
&lt;li>имя кластера (если доступна конфигурация машины)&lt;/li>
&lt;li>этап работы машины: Installing, Upgrading, Booting, Maintenance, Running, Rebooting, Shutting down, и т. д.&lt;/li>
&lt;li>проверка готовности этапа работы машины: проверяет состояние сервиса Talos, состояние статического модуля и т. д. (для Runningэтапа).&lt;/li>
&lt;li>тип машины: плоскость управления/рабочий узел&lt;/li>
&lt;li>количество обнаруженных членов в кластере&lt;/li>
&lt;li>версия Kubernetes&lt;/li>
&lt;li>состояние компонентов Kubernetes kubeletи компонентов плоскости управления Kubernetes (только на controlplaneмашинах)&lt;/li>
&lt;li>информация о сети: имя хоста, адреса, шлюз, подключение, DNS и NTP-серверы.&lt;/li>
&lt;/ul>
&lt;p>В нижней части экрана отображаются журналы ядра, как и на виртуальном терминале TTY 1.&lt;/p>
&lt;h2 id="экран-монитора-f2">Экран монитора (&lt;code>F2&lt;/code>)&lt;/h2>
&lt;img src="https://mintcdn.com/siderolabs-fe86397c/ggZ02hqyfoEX1q-x/talos/v1.9/deploy-and-manage-workloads/images/interactive-dashboard-2.png?fit=max&amp;auto=format&amp;n=ggZ02hqyfoEX1q-x&amp;q=85&amp;s=151073a1b4f39370e311c3967a01966d" alt="Interactive Dashboard Summary Screen" width="920" data-og-width="1556" data-og-height="1234" data-path="talos/v1.9/deploy-and-manage-workloads/images/interactive-dashboard-2.png" data-optimize="true" data-opv="3" srcset="https://mintcdn.com/siderolabs-fe86397c/ggZ02hqyfoEX1q-x/talos/v1.9/deploy-and-manage-workloads/images/interactive-dashboard-2.png?w=280&amp;fit=max&amp;auto=format&amp;n=ggZ02hqyfoEX1q-x&amp;q=85&amp;s=03aebccdc1abf22cf841796dfe29652a 280w, https://mintcdn.com/siderolabs-fe86397c/ggZ02hqyfoEX1q-x/talos/v1.9/deploy-and-manage-workloads/images/interactive-dashboard-2.png?w=560&amp;fit=max&amp;auto=format&amp;n=ggZ02hqyfoEX1q-x&amp;q=85&amp;s=5e07a80a15f329b389cbc7e2a1ebf1e4 560w, https://mintcdn.com/siderolabs-fe86397c/ggZ02hqyfoEX1q-x/talos/v1.9/deploy-and-manage-workloads/images/interactive-dashboard-2.png?w=840&amp;fit=max&amp;auto=format&amp;n=ggZ02hqyfoEX1q-x&amp;q=85&amp;s=20e466fed281c7aa0c48ec45b1b6789d 840w, https://mintcdn.com/siderolabs-fe86397c/ggZ02hqyfoEX1q-x/talos/v1.9/deploy-and-manage-workloads/images/interactive-dashboard-2.png?w=1100&amp;fit=max&amp;auto=format&amp;n=ggZ02hqyfoEX1q-x&amp;q=85&amp;s=8a98b536f7a84ca01b17dbd9d5ceff94 1100w, https://mintcdn.com/siderolabs-fe86397c/ggZ02hqyfoEX1q-x/talos/v1.9/deploy-and-manage-workloads/images/interactive-dashboard-2.png?w=1650&amp;fit=max&amp;auto=format&amp;n=ggZ02hqyfoEX1q-x&amp;q=85&amp;s=124a8b59ee91508ee094b422831ff8e0 1650w, https://mintcdn.com/siderolabs-fe86397c/ggZ02hqyfoEX1q-x/talos/v1.9/deploy-and-manage-workloads/images/interactive-dashboard-2.png?w=2500&amp;fit=max&amp;auto=format&amp;n=ggZ02hqyfoEX1q-x&amp;q=85&amp;s=719bb7c8178068437e57b222c842ab23 2500w" />
&lt;p>На экране монитора отображается информация об использовании ресурсов машины в режиме реального времени: ЦП, память, дисковое пространство, сеть и процессы.&lt;/p>
&lt;h2 id="экран-настройки-сети-f3">Экран настройки сети (&lt;code>F3&lt;/code>)&lt;/h2>
&lt;blockquote>
&lt;p>Примечание: экран настройки сети доступен только для &lt;code>metal&lt;/code> платформ.&lt;/p>
&lt;/blockquote>
&lt;img src="https://mintcdn.com/siderolabs-fe86397c/ggZ02hqyfoEX1q-x/talos/v1.9/deploy-and-manage-workloads/images/interactive-dashboard-3.png?fit=max&amp;auto=format&amp;n=ggZ02hqyfoEX1q-x&amp;q=85&amp;s=2aed8497fba28c5c79bb8bcce95187b8" alt="Interactive Dashboard Summary Screen" width="920" data-og-width="1556" data-og-height="1234" data-path="talos/v1.9/deploy-and-manage-workloads/images/interactive-dashboard-3.png" data-optimize="true" data-opv="3" srcset="https://mintcdn.com/siderolabs-fe86397c/ggZ02hqyfoEX1q-x/talos/v1.9/deploy-and-manage-workloads/images/interactive-dashboard-3.png?w=280&amp;fit=max&amp;auto=format&amp;n=ggZ02hqyfoEX1q-x&amp;q=85&amp;s=0c79880a78f985fca04ef3c2471e015e 280w, https://mintcdn.com/siderolabs-fe86397c/ggZ02hqyfoEX1q-x/talos/v1.9/deploy-and-manage-workloads/images/interactive-dashboard-3.png?w=560&amp;fit=max&amp;auto=format&amp;n=ggZ02hqyfoEX1q-x&amp;q=85&amp;s=fb97a0c9c2f4b08c1719534504155e55 560w, https://mintcdn.com/siderolabs-fe86397c/ggZ02hqyfoEX1q-x/talos/v1.9/deploy-and-manage-workloads/images/interactive-dashboard-3.png?w=840&amp;fit=max&amp;auto=format&amp;n=ggZ02hqyfoEX1q-x&amp;q=85&amp;s=c03944da93c166b50f9085d26f7ba858 840w, https://mintcdn.com/siderolabs-fe86397c/ggZ02hqyfoEX1q-x/talos/v1.9/deploy-and-manage-workloads/images/interactive-dashboard-3.png?w=1100&amp;fit=max&amp;auto=format&amp;n=ggZ02hqyfoEX1q-x&amp;q=85&amp;s=8d346f280ac480635fea29e156e4f41c 1100w, https://mintcdn.com/siderolabs-fe86397c/ggZ02hqyfoEX1q-x/talos/v1.9/deploy-and-manage-workloads/images/interactive-dashboard-3.png?w=1650&amp;fit=max&amp;auto=format&amp;n=ggZ02hqyfoEX1q-x&amp;q=85&amp;s=0cf7393ee7d9963fe48ac2d9504254b7 1650w, https://mintcdn.com/siderolabs-fe86397c/ggZ02hqyfoEX1q-x/talos/v1.9/deploy-and-manage-workloads/images/interactive-dashboard-3.png?w=2500&amp;fit=max&amp;auto=format&amp;n=ggZ02hqyfoEX1q-x&amp;q=85&amp;s=cb99976afffc0984cf300f89ae389cf8 2500w" />
&lt;p>Экран настройки сети предоставляет возможности редактирования &lt;code>metal&lt;/code>
&lt;a href="https://docs.siderolabs.com/talos/v1.11/platform-specific-installations/bare-metal-platforms/network-config" target="_blank">конфигурации сети платформы&lt;/a>.&lt;/p>
&lt;p>Экран разделён на три секции:&lt;/p>
&lt;ul>
&lt;li>В самом левом разделе можно ввести параметры сетевой конфигурации: имя хоста, DNS и NTP-серверы, настроить сетевой интерфейс (через DHCP или статический IP-адрес) и т.д.&lt;/li>
&lt;li>В средней части отображается текущая конфигурация сети.&lt;/li>
&lt;li>В самой правой части отображается конфигурация сети, которая будет применена после нажатия кнопки «Сохранить».&lt;/li>
&lt;/ul>
&lt;p>После сохранения конфигурации сетевой конфигурации платформы она немедленно применяется к машине.&lt;/p></description></item></channel></rss>