Skip to content

Commit

Permalink
[docs] Fix Managing nodes examples section design (#11504)
Browse files Browse the repository at this point in the history
Signed-off-by: Denis.Rebenok <[email protected]>
Signed-off-by: denmaloyreb <[email protected]>
Co-authored-by: Denis.Rebenok <[email protected]>
Co-authored-by: Ekaterina Matseevska <[email protected]>
  • Loading branch information
3 people authored Jan 15, 2025
1 parent 39cc375 commit 7b38556
Show file tree
Hide file tree
Showing 2 changed files with 22 additions and 22 deletions.
14 changes: 7 additions & 7 deletions modules/040-node-manager/docs/EXAMPLES.md
Original file line number Diff line number Diff line change
Expand Up @@ -3,7 +3,7 @@ title: "Managing nodes: examples"
description: Examples of managing Kubernetes cluster nodes. Examples of creating a node group. Examples of automating the execution of arbitrary settings on a node.
---

Below are some examples of `NodeGroup` description, as well as installing the cert-manager plugin for kubectl and setting the sysctl parameter.
Below are some examples of NodeGroup description, as well as installing the cert-manager plugin for `kubectl` and setting the `sysctl` parameter.

## Examples of the `NodeGroup` configuration

Expand Down Expand Up @@ -101,7 +101,7 @@ Follow the steps below to add a new static node (e.g., VM or bare metal server)
- Add all the necessary mount points to the `/etc/fstab` file (NFS, Ceph, etc.);
- Install the necessary packages (e.g., `ceph-common`);
- Configure network connectivity between the new node and the other nodes of the cluster.
1. Connect to the new node over SSH and run the following command, inserting the Base64 string you got in step 2:
1. Connect to the new node over SSH and run the following command, inserting the Base64 string you got in step 3:

```shell
echo <Base64-CODE> | base64 -d | bash
Expand Down Expand Up @@ -299,11 +299,11 @@ This example shows how you can use filters in the StaticInstance [label selector
During the process of transferring instances between node groups, the instance will be cleaned and re-bootstrapped, and the `Node` object will be recreated.
{% endalert %}

This section describes the process of moving static instances between different node groups (`NodeGroup`) using the Cluster API Provider Static (CAPS). The process involves modifying the `NodeGroup` configuration and updating the labels (`labels`) of the corresponding `StaticInstance`.
This section describes the process of moving static instances between different node groups (NodeGroup) using the Cluster API Provider Static (CAPS). The process involves modifying the NodeGroup configuration and updating the labels of the corresponding StaticInstance.

#### Initial Configuration

Assume that there is already a `NodeGroup` named `worker` in the cluster, configured to manage one static instance with the label `role: worker`.
Assume that there is already a NodeGroup named `worker` in the cluster, configured to manage one static instance with the label `role: worker`.

**`NodeGroup` worker:**

Expand Down Expand Up @@ -341,7 +341,7 @@ spec:

##### 1. Create a New `NodeGroup` for the Target Node Group

Create a new `NodeGroup` resource, for example, named `front`, which will manage a static instance with the label `role: front`.
Create a new NodeGroup resource, for example, named `front`, which will manage a static instance with the label `role: front`.

```shell
kubectl create -f - <<EOF
Expand All @@ -361,15 +361,15 @@ EOF

##### 2. Update the Label on the `StaticInstance`

Change the `role` label of the existing `StaticInstance` from `worker` to `front`. This will allow the new `NodeGroup` `front` to manage this instance.
Change the `role` label of the existing StaticInstance from `worker` to `front`. This will allow the new NodeGroup `front` to manage this instance.

```shell
kubectl label staticinstance static-worker-1 role=front --overwrite
```

##### 3. Decrease the Number of Static Instances in the Original `NodeGroup`

Update the `NodeGroup` resource `worker` by reducing the `count` parameter from `1` to `0`.
Update the NodeGroup resource `worker` by reducing the `count` parameter from `1` to `0`.

```shell
kubectl patch nodegroup worker -p '{"spec": {"staticInstances": {"count": 0}}}' --type=merge
Expand Down
30 changes: 15 additions & 15 deletions modules/040-node-manager/docs/EXAMPLES_RU.md
Original file line number Diff line number Diff line change
Expand Up @@ -3,9 +3,9 @@ title: "Управление узлами: примеры"
description: Примеры управления узлами кластера Kubernetes. Примеры создания группы узлов. Примеры автоматизации выполнения произвольных настроек на узле.
---

Ниже представлены несколько примеров описания `NodeGroup`, а также установки плагина cert-manager для kubectl и задания параметра sysctl.
Ниже представлены несколько примеров описания NodeGroup, а также установки плагина cert-manager для `kubectl` и задания параметра `sysctl`.

## Примеры описания `NodeGroup`
## Примеры описания NodeGroup

<span id="пример-описания-nodegroup"></span>

Expand Down Expand Up @@ -87,7 +87,7 @@ spec:
- [Для AWS](../cloud-provider-aws/faq.html#добавление-cloudstatic-узлов-в-кластер)
- [Для GCP](../cloud-provider-gcp/faq.html#добавление-cloudstatic-узлов-в-кластер)
- [Для YC](../cloud-provider-yandex/faq.html#добавление-cloudstatic-узлов-в-кластер)
1. Используйте существующий или создайте новый custom resource [NodeGroup](cr.html#nodegroup) ([пример](#статические-узлы) `NodeGroup` с именем `worker`). Параметр [nodeType](cr.html#nodegroup-v1-spec-nodetype) в custom resource NodeGroup для статических узлов должен быть `Static` или `CloudStatic`.
1. Используйте существующий или создайте новый ресурс [NodeGroup](cr.html#nodegroup) ([пример](#статические-узлы) NodeGroup с именем `worker`). Параметр [nodeType](cr.html#nodegroup-v1-spec-nodetype) в ресурсе NodeGroup для статических узлов должен быть `Static` или `CloudStatic`.
1. Получите код скрипта в кодировке Base64 для добавления и настройки узла.

Пример получения кода скрипта в кодировке Base64 для добавления узла в NodeGroup `worker`:
Expand All @@ -101,7 +101,7 @@ spec:
- добавьте необходимые точки монтирования в файл `/etc/fstab` (NFS, Ceph и т. д.);
- установите необходимые пакеты (например, `ceph-common`);
- настройте сетевую связанность между новым узлом и остальными узлами кластера.
1. Зайдите на новый узел по SSH и выполните следующую команду, вставив полученную в п. 2 Base64-строку:
1. Зайдите на новый узел по SSH и выполните следующую команду, вставив полученную в п. 3 Base64-строку:

```shell
echo <Base64-КОД-СКРИПТА> | base64 -d | bash
Expand Down Expand Up @@ -134,7 +134,7 @@ spec:
ssh-keygen -t rsa -f caps-id -C "" -N ""
```

Публичный и приватный ключи пользователя `caps` будут сохранены в файлах `caps-id.pub` и `caps-id` в текущей папке на сервере.
Публичный и приватный ключи пользователя `caps` будут сохранены в файлах `caps-id.pub` и `caps-id` в текущей директории на сервере.

* Добавьте полученный публичный ключ в файл `/home/caps/.ssh/authorized_keys` пользователя `caps`, выполнив в директории с ключами **на сервере** следующие команды:

Expand Down Expand Up @@ -199,7 +199,7 @@ spec:
EOF
```

> Поле `labelSelector` в ресурсе `NodeGroup` является неизменным. Чтобы обновить labelSelector, нужно создать новую NodeGroup и перенести в неё статические узлы, изменив их метки (labels).
> Поле `labelSelector` в ресурсе `NodeGroup` является неизменным. Чтобы обновить labelSelector, нужно создать новую NodeGroup и перенести в неё статические узлы, изменив их лейблы (labels).

1. Создайте в кластере ресурс [NodeGroup](cr.html#nodegroup):

Expand Down Expand Up @@ -227,7 +227,7 @@ spec:

1. Создайте в кластере два ресурса [NodeGroup](cr.html#nodegroup) (здесь и далее используйте `kubectl`, настроенный на управление кластером):

> Поле `labelSelector` в ресурсе `NodeGroup` является неизменным. Чтобы обновить labelSelector, нужно создать новую NodeGroup и перенести в неё статические узлы, изменив их метки (labels).
> Поле `labelSelector` в ресурсе `NodeGroup` является неизменным. Чтобы обновить labelSelector, нужно создать новую NodeGroup и перенести в неё статические узлы, изменив их лейблы (labels).

```shell
kubectl create -f - <<EOF
Expand Down Expand Up @@ -301,11 +301,11 @@ spec:

### Cluster API Provider Static: перемещение узлов между NodeGroup

В данном разделе описывается процесс перемещения статических узлов между различными `NodeGroup` с использованием Cluster API Provider Static (CAPS). Процесс включает изменение конфигурации `NodeGroup` и обновление меток (`labels`) у соответствующих `StaticInstance`.
В данном разделе описывается процесс перемещения статических узлов между различными NodeGroup с использованием Cluster API Provider Static (CAPS). Процесс включает изменение конфигурации NodeGroup и обновление лейблов у соответствующих StaticInstance.

#### Исходная конфигурация

Предположим, что в кластере уже существует `NodeGroup` с именем `worker`, настроенный для управления одним статическим узлом с меткой `role: worker`.
Предположим, что в кластере уже существует NodeGroup с именем `worker`, настроенный для управления одним статическим узлом с лейблом `role: worker`.

`NodeGroup` worker:

Expand Down Expand Up @@ -342,12 +342,12 @@ spec:
#### Шаги по перемещению узла между `NodeGroup`

{% alert level="warning" %}
В процессе переноса узлов между `NodeGroup` будет выполнена очистка и повторный бутстрап узла, объект `Node` будет пересоздан.
В процессе переноса узлов между NodeGroup будет выполнена очистка и повторный бутстрап узла, объект `Node` будет пересоздан.
{% endalert %}

##### 1. Создание новой `NodeGroup` для целевой группы узлов

Создайте новый ресурс `NodeGroup`, например, с именем `front`, который будет управлять статическим узлом с меткой `role: front`.
Создайте новый ресурс NodeGroup, например, с именем `front`, который будет управлять статическим узлом с лейблом `role: front`.

```shell
kubectl create -f - <<EOF
Expand All @@ -365,17 +365,17 @@ spec:
EOF
```

##### 2. Обновление метки у `StaticInstance`
##### 2. Обновление лейбла у `StaticInstance`

Измените метку `role` у существующего `StaticInstance` с `worker` на `front`. Это позволит новой `NodeGroup` `front` начать управлять этим узлом.
Измените лейбл `role` у существующего StaticInstance с `worker` на `front`. Это позволит новой NodeGroup `front` начать управлять этим узлом.

```shell
kubectl label staticinstance static-worker-1 role=front --overwrite
```

##### 3. Уменьшение количества статических узлов в исходной `NodeGroup`

Обновите ресурс `NodeGroup` `worker`, уменьшив значение параметра `count` с `1` до `0`.
Обновите ресурс NodeGroup `worker`, уменьшив значение параметра `count` с `1` до `0`.

```shell
kubectl patch nodegroup worker -p '{"spec": {"staticInstances": {"count": 0}}}' --type=merge
Expand Down Expand Up @@ -522,7 +522,7 @@ spec:
{% endalert %}

{% alert level="info" %}
Пример `NodeGroupConfiguration` основан на функциях, заложенных в скрипте [032_configure_containerd.sh](./#особенности-написания-скриптов).
Пример NodeGroupConfiguration основан на функциях, заложенных в скрипте [032_configure_containerd.sh](./#особенности-написания-скриптов).
{% endalert %}

```yaml
Expand Down

0 comments on commit 7b38556

Please sign in to comment.