Особенности кластера Proxmox:
• Централизованное веб-управление.
• Поддержка нескольких методов аутентификации.
• Простота миграции виртуальных машин и контейнеров внутри кластера.
В этой статье рассмотрим, как следует строить кластер Proxmox 4 с тремя серверами на Proxmox и одним NFS-хранилищем. Серверы Proxmox будут работать под Debian, сервер NFS запустим под CentOS 7.5. Хранилище NFS используется для хранения файлов ISO, шаблонов и виртуальных машин.
Необходимые условия
• 3 Proxmox сервера
pve1
IP : 192.168.1.1
FQDN : pve1.myproxmox.co
SSH port: 22
pve2
IP : 192.168.1.2
FQDN : pve2.myproxmox.co
SSH port: 22
pve3
IP : 192.168.1.3
FQDN : pve3.myproxmox.co
SSH port : 22
• 1 сервер CentOS 7.5 - хранилище NFS с адресом IP 192.168.1.10
• Дата и время должны быть синхронизированы на всех машинах
Шаг 1 – Конфигурация хранилища NFS
На этом этапе, следует добавить хранилище NFS для Proxmox, что позволит для нескольких узлов Proxmox иметь возможность чтения/записи в общее хранилище.
Входим на сервер NFS по ssh:
ssh Этот адрес электронной почты защищен от спам-ботов. У вас должен быть включен JavaScript для просмотра.
Создайте новый каталог для размещения файлов NFS:
mkdir -p/var/nfsproxmox
Добавим все IP-адреса proxmox в файл конфигурации NFS, отредактируем файл «экспорт» с помощью любимого редактора:
mcedit /etc/exports
Вставляем:
/ var/nfsproxmox 192.168.1.1(rw,sync,no_root_squash)
/ var/nfsproxmox 192.168.1.2(rw,sync,no_root_squash)
/ var/nfsproxmox 192.168.1.3(rw,sync,no_root_squash)
Сохраните файл и выйдите из редактора.
Чтобы активировать новую конфигурацию, реэкспортируйте директорию NFS и убедитесь, что общая директория активна:
exportfs -r
exportfs -v
Шаг 2 - Настройка узла
Следующим шагом является настройка hosts-файлов на каждом узле Proxmox.
Войдите на сервер pve1:
ssh Этот адрес электронной почты защищен от спам-ботов. У вас должен быть включен JavaScript для просмотра..1.1
Теперь отредактируйте hosts-файл:
mcedit /etc/hosts
Надо добавить в файл информацию о pve2 и pve3:
192.168.1.2 pve2.myproxmox.co pve2 pvelocalhost
192.168.1.3 pve3.myproxmox.co pve3 pvelocalhost
Сохраните файл и перезагрузите pve1: reboot
Далее войдите на сервер pve2:
ssh Этот адрес электронной почты защищен от спам-ботов. У вас должен быть включен JavaScript для просмотра..1.1
Отредактируйте hosts файлы:
mcedit /etc/hosts
И добавьте:
192.168.1.1 pve1.myproxmox.co pve1 pvelocalhost
192.168.1.3 pve3.myproxmox.co pve3 pvelocalhost
Сохраните файл и перезагрузите компьютер:
reboot
Далее войдите на сервер pve3:
ssh Этот адрес электронной почты защищен от спам-ботов. У вас должен быть включен JavaScript для просмотра..1.3
Отредактируйте hosts файлы:
mcedit /etc/hosts
И добавьте:
192.168.1.1 pve1.myproxmox.co pve1 pvelocalhost
192.168.1.2 pve2.myproxmox.co pve2 pvelocalhost
Сохраните файл и перезагрузите компьютер:
reboot
Шаг 3 - Создание кластера на сервере pve1
Перед созданием кластера, убедитесь, что дата и время синхронизированы на всех узлах, и что ssh работает на порту 22.
Необходимо зайти на сервер pve1 и создать новый кластер:
ssh Этот адрес электронной почты защищен от спам-ботов. У вас должен быть включен JavaScript для просмотра..1.1
pvecm create mynode
Результат:
Corosync Cluster Engine Authentication key generator.
Gathering 1024 bits for key from /dev/urandom.
Writing corosync key to /etc/corosync/authkey.
Пример вывода команды:
pvecm: Proxmox VE cluster manager toolkit
create: Generate new cluster configuration
mynode: cluster name
Теперь проверьте кластер с помощью команды:
pvecm status
В самом низу смотрим раздел Membership information, наш IP-адрес 192.168.1.1 должен быть перечислен там.
Шаг 3 - Добавление pve2 и pve3 в кластер
На этом этапе вы должны добавить в кластер сервер pve2. Выполните вход на сервер pve2 и сделайте его членом кластера «mynode»:
ssh Этот адрес электронной почты защищен от спам-ботов. У вас должен быть включен JavaScript для просмотра..1.2
pvecm add 192.168.1.1
Должно появиться сообщение Successfully added node pve2 to cluster.
Аналогично добавьте pve3 в кластер.
ssh Этот адрес электронной почты защищен от спам-ботов. У вас должен быть включен JavaScript для просмотра..1.3
pvecm add 192.168.1.1
Должно появиться сообщение Successfully added node pve3 to cluster.
Шаг 4 - Верификация
Ежели все описанные выше действия были выполнены без ошибок, то проверяем состояние кластера:
pvecm status
Обращаем внимание на количество узлов (nodes) в кластере. Должно быть три.
Для вывода листинга всех узлов выполняем:
pvecm nodes
Шаг 5 – добавление общего ресурса NFS
Через веб-интерфейс заходим на Proxmox-сервер pve1 по адресу:
https://192.168.1.1:8006
Вы можете увидеть серверы pve1, pve2 и pve3 в левом поле.
Теперь перейдите на вкладку «Storage» и нажмите «Add». Выберите тип хранилища, мы остановили выбор на типе NFS (под Centos).
Введите подробные сведения о сервере NFS:
ID: Идентификатор хранилища
Server: IP-адрес хранилища
Export: Автоматическое обнаружение общего каталога
Content: Content type on the storage
Nodes: доступность на узлах
Backups: Максимальное количество резервных копий
Нажмите кнопку Добавить.
Сейчас вы можете увидеть хранилище NFS, доступное на всех узлах Proxmox.
Заключение
Proxmox VE 4 поддерживает кластеры размером до 32 физических узлов. Централизованное управление Proxmox делает его легкодоступным, для того, чтобы сохранить все доступные узлы в одном месте. Есть много преимуществ, использования кластера Proxmox, например: очень легко перенести виртуальную машину с одного узла на другой узел. Вы можете использовать 2 Proxmox сервера для установки нескольких узлов, но если вы хотите настроить Proxmox для высокой доступности, вам нужно 3 или более узлов Proxmox.
Дискуссия
Написал Rocky 9
Опубликовано в: Установка nginx c PHP-FPM под CentOS 7.0 in LinuxНаписал Константин
Опубликовано в: Докеризация стека LEMP под Ubuntu c помощью Compose in LinuxНаписал bammbr
Опубликовано в: Шлюз для маленького отдела на Red Hat 9 in LinuxНаписал Федор
Опубликовано в: Установка и конфигурация Samba на CentOS 7 in LinuxНаписал Evgenytrl
Опубликовано в: Загрузка файлов с помощью Wget in Linux