eth0.pro

Linux is working. The future is open.



С кластером Proxmox VE 2 мы получаем центральное управление несколькими физическими серверами, входящими в его состав, которых может быть 16 штук (возможно и более), встроенную безопасную VNC консоль, поддержку нескольких механизмов аутентификации (локальный, Active Firectory, LDAP и т. д.), управление правами на различные объекты (виртуальные машины, хранилища данных, ноды) на основе ролей, избавляемся от единственного и незаменимого master'а (multi-master cluster), онлайн-миграцию виртуальных машин между нодами и т. д.

Так же есть HA (High Availability) Cluster, но для правильного кворума мы должны иметь не менее трех работающих нод. Есть способ использовать HA и на двух нодах, но даже в этом случае желательно использование третьего сервера для общего хранилища, в противном случае нужно использовать более дешевое решение в виде DRDB. Используя HA у Вас должны быть только лучшие сервера, не имеющие единую точку отказа. Это подразумевает избыточность накопителей (Hardware RAID), резервирование блоков питания, UPS'ы, Network Bonding, Fencing-устройства (например iLO от компании HP). Сейчас этого всего у меня под рукой нет, поэтому будем строить простой, не HA кластер.

Еще раз убеждаемся, что на всех нодах стоит окончательный IP-адрес и соответственно настроен hosts (как я писал в предыдущей статье). К примеру мы имеем два сервера (ноды): pve01 с адресом 192.168.0.141 и pve02 с адресом 192.168.0.142. Заходим на первую (ноду) по ssh и объявляем кластер с уникальным именем, которое уже нельзя будет изменить:

pvecm create my-cluster

Если получили ошибку

Starting Cluster LVM Daemon: clvmclvmd could not connect to cluster manager

то значит не настроен fenced. CLVM не работает, если наша нода не принадлежит к fence-домену.

Проверяем что получили:

# pvecm status
Version: 6.2.0
Config Version: 1
Cluster Name: my-cluster
Cluster Id: 23575
Cluster Member: Yes
Cluster Generation: 4
Membership state: Cluster-Member
Nodes: 1
Expected votes: 1
Total votes: 1
Node votes: 1
Quorum: 1  
Active subsystems: 5
Flags: 
Ports Bound: 0  
Node name: pve01
Node ID: 1
Multicast addresses: 239.192.92.115 
Node addresses: 192.168.0.141 

Теперь нужно добавить остальные ноды в кластер. Нужно заметить, что на оставшихся Proxmox-серверах не должно быть виртуальных машин с существующими в кластере ID (VMID)! И так, заходим на оставшиеся ноды по ssh и выполняем (потребуется указать реквизиты доступа для root'а по SSH на первый сервер pve01):

pvecm add 192.168.0.141

Помним, что 192.168.0.141 — IP-адрес первой ноды, на которой мы кластер объявляли.

Смотрим на состояние кластера.

С первой ноды (pve01):

# pvecm status
Version: 6.2.0
Config Version: 2
Cluster Name: my-cluster
Cluster Id: 23575
Cluster Member: Yes
Cluster Generation: 8
Membership state: Cluster-Member
Nodes: 2
Expected votes: 2
Total votes: 2
Node votes: 1
Quorum: 2  
Active subsystems: 5
Flags: 
Ports Bound: 0  
Node name: pve01
Node ID: 1
Multicast addresses: 239.192.92.115 
Node addresses: 192.168.0.141 

Со второй ноды (pve02):

# pvecm status
Version: 6.2.0
Config Version: 2
Cluster Name: my-cluster
Cluster Id: 23575
Cluster Member: Yes
Cluster Generation: 8
Membership state: Cluster-Member
Nodes: 2
Expected votes: 2
Total votes: 2
Node votes: 1
Quorum: 2  
Active subsystems: 5
Flags: 
Ports Bound: 0  
Node name: pve02
Node ID: 2
Multicast addresses: 239.192.92.115 
Node addresses: 192.168.0.142 

Можно посмотреть список нод:

# pvecm nodes
Node  Sts   Inc   Joined               Name
   1   M      8   2013-02-15 17:06:59  pve01
   2   M      4   2013-02-15 17:06:59  pve02

Вот они две наших ноды, что мы добавили. Можем зайти в веб-интерфейс первой и увилим в списке вторую. Вот оно, централизованное управление! =)

15 фев 2013 г. | Теги: Proxmox