Aktywny-pasywny klaster synchronizacji drbd


Mam aplikację, która instaluje się w
/opt/my_app/
katalog. Teraz chcę ustawić dwa serwery w klastrze (aktywny - pasywny) i zsynchronizować cały katalog z DRBD. Teraz, jak rozumiem, DRBD wymaga urządzenia blokowego. Dodałbym więc nowy dysk wirtualny (obie są maszynami wirtualnymi ESX), utworzyłbym partycję, a następnie wolumin fizyczny, grupę woluminów i wolumin logiczny. Ale mam pytanie, czy jest technicznie możliwe hostowanie/opt/my_app/na urządzeniu DRBD i utrzymywanie synchronizacji między dwoma węzłami?
EDYTOWAĆ:
[root@server2 otrs]# pcs config
Cluster Name: otrs_cluster
Corosync Nodes:
server1 server2
Pacemaker Nodes:
server1 server2Resources:
Group: OTRS
Resource: ClusterIP (class=ocf provider=heartbeat type=IPaddr2)
Attributes: cidr_netmask=8 ip=10.0.0.60
Operations: monitor interval=20s (ClusterIP-monitor-interval-20s)
start interval=0s timeout=20s (ClusterIP-start-interval-0s)
stop interval=0s timeout=20s (ClusterIP-stop-interval-0s)
Resource: otrs_file_system (class=ocf provider=heartbeat type=Filesystem)
Attributes: device=/dev/drbd0 directory=/opt/otrs/ fstype=ext4
Operations: monitor interval=20 timeout=40 (otrs_file_system-monitor-interval-20)
start interval=0s timeout=60 (otrs_file_system-start-interval-0s)
stop interval=0s timeout=60 (otrs_file_system-stop-interval-0s)
Master: otrs_data_clone
Meta Attrs: master-node-max=1 clone-max=2 notify=true master-max=1 clone-node-max=1
Resource: otrs_data (class=ocf provider=linbit type=drbd)
Attributes: drbd_resource=otrs
Operations: demote interval=0s timeout=90 (otrs_data-demote-interval-0s)
monitor interval=30s (otrs_data-monitor-interval-30s)
promote interval=0s timeout=90 (otrs_data-promote-interval-0s)
start interval=0s timeout=240 (otrs_data-start-interval-0s)
stop interval=0s timeout=100 (otrs_data-stop-interval-0s)Stonith Devices:
Fencing Levels:Location Constraints:
Resource: ClusterIP
Enabled on: server1 (score:INFINITY) (role: Started) (id:cli-prefer-ClusterIP)
Ordering Constraints:
Colocation Constraints:
Ticket Constraints:Alerts:
No alerts definedResources Defaults:
No defaults set
Operations Defaults:
No defaults setCluster Properties:
cluster-infrastructure: corosync
cluster-name: otrs_cluster
dc-version: 1.1.16-12.el7_4.8-94ff4df
have-watchdog: false
last-lrm-refresh: 1525108871
stonith-enabled: falseQuorum:
Options:
[root@server2 otrs]#
[root@server2 otrs]# pcs status
Cluster name: otrs_cluster
Stack: corosync
Current DC: server1 (version 1.1.16-12.el7_4.8-94ff4df) - partition with quorum
Last updated: Mon Apr 30 14:11:54 2018
Last change: Mon Apr 30 13:27:47 2018 by root via crm_resource on server22 nodes configured
4 resources configuredOnline: [ server1 server2 ]Full list of resources: Resource Group: OTRS
ClusterIP (ocf::heartbeat:IPaddr2): Started server2
otrs_file_system (ocf::heartbeat:Filesystem): Started server2
Master/Slave Set: otrs_data_clone [otrs_data]
Masters: [ server2 ]
Slaves: [ server1 ]Failed Actions:
* otrs_file_system_start_0 on server1 'unknown error' (1): call=78, status=complete, exitreason='Couldn't mount filesystem/dev/drbd0 on/opt/otrs',
last-rc-change='Mon Apr 30 13:21:13 2018', queued=0ms, exec=151ms
Daemon Status:
corosync: active/enabled
pacemaker: active/enabled
pcsd: active/enabled
[root@server2 otrs]#

Zaproszony:
Anonimowy użytkownik

Anonimowy użytkownik

Potwierdzenie od:

Oczywiście, że to możliwe.
Po dodaniu urządzenia blokowego i utworzeniu LVM do obsługi urządzenia DRBD, należy skonfigurować i zainicjować urządzenie DRBD (
         drbdadm create-md <res>
i
         drbdadm up <res>
.
Ustaw jeden węzeł jako główny (UWAGA: musisz wymusić aktywację głównego tylko przy pierwszej promocji urządzenia, ponieważ tak
         Inconsistent/Inconsistent
stan dysku):
         drbdadm primary <res> --force
Następnie możesz umieścić system plików na urządzeniu i zamontować go w dowolnym miejscu w systemie, w tym
/opt/my_app
jak w przypadku zwykłego urządzenia blokowego.
Jeśli są dane w
/opt/my_app/
czego potrzebujesz, aby przenieść na urządzenie DRBD, możesz zamontować urządzenie w innym miejscu, przenieść/skopiować dane
/opt/my_app/
do punktu montowania, a następnie ponownie podłącz urządzenie DRBD do
/opt/myapp
lub możesz użyć dowiązań symbolicznych do wskazania
/opt/my_app
w punkcie montowania urządzenia DRBD.
Zaktualizowana odpowiedź po EDYCJI:
Aby raportować, musisz dodać ograniczenia dotyczące umieszczania i zamawiania do konfiguracji klastra
         OTRS
Grupa zasobów powinna działać tylko na wzorcu DRBD i uruchamiać się dopiero po podwyższeniu poziomu głównego DRBD.
Te polecenia powinny dodawać następujące ograniczenia:
# pcs constraint colocation add OTRS with otrs_data_clone INFINITY with-rsc-role=Master
# pcs constraint order promote otrs_data_clone then start OTRS

Aby odpowiedzieć na pytania, Zaloguj się lub Zarejestruj się