DRBD Erstellen einer drbd Netzwerk Clusterdisk.
Um z.B. Datenbanken über grosse Distanzen spiegeln zu können, benötigt man eine NetzwerkClusterDisk wie DRBD. Der Overhead bei der Datenübertragung ist weitaus kleiner als Statements in Form einer Replikation zu übertragen. Darüber hinaus sind Standortumschaltungen weit schneller realisierbar, da beide BINARY Files* als z.B. MASTER configuriert sind.
Starten wir wie folgt:
Wir behandlen in diesem Abschnitt nur das Einrichten einer DRBD. Dabei verzichten wir zunächst auf Filesysteme und weitere Partitionen. Im Grunde kann aber auch ein LVM über die DRBD gelegt werden und in dieses dann ein Filesystem.
Möchten wir, eine Active Active – Disk, so müssen wir im Anschluss ein ClusterFilesystem configurieren, wie das OCFS2
Die drbd resourcen sind unter /etc/drbd.d/r0.res definiert
4LORDS-SHARE01
resource r0 { device /dev/drbd0; disk /dev/sdb1; meta-disk internal; on 4lords-share01 { address 192.168.1.11:7789; } on 4lords-share02 { address 192.168.1.12:7789; } }
4LORDS-SHARE02
resource r0 { device /dev/drbd0; disk /dev/sdb1; meta-disk internal; on 4lords-share01 { address 192.168.1.11:7789; } on 4lords-share02 { address 192.168.1.12:7789; } }
Weiterhin bedarf ers noch einiger Ergänzungen in der Datei /etc/drbd.d/global_common.conf
Abschnitt STARTUP / NET:
common { protocol C; ... startup { ## NUR EINTRAGEN WENN WIR SPÄTER EIN CLUSTERFILESYSTEM VERWENDEN become-primary-on both; } net { ## NUR EINTRAGEN WENN WIR SPÄTER EIN CLUSTERFILESYSTEM VERWENDEN allow-two-primaries; } ... }
Abschnitt SYNCER:
syncer { # rate after al-extents use-rle cpu-mask verify-alg csums-alg ## RATE = BYTE 100M = 100MB/s = 1GBit/s rate 100M; }
Auf dem Master ( 4LORDS-SHARE01 )
drbdadm create-md r0 # wenn drbd vorher gestoppt /etc/init.d/drbd start drbdadm connect r0
Auf dem SALVE ( 4LORDS-SHARE02 )
# wenn drbd vorher gestoppt /etc/init.d/drbd start drbdadm connect r0
Primary node als primary makieren
drbdadm primary --force r0
Im Falle dessen, dass wir Active Active Cluster erlauben und auch ein Clusterfilesystem darüber bauen werden, kann nun auch der Slave als Primary markiert werden.
Secondary node als primary makieren
drbdadm primary --force r0
Erzwingen eines resync auf Primary node
drbdadm -- --overwrite-data-of-peer primary r0
Status anzeigen: cat /proc/drbd
version: 8.3.7 (api:88/proto:86-91) srcversion: EE47D8BF18AC166BE219757 0: cs:SyncSource ro:Primary/Secondary ds:UpToDate/Inconsistent C r---- ns:296004 nr:0 dw:0 dr:303528 al:0 bm:15 lo:19 pe:252 ua:247 ap:0 ep:1 wo:b oos:10194056 [>....................] sync'ed: 2.9% (9952/10236)M finish: 0:03:32 speed: 47,992 (47,992) K/sec
Ab hier baut man nun ein Filesystem über die neue Clusterresource /dev/drbd0 oder eine LVM und dort hinein ein Filesystem.