ClusterDisk

DRBD Erstellen einer drbd Netzwerk Clusterdisk.

Um z.B. Datenbanken über grosse Distanzen spiegeln zu können, benötigt man eine NetzwerkClusterDisk wie DRBD. Der Overhead bei der Datenübertragung ist weitaus kleiner als Statements in Form einer Replikation zu übertragen. Darüber hinaus sind Standortumschaltungen weit schneller realisierbar, da beide BINARY Files* als z.B. MASTER configuriert sind.

Starten wir wie folgt:

Wir behandlen in diesem Abschnitt nur das Einrichten einer DRBD. Dabei verzichten wir zunächst auf Filesysteme und weitere Partitionen. Im Grunde kann aber auch ein LVM über die DRBD gelegt werden und in dieses dann ein Filesystem.
Möchten wir, eine Active Active – Disk, so müssen wir im Anschluss ein ClusterFilesystem configurieren, wie das OCFS2

Die drbd resourcen sind unter /etc/drbd.d/r0.res definiert

4LORDS-SHARE01

resource r0 {
    device    /dev/drbd0;
    disk      /dev/sdb1;
    meta-disk internal;

    on 4lords-share01 {
        address   192.168.1.11:7789;
    }
    on 4lords-share02 {
        address   192.168.1.12:7789;
    }
}

4LORDS-SHARE02

resource r0 {
    device    /dev/drbd0;
    disk      /dev/sdb1;
    meta-disk internal;

    on 4lords-share01 {
        address   192.168.1.11:7789;
    }
    on 4lords-share02 {
        address   192.168.1.12:7789;
    }
}

Weiterhin bedarf ers noch einiger Ergänzungen in der Datei /etc/drbd.d/global_common.conf

Abschnitt STARTUP / NET:

        
common {
        protocol C;
        ...
        startup {
                ## NUR EINTRAGEN WENN WIR SPÄTER EIN CLUSTERFILESYSTEM VERWENDEN
                become-primary-on both;
        }
        net {
                ## NUR EINTRAGEN WENN WIR SPÄTER EIN CLUSTERFILESYSTEM VERWENDEN
                allow-two-primaries;
        }
        ...
}

Abschnitt SYNCER:

        syncer {
                # rate after al-extents use-rle cpu-mask verify-alg csums-alg
                ## RATE = BYTE 100M = 100MB/s = 1GBit/s
                rate 100M;

        }

Auf dem Master ( 4LORDS-SHARE01 )

drbdadm create-md r0
# wenn drbd vorher gestoppt
/etc/init.d/drbd start
drbdadm connect r0

Auf dem SALVE ( 4LORDS-SHARE02 )

# wenn drbd vorher gestoppt
/etc/init.d/drbd start
drbdadm connect r0

Primary node als primary makieren

drbdadm primary --force r0

Im Falle dessen, dass wir Active Active Cluster erlauben und auch ein Clusterfilesystem darüber bauen werden, kann nun auch der Slave als Primary markiert werden.

Secondary node als primary makieren

drbdadm primary --force r0

Erzwingen eines resync auf Primary node

drbdadm -- --overwrite-data-of-peer primary r0

Status anzeigen: cat /proc/drbd

version: 8.3.7 (api:88/proto:86-91)
srcversion: EE47D8BF18AC166BE219757
 0: cs:SyncSource ro:Primary/Secondary ds:UpToDate/Inconsistent C r----
    ns:296004 nr:0 dw:0 dr:303528 al:0 bm:15 lo:19 pe:252 ua:247 ap:0 ep:1 wo:b oos:10194056
        [>....................] sync'ed:  2.9% (9952/10236)M
        finish: 0:03:32 speed: 47,992 (47,992) K/sec

Ab hier baut man nun ein Filesystem über die neue Clusterresource /dev/drbd0 oder eine LVM und dort hinein ein Filesystem.