<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN">
<html>
<head>
  <meta content="text/html;charset=ISO-8859-15"
 http-equiv="Content-Type">
  <title></title>
</head>
<body bgcolor="#ffffff" text="#000000">
Das hab ich mir noch nicht richtig angesehen, weil mit GFS doch einiges
mehr möglich ist. Deswegen ja Centos5 weil da eben die Clustersuite
enthalten<br>
ist (auch wenn&acute;s leider nicht funktioniert). Werd mir das aber mal
anschauen weil für die Ablage der VM&acute;s brauch ich nicht zwingend
gleichzeitigen <br>
Lese und Schreibzugriff auf die gleichen Dateien.<br>
<br>
Für die VM&acute;s  die dann laufen sollen natürlich dann schon.<br>
<br>
Gruß Harry<br>
<br>
Stephan Mante schrieb:
<blockquote cite="mid:472837AC.1030504@frs.de" type="cite">
  <pre wrap="">Harald Rinker schrieb:

Was hältst Du von Oracles Cluster-Filesystem: (siehe ix 8 2007 - Seite 118)


Zu Multipath hier eine kleine Anleitung, die ich für meine Dokumentation
geschrieben habe.


        CentOS 5 als Xen Server installieren.

      Flensburg, 24.04.07

   1.

      Den Arbeitsspeicher der dom0 begrenzen.
      In grub.conf

      ...
      root (hd0,0)

      kernel /xen-gz-2.6.x. /dom0_mem=256M/

      ....
      danach neu booten....

      Speicher der Dom0 überprüfen

      #xm list

   2.

      Überflüssiges entfernen:

      <a class="moz-txt-link-freetext" href="http://www.fedorawiki.de/index.php/CentOS_minimalisieren">http://www.fedorawiki.de/index.php/CentOS_minimalisieren</a>

   3.

      System updaten

      #export http_proxy=<a class="moz-txt-link-freetext" href="http://user:passwort@10.127.0.2">http://user:passwort@10.127.0.2</a>
      <a class="moz-txt-link-rfc2396E" href="mailto:passwort@10.127.0.2">&lt;mailto:passwort@10.127.0.2&gt;</a>:3128

      #yum update


   4.

      CentOS neu booten

      #reboot

   5.

      uDev Setup

      Zu einem von udev erstellten iscsi Devive /dev/etc wird zusätzlich
      ein symbolischer Links in der Form /dev/dm-&lt;targetname&gt;. Somit mit
      wird gewährleistet, dass wir ein Device haben welches passend zu
      einem Target immer den selben Namen erhält.
      Folgende Dateien anlegen:

      /etc/udev/rules.d/55-openiscsi.rules

      KERNEL=="sd*", ACTION=="add", BUS=="scsi",
      PROGRAM="/lib/udev/iscsidev.sh %b %k \ %n", NAME="%k", SYMLINK+="%c"

      /lib/udev/iscsidev.sh

      #!/bin/sh

      BUS=${1}

      NAME=${2}

      HOST=${BUS%%:*}

      LUN=`echo $BUS | cut -d: -f4`

      MAXDEVNUM=255

      if [ $# == 3 ]; then

      MINOR=${3}

      elif [ $# == 2 ]; then

      MINOR=$MAXDEVNUM + 1

      else

      echo "Incorrect number of arguments"

      exit

      fi

      [ -e /sys/class/iscsi_host ] || exit 1

      file="/sys/class/iscsi_host/host${HOST}/device/session*/iscsi_session*/targetname"

      target_name=$(cat ${file})

      # This is not an open-scsi drive

      if [ -z "${target_name}" ]; then

      exit 1

      fi

      # Handle the Kernel assigned device number

      if [ ${MINOR} -ge 0 -a ${MINOR} -le $MAXDEVNUM ]; then

      DEV="LUN${LUN}_${MINOR}"

      else

      DEV="LUN${LUN}"

      #Devicemap Information für map_multipath.dh

      wwid=$(/sbin/scsi_id -g -u -s ${DEVPATH})

      echo ${target_name}_$DEV &gt; /dev/iscsi/$wwid

      fi

      echo "iscsi/${target_name}/SESSIONID-${HOST}/${DEV}
      iscsi/${target_name}/${DEV}"

#chmod 0755 /lib/udev/iscsidev.sh


/lib/udev/map_multipath.sh

   #!/bin/sh

   wwid=$(/sbin/dmsetup ls --target multipath --exec /bin/basename -j $1 -m $2)
   if [ -z "$wwid" ]; then
     exit 1
   fi
  
   target_name=$(cat /dev/iscsi/$wwid)

   echo "mpath/${target_name}" &gt;&gt;/tmp/log

   if [ -z "${target_name}" ]; then
    exit 1
   fi  

   dev=$(echo ${DEVPATH}|/bin/awk -F/ '{ print $3 }')

   /bin/ln -sf /dev/${dev} /dev/dm-${target_name}
   if [ $? -ne 0 ]; then
     rm -f /dev/mpath/${target_name} 
     /bin/ln -sf /dev/${dev} /dev/dm-${target_name}
   fi  

#chmod 0755 /lib/udev/map_multipath.sh

Folgende Zeile in /etc/udev/multipath.rules einfügen:

ACTION=="add", RUN+="/sbin/dmsetup ls --target multipath --exec ....

/#FRS BEGIN /

/ACTION=="add", PROGRAM=="/lib/udev/map_multipath.sh %M %m"/

/#FRS END /

PROGRAM=="/sbin/dmsetup ls --target multipath --exec /bin/basename -j %M
-m %m",

   6.

      ISCSI-initiator-utils installieren

      #yum install iscsi-*

      iscsi Daemon starten:

      #service iscsi start

   7.

      Mit ISCSI-Target verbinden:

      Targets des SAN anzeigen

      #iscsiadm -m discovery -t sendtargets -p &lt;sanIP&gt;


Datensatz/node für neues Target anlegen

      #/root/iscsi.new &lt;target&gt; &lt;sanIP&gt; [chapname] [chappasswort]

      Neuen Datensatz/node anzeigen

      #iscsiadm -m node

      Verbindung zum Target aufnehmen/einloggen

      #iscsiadm -m node -T &lt;target&gt; -p &lt;sanIP&gt; -l { -u logout}

      Session anzeigen

      #iscsiadm -m session [-i]


Devicename ermitteln

#tail -50 /var/log/messages



   8.

      multipath

      <a class="moz-txt-link-freetext" href="http://docs.solstice.nl/index.php/Infrastructure_virtualisation_with_Xen_advisory#iSCSI">http://docs.solstice.nl/index.php/Infrastructure_virtualisation_with_Xen_advisory#iSCSI</a>

      <a class="moz-txt-link-freetext" href="http://lists.centos.org/pipermail/centos/2006-April/063699.html">http://lists.centos.org/pipermail/centos/2006-April/063699.html</a>

      #yum install device-mapper-multipath

      Kernelmodul laden

      #insmod /lib/modules/{uname -r}/kernel/drivers/md/dm-multipath.ko

      /etc/multipath.conf editieren:

     defaults {
        udev_dir                /dev
          polling_interval         10
        selector                "round-robin 0"
          path_grouping_policy        multibus
          getuid_callout                "/sbin/scsi_id -g -u -s /block/%n"
          prio_callout                /bin/true
          path_checker                readsector0
          rr_min_io                100
          rr_weight                priorities
          failback                immediate
          no_path_retry                3
          user_friendly_name        no
     }
     blacklist {
        devnode "^(ram|raw|loop|fd|md|dm-|sr|scd|st|sda)[0-9]*"
        devnode "^sda[[0-9]*]"
        devnode "^hd[a-z][[0-9]*]"
        devnode "^cciss!c[0-9]d[0-9]*[p[0-9]*]"
     }
     multipaths {
     }   

#chkconfig multipathd on

#service multipathd restart


Mit beiden Target verbinden (siehe oben)

   #iscsiadm -m node -T target01:san1 -p 192.168.1.1 -l
   #iscsiadm -m node -T target01:san1 -p 192.168.2.1 -l

Das neue Device überprüfen:cd /

multipath -ll


für den Fall, das keine Ausgabe erfolgt

multiptah -v 3




  </pre>
  <blockquote type="cite">
    <pre wrap="">Hallo Liste,

Ich möchte bzw. muss einen Cluster mit 2 Nodes bauen die an ein
Fibrechannel Storage angeschlossen sind.
Ich hab das schon mal mit 2 VM?s und einer shared Disk getestet aber
irgendwie will?s nicht so richtig.

Der Plan ist das die 2 Server (nodes) ihre Xen VM?s auf einem
gemeinsamen Volume ablegen so dass per heartbeat ein einfaches
Failover realisiert werden kann.
Die Server selbst sollen der einfachheit halber nicht vom SAN booten.
Das müsste mit der Cluster Suite mit Centos doch zu machen sein.

Multipathing wäre auch nicht schlecht.

Hat jemand so eine Lösung schon gebaut, bzw kennt jemand ein nettes
howto dafür.

Gruß Harry






    </pre>
  </blockquote>
  <pre wrap=""><!---->

  </pre>
</blockquote>
<br>
</body>
</html>