<html>
  <head>
    <meta content="text/html; charset=ISO-8859-1"
      http-equiv="Content-Type">
  </head>
  <body text="#000000" bgcolor="#FFFFFF">
    It's not related to your problem. Just a note: when you use the
    noatime mounting option in fstab then you do not need to use
    nodiratime because noatime takes care of both.<br>
    <br>
    Zoltan<br>
    <div class="moz-cite-prefix"><br>
      On 3/21/2013 6:48 PM, Maurizio Giungato wrote:<br>
    </div>
    <blockquote cite="mid:514B47DC.1050306@pixnamic.com" type="cite">Il
      21/03/2013 18:14, Digimer ha scritto:
      <br>
      <blockquote type="cite">On 03/21/2013 01:11 PM, Maurizio Giungato
        wrote:
        <br>
        <blockquote type="cite">Hi guys,
          <br>
          <br>
          my goal is to create a reliable virtualization environment
          using CentOS
          <br>
          6.4 and KVM, I've three nodes and a clustered GFS2.
          <br>
          <br>
          The enviroment is up and working, but I'm worry for the
          reliability, if
          <br>
          I turn the network interface down on one node to simulate a
          crash (for
          <br>
          example on the node "node6.blade"):
          <br>
          <br>
          1) GFS2 hangs (processes go in D state) until node6.blade get
          fenced
          <br>
          2) not only node6.blade get fenced, but also node5.blade!
          <br>
          <br>
          Help me to save my last neurons!
          <br>
          <br>
          Thanks
          <br>
          Maurizio
          <br>
        </blockquote>
        <br>
        DLM, the distributed lock manager provided by the cluster, is
        designed to block when a known goes into an unknown state. It
        does not unblock until that node is confirmed to be fenced. This
        is by design. GFS2, rgmanager and clustered LVM all use DLM, so
        they will all block as well.
        <br>
        <br>
        As for why two nodes get fenced, you will need to share more
        about your configuration.
        <br>
        <br>
      </blockquote>
      My configuration is very simple I attached cluster.conf and hosts
      files.
      <br>
      This is the row I added in /etc/fstab:
      <br>
      /dev/mapper/KVM_IMAGES-VL_KVM_IMAGES /var/lib/libvirt/images gfs2
      defaults,noatime,nodiratime 0 0
      <br>
      <br>
      I set also fallback_to_local_locking = 0 in lvm.conf (but nothing
      change)
      <br>
      <br>
      PS: I had two virtualization enviroments working like a charm on
      OCFS2, but since Centos 6.x I'm not able to install it, there is
      same way to achieve the same results with GFS2 (with GFS2 sometime
      I've a crash after only a "service network restart" [I've many
      interfaces then this operation takes more than 10 seconds], with
      OCFS2 I've never had this problem.
      <br>
      <br>
      Thanks
      <br>
      <br>
      <br>
      <br>
      <br>
      <br>
      <br>
      <br>
      <br>
      <br>
      <br>
      <br>
      <br>
      <br>
      <fieldset class="mimeAttachmentHeader"></fieldset>
      <br>
      <pre wrap="">_______________________________________________
CentOS-virt mailing list
<a class="moz-txt-link-abbreviated" href="mailto:CentOS-virt@centos.org">CentOS-virt@centos.org</a>
<a class="moz-txt-link-freetext" href="http://lists.centos.org/mailman/listinfo/centos-virt">http://lists.centos.org/mailman/listinfo/centos-virt</a>
</pre>
    </blockquote>
    <br>
  </body>
</html>