<html>
  <head>
    <meta content="text/html; charset=ISO-8859-1"
      http-equiv="Content-Type">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    Hello,<br>
    <br>
    I have deleted all the /var/lib/glusterd files and directories on
    slave and did all the steps once again and it worked... I was not
    able to replicate the problem with faulty slave anymore... <br>
    <br>
    I am not sure what was the problem but I think it was one of the old
    steps from previous geo documentations. Maybe a value in the config
    that broke the status and the replication... So after a clean up and
    doing everything from scratch, the new documentation worked well...
    Thanks again<br>
    <br>
    Best regards,<br>
    Stefan<br>
    <br>
    <div class="moz-cite-prefix">On 17/07/14 13:18, Aravinda wrote:<br>
    </div>
    <blockquote cite="mid:53C7B0EF.1000502@redhat.com" type="cite">
      <meta content="text/html; charset=ISO-8859-1"
        http-equiv="Content-Type">
      <div class="moz-cite-prefix">On 07/16/2014 02:20 PM, Stefan
        Moravcik wrote:<br>
      </div>
      <blockquote cite="mid:53C63CDE.2090502@newsweaver.com" type="cite">
        <meta content="text/html; charset=ISO-8859-1"
          http-equiv="Content-Type">
        Hello Vishwanath,<br>
        <br>
        thanks for pointing me to right direction... This was helpful...
        I thought the password less ssh connection was done from
        glusterfs using the secret.pem in the initial run.. But wasn't..
        I had to create the id_rsa in the /root/.ssh/ directory to be
        able to ssh to slave without any -i option...<br>
        <br>
        Great, thanks for that... However i have additional question...
        Again little bit different to the previous ones... This seems
        like a bug to me.. But you for sure will know better.<br>
        <br>
        After I created the geo-replication volume and i started it..
        everything looked Ok and successful. Then i looked in the status
        command and got this<br>
        <br>
        MASTER NODE&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; MASTER VOL&nbsp;&nbsp;&nbsp; MASTER BRICK&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
        SLAVE&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; STATUS&nbsp;&nbsp;&nbsp; CHECKPOINT STATUS&nbsp;&nbsp;&nbsp;
        CRAWL STATUS&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; <br>
---------------------------------------------------------------------------------------------------------------------------------------------<br>
        1.1.1.1 &nbsp;&nbsp; myvol1 &nbsp;&nbsp; /shared/myvol1 &nbsp;&nbsp; 1.2.3.4::myvol1_slave &nbsp;&nbsp;
        faulty&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; <br>
        1.1.1.2 &nbsp;&nbsp; myvol1&nbsp;&nbsp;&nbsp; /shared/myvol1&nbsp;&nbsp;&nbsp; 1.2.3.4::myvol1_slave&nbsp;&nbsp;&nbsp;
        faulty&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; <br>
        1.1.1.3 &nbsp;&nbsp; myvol1&nbsp;&nbsp;&nbsp; /shared/myvol1&nbsp;&nbsp;&nbsp; 1.2.3.4::myvol1_slave&nbsp;&nbsp;&nbsp;
        faulty&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A<br>
        <br>
        when i checked the config file there is <br>
        <br>
        remote_gsyncd: /nonexistent/gsyncd <br>
        i even tried to create symlinks for this but faulty status has
        never gone away... Found a bug report on bugzilla <a
          moz-do-not-send="true" class="moz-txt-link-freetext"
          href="https://bugzilla.redhat.com/show_bug.cgi?id=1105283">https://bugzilla.redhat.com/show_bug.cgi?id=1105283</a><br>
      </blockquote>
      Update conf file manually as following and stop and start the
      geo-replication.(Conf file location:
      /var/lib/glusterd/geo-replication/&lt;MASTER VOL&gt;_&lt;SLAVE
      IP_SLAVE VOL&gt;/gsyncd.conf)<br>
      remote_gsyncd = /usr/libexec/glusterfs/gsyncd<br>
      <br>
      Let us know if this resolves the issue.<br>
      <br>
      <br>
      --<br>
      regards<br>
      Aravinda<br>
      <a moz-do-not-send="true" class="moz-txt-link-freetext"
        href="http://aravindavk.in">http://aravindavk.in</a><br>
      <br>
      <blockquote cite="mid:53C63CDE.2090502@newsweaver.com" type="cite">
        <br>
        [2014-07-16 07:14:34.718718] E
        [glusterd-geo-rep.c:2685:glusterd_gsync_read_frm_status] 0-:
        Unable to read gsyncd status file<br>
        [2014-07-16 07:14:34.718756] E
        [glusterd-geo-rep.c:2999:glusterd_read_status_file] 0-: Unable
        to read the statusfile for /shared/myvol1 brick for&nbsp;
        repository(master), 1.2.3.4::myvol1_slave(slave) session<br>
        <br>
        However since the symlink is in place the error message above
        won't show in the log.. Actually there are no more error logs
        just faulty status...<br>
        <br>
        Even more interesting. When i changed the configuration from
        rsync to tar+ssh it synced the files there, but will not
        replicate any changes or new files created.... <br>
        <br>
        MASTER NODE&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; MASTER VOL&nbsp;&nbsp;&nbsp; MASTER BRICK&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
        SLAVE&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; STATUS&nbsp;&nbsp;&nbsp; CHECKPOINT STATUS&nbsp;&nbsp;&nbsp;
        CRAWL STATUS&nbsp;&nbsp;&nbsp; FILES SYNCD&nbsp;&nbsp;&nbsp; FILES PENDING&nbsp;&nbsp;&nbsp; BYTES PENDING&nbsp;&nbsp;&nbsp;
        DELETES PENDING&nbsp;&nbsp;&nbsp; FILES SKIPPED&nbsp;&nbsp; <br>
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------<br>
        1.1.1.1 &nbsp;&nbsp; myvol1&nbsp;&nbsp;&nbsp; /shared/myvol1&nbsp;&nbsp;&nbsp; 1.2.3.4::myvol1_slave&nbsp;&nbsp;&nbsp;
        faulty&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 10001&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
        0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
        0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; <br>
        1.1.1.2 &nbsp;&nbsp; myvol1&nbsp;&nbsp;&nbsp; /shared/myvol1&nbsp;&nbsp;&nbsp; 1.2.3.4::myvol1_slave&nbsp;&nbsp;&nbsp;
        faulty&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
        0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
        0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; <br>
        1.1.1.3 &nbsp;&nbsp; myvol1&nbsp;&nbsp;&nbsp; /shared/myvol1&nbsp;&nbsp;&nbsp; 1.2.3.4::myvol1_slave&nbsp;&nbsp;&nbsp;
        faulty&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
        0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0<br>
        <br>
        <br>
        as you can see, 10001 files replicated... but if i create a new
        one or edit the existing ones, the faulty status will not
        replicate anymore.. This is true even if i change back from
        tar+ssh to rsync or restart glusterd or anything... <br>
        <br>
        Thank you for all your help, much appreciated<br>
        <br>
        Regards,<br>
        Stefan <br>
        <br>
        <div class="moz-cite-prefix">On 15/07/14 17:15, M S Vishwanath
          Bhat wrote:<br>
        </div>
        <blockquote cite="mid:53C5458B.5020508@redhat.com" type="cite">
          <meta content="text/html; charset=ISO-8859-1"
            http-equiv="Content-Type">
          <div class="moz-cite-prefix">On 15/07/14 18:13, Stefan
            Moravcik wrote:<br>
          </div>
          <blockquote cite="mid:53C521F4.1050103@newsweaver.com"
            type="cite">Hello Vishwanath <br>
            <br>
            thank you for your quick reply but i have a follow up
            question if it is ok... Maybe a different issue and i should
            open a new thread, but i will try to continue to use this
            one... <br>
            <br>
            So I followed the new documentation... let me show you what
            i have done and what is the final error message... <br>
            <br>
            <br>
            I have 3 servers node1, node2 and node3 with IPs 1.1.1.1,
            1.1.1.2 and 1.1.1.3 <br>
            <br>
            I installed glusterfs-server and glusterfs-geo-replication
            on all 3 of them... I created replica volume called myvol1
            and run the command <br>
            <br>
            gluster system:: execute gsec_create <br>
            <br>
            this created 4 files: <br>
            secret.pem <br>
            secret.pem.pub <br>
            tar_ssh.pem <br>
            tar_ssh.pem.pub <br>
            <br>
            The pub file is different on all 3 nodes so I copied all 3
            secret.pem.pub to slave authorized_keys. I tried to ssh
            directly to slave server from all 3 nodes and got through
            with no problem. <br>
            <br>
            So I connected to slave server installed glusterfs-server
            and glusterfs-geo-replication there too. <br>
            <br>
            Started the glusterd and created a volume called
            myvol1_slave <br>
            <br>
            Then I peer probed one of the masters with slave. This
            showed the volume in my master and peer appeared in peer
            status. <br>
            <br>
            From here i run the command in your documentation <br>
            <br>
            volume geo-replication myvol1 1.2.3.4::myvol1_slave create
            push-pem <br>
            Passwordless ssh login has not been setup with 1.2.3.4. <br>
            geo-replication command failed <br>
          </blockquote>
          Couple of things here.<br>
          <br>
          I believe it was not clear enough in the docs and I apologise
          for that. But this is the prerequisite for dist-geo-rep.<br>
          <br>
          * <i>There should be a password-less ssh setup between at
            least one node in master volume to one node in slave volume.
            The geo-rep create command should be executed from this node
            which has password-less ssh setup to slave.</i><br>
          <br>
          So in your case, you can setup a password less ssh between
          1.1.1.1 (one master volume node) to 1.2.3.4 (one slave volume
          node). You can use "ssh-keygen" and "ssh-copy-id" to do the
          same.<br>
          After the above step is done, execute the "gluster system::
          execute gsec_create". You don't need to copy it to the slave
          autorized_keys. geo-rep create push-pem takes care of it for
          you.<br>
          <br>
          Now, you should execute "gluster volume geo-rep myvol1
          1.2.3.4::myvol1_slave cerate push-pem" from 1.1.1.1 (because
          this node has passwordless ssh to 1.2.3.4 mentioned in the
          command)<br>
          <br>
          That should create a geo-rep session for you. That can be
          started later on.<br>
          <br>
          And you don't need to peer probe slave from master or vice
          versa. Logically both master and slave volumes are in
          different clusters (in two different geographic locations).<br>
          <br>
          HTH,<br>
          Vishwanath<br>
          <br>
          <blockquote cite="mid:53C521F4.1050103@newsweaver.com"
            type="cite"> <br>
            In the secure log file i could see the connection though. <br>
            <br>
            2014-07-15T13:26:56.083445+01:00 1testlab sshd[23905]: Set
            /proc/self/oom_score_adj to 0 <br>
            2014-07-15T13:26:56.089423+01:00 1testlab sshd[23905]:
            Connection from 1.1.1.1 port 58351 <br>
            2014-07-15T13:26:56.248687+01:00 1testlab sshd[23906]:
            Connection closed by 1.1.1.1 <br>
            <br>
            and in the logs of one of the masters <br>
            <br>
            [2014-07-15 12:26:56.247667] E
            [glusterd-geo-rep.c:1889:glusterd_verify_slave] 0-: Not a
            valid slave <br>
            [2014-07-15 12:26:56.247752] E
            [glusterd-geo-rep.c:2106:glusterd_op_stage_gsync_create] 0-:
            1.2.3.4::myvol1_slave is not a valid slave volume. Error:
            Passwordless ssh login has not been setup with 1.2.3.4. <br>
            [2014-07-15 12:26:56.247772] E
            [glusterd-syncop.c:912:gd_stage_op_phase] 0-management:
            Staging of operation 'Volume Geo-replication Create' failed
            on localhost : Passwordless ssh login has not been setup
            with 1.2.3.4. <br>
            <br>
            there is no log in the other masters in the cluster nor on
            slave.. <br>
            <br>
            I even tried with force option, but same result... I
            disabled firewall and selinux just to make sure those parts
            of the system do not interfere. Searched a google for same
            problem and found one... <a moz-do-not-send="true"
              class="moz-txt-link-freetext"
              href="http://irclog.perlgeek.de/gluster/2014-01-16">http://irclog.perlgeek.de/gluster/2014-01-16</a>
            but again no answer or solution. <br>
            <br>
            Thank you for your time and help. <br>
            <br>
            Best regards, <br>
            Stefan <br>
            <br>
            On 15/07/14 12:26, M S Vishwanath Bhat wrote: <br>
            <blockquote type="cite">On 15/07/14 15:08, Stefan Moravcik
              wrote: <br>
              <blockquote type="cite">Hello Guys, <br>
                <br>
                I have been trying to set a geo replication in our
                glusterfs test environment and got a problem with a
                message "invalid slave name" <br>
                <br>
                So first things first... <br>
                <br>
                I have 3 nodes configured in a cluster. Those nodes are
                configured as replica. On this cluster I have a volume
                created with let say name myvol1. So far everything
                works and looks good... <br>
                <br>
                Next step was to create a geo replication off site.. So
                i followed this documentation: <br>
                <a moz-do-not-send="true" class="moz-txt-link-freetext"
href="http://www.gluster.org/community/documentation/index.php/HowTo:geo-replication">http://www.gluster.org/community/documentation/index.php/HowTo:geo-replication</a>
                <br>
              </blockquote>
              These are old docs. I have edited this to mention that it
              is old geo-rep docs. <br>
              <br>
              Please refer to <a moz-do-not-send="true"
                class="moz-txt-link-freetext"
href="https://github.com/gluster/glusterfs/blob/master/doc/admin-guide/en-US/markdown/admin_distributed_geo_rep.md">https://github.com/gluster/glusterfs/blob/master/doc/admin-guide/en-US/markdown/admin_distributed_geo_rep.md</a>
              or <a moz-do-not-send="true"
                class="moz-txt-link-freetext"
href="https://medium.com/@msvbhat/distributed-geo-replication-in-glusterfs-ec95f4393c50">https://medium.com/@msvbhat/distributed-geo-replication-in-glusterfs-ec95f4393c50</a>
              for latest distributed-geo-rep documentation. <br>
              <blockquote type="cite"> <br>
                I had peered the slave server, created secret.pem was
                able to ssh without the password and tried to create the
                geo replication volume with the code from the
                documentation and got the following error: <br>
                <br>
                on master: <br>
                gluster volume geo-replication myvol1
                1.2.3.4:/shared/myvol1_slave start <br>
                <br>
                on master: <br>
                [2014-07-15 09:15:37.188701] E
                [glusterd-geo-rep.c:4083:glusterd_get_slave_info] 0-:
                Invalid slave name <br>
                [2014-07-15 09:15:37.188827] W [dict.c:778:str_to_data]
                (--&gt;/usr/lib64/glusterfs/3.5.1/xlator/mgmt/glusterd.so(glusterd_op_stage_gsync_create+0x1e2)



                [0x7f979e20f1f2]
                (--&gt;/usr/lib64/glusterfs/3.5.1/xlator/mgmt/glusterd.so(glusterd_get_slave_details_confpath+0x116)



                [0x7f979e20a306]
                (--&gt;/usr/lib64/libglusterfs.so.0(dict_set_str+0x1c)
                [0x7f97a322045c]))) 0-dict: value is NULL <br>
                [2014-07-15 09:15:37.188837] E
                [glusterd-geo-rep.c:3995:glusterd_get_slave_details_confpath]
                0-: Unable to store slave volume name. <br>
                [2014-07-15 09:15:37.188849] E
                [glusterd-geo-rep.c:2056:glusterd_op_stage_gsync_create]
                0-: Unable to fetch slave or confpath details. <br>
                [2014-07-15 09:15:37.188861] E
                [glusterd-syncop.c:912:gd_stage_op_phase] 0-management:
                Staging of operation 'Volume Geo-replication Create'
                failed on localhost <br>
                <br>
                there are no logs on slave what so ever <br>
                I also tried different documentation with "create
                push-pem" got the very same problem as above... <br>
                <br>
                I tried to start the volume as node:/path/to/dir and
                also created a volume on slave and started as
                node:/slave_volume_name always a same result... <br>
                <br>
                Tried to search for a solution and found this <a
                  moz-do-not-send="true" class="moz-txt-link-freetext"
                  href="http://fpaste.org/114290/04117421/">http://fpaste.org/114290/04117421/</a>
                <br>
                <br>
                It was different user with a very same problem... The
                issue was shown on IRC channel, but never answered.. <br>
                <br>
                This is a fresh install of 3.5.1, so no upgrade should
                be needed i guess... Any help solving this problem would
                be appreciated.. <br>
              </blockquote>
              From what you have described, it looks like your slave is
              not a gluster volume. In latest geo-rep, slave has to be a
              gluster volume. Now glusterfs does not support a simple
              directory as a slave. <br>
              <br>
              Please follow new documentation and try once more. <br>
              <br>
              HTH <br>
              <br>
              Best Regards, <br>
              Vishwanath <br>
              <br>
              <blockquote type="cite"> <br>
                Thank you and best regards, <br>
                Stefan <br>
                <br>
                <br>
              </blockquote>
              <br>
            </blockquote>
            <br>
            <br>
          </blockquote>
          <br>
        </blockquote>
        <br>
        <br>
        <div><font color="#808080" face="Arial, Helvetica, sans-serif"
            size="1">******************************<wbr>******************************<wbr>******************************<wbr>******************************<wbr>******************************<wbr>*</font><span
            style="color:rgb(128,128,128);font-size:x-small">**************</span><span
            style="color:rgb(128,128,128);font-size:x-small">******</span></div>
        <div><font color="#808080" face="Arial, Helvetica, sans-serif"
            size="1">This email and any files transmitted with it are
            confidential and intended solely for the use of the
            individual or entity to whom they are addressed.</font></div>
        <div><font color="#808080" face="Arial, Helvetica, sans-serif"
            size="1">If you have received this email in error please
            reply to the sender indicating that fact and delete the copy
            you received.</font></div>
        <div><font color="#808080" face="Arial, Helvetica, sans-serif"
            size="1">In addition, if you are not the intended recipient,
            you should not print, copy, retransmit, disseminate, or
            otherwise use the information</font></div>
        <div><font color="#808080" face="Arial, Helvetica, sans-serif"
            size="1">contained in this communication. Thank you.</font></div>
        <div><font color="#808080" face="Arial, Helvetica, sans-serif"
            size="1"><br>
          </font></div>
        <div><font color="#808080" face="Arial, Helvetica, sans-serif"
            size="1">Newsweaver is a Trade Mark of E-Search Ltd.
            Registered in Ireland No. 254994.</font></div>
        <div><font color="#808080" face="Arial, Helvetica, sans-serif"
            size="1">Registered Office: 2200 Airport Business Park,
            Kinsale Road, Cork, Ireland. International Telephone Number:
            +353 21 2427277.</font></div>
        <div><font color="#808080" face="Arial, Helvetica, sans-serif"
            size="1">******************************<wbr>******************************<wbr>******************************<wbr>******************************<wbr>******************************<wbr>*</font><span
            style="color:rgb(128,128,128);font-size:x-small">**************</span><span
            style="color:rgb(128,128,128);font-size:x-small">*</span><span
            style="color:rgb(128,128,128);font-size:x-small">*****</span></div>
        <br>
        <fieldset class="mimeAttachmentHeader"></fieldset>
        <br>
        <pre wrap="">_______________________________________________
Gluster-users mailing list
<a moz-do-not-send="true" class="moz-txt-link-abbreviated" href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a>
<a moz-do-not-send="true" class="moz-txt-link-freetext" href="http://supercolony.gluster.org/mailman/listinfo/gluster-users">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a></pre>
      </blockquote>
      <br>
    </blockquote>
    <br>
  </body>
</html>

<br>
<div><font face="Arial, Helvetica, sans-serif" color="#808080" size="1">******************************<WBR>******************************<WBR>******************************<WBR>******************************<WBR>******************************<WBR>*</font><span style="color:rgb(128,128,128);font-size:x-small">**************</span><span style="color:rgb(128,128,128);font-size:x-small">******</span></div><div><font face="Arial, Helvetica, sans-serif" color="#808080" size="1">This email and any files transmitted with it are confidential and intended solely for the use of the individual or entity to whom they are addressed.</font></div><div><font face="Arial, Helvetica, sans-serif" color="#808080" size="1">If you have received this email in error please reply to the sender indicating that fact and delete the copy you received.</font></div><div><font face="Arial, Helvetica, sans-serif" color="#808080" size="1">In addition, if you are not the intended recipient, you should not print, copy, retransmit, disseminate, or otherwise use the information</font></div><div><font face="Arial, Helvetica, sans-serif" color="#808080" size="1">contained in this communication. Thank you.</font></div><div><font face="Arial, Helvetica, sans-serif" color="#808080" size="1"><br></font></div><div><font face="Arial, Helvetica, sans-serif" color="#808080" size="1">Newsweaver is a Trade Mark of E-Search Ltd. Registered in Ireland No. 254994.</font></div><div><font face="Arial, Helvetica, sans-serif" color="#808080" size="1">Registered Office: 2200 Airport Business Park, Kinsale Road, Cork, Ireland. International Telephone Number: +353 21 2427277.</font></div><div><font face="Arial, Helvetica, sans-serif" color="#808080" size="1">******************************<WBR>******************************<WBR>******************************<WBR>******************************<WBR>******************************<WBR>*</font><span style="color:rgb(128,128,128);font-size:x-small">**************</span><span style="color:rgb(128,128,128);font-size:x-small">*</span><span style="color:rgb(128,128,128);font-size:x-small">*****</span></div>