<html>
  <head>
    <meta content="text/html; charset=ISO-8859-1"
      http-equiv="Content-Type">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    <div class="moz-cite-prefix">On 15/07/14 18:13, Stefan Moravcik
      wrote:<br>
    </div>
    <blockquote cite="mid:53C521F4.1050103@newsweaver.com" type="cite">Hello
      Vishwanath
      <br>
      <br>
      thank you for your quick reply but i have a follow up question if
      it is ok... Maybe a different issue and i should open a new
      thread, but i will try to continue to use this one...
      <br>
      <br>
      So I followed the new documentation... let me show you what i have
      done and what is the final error message...
      <br>
      <br>
      <br>
      I have 3 servers node1, node2 and node3 with IPs 1.1.1.1, 1.1.1.2
      and 1.1.1.3
      <br>
      <br>
      I installed glusterfs-server and glusterfs-geo-replication on all
      3 of them... I created replica volume called myvol1 and run the
      command
      <br>
      <br>
      gluster system:: execute gsec_create
      <br>
      <br>
      this created 4 files:
      <br>
      secret.pem
      <br>
      secret.pem.pub
      <br>
      tar_ssh.pem
      <br>
      tar_ssh.pem.pub
      <br>
      <br>
      The pub file is different on all 3 nodes so I copied all 3
      secret.pem.pub to slave authorized_keys. I tried to ssh directly
      to slave server from all 3 nodes and got through with no problem.
      <br>
      <br>
      So I connected to slave server installed glusterfs-server and
      glusterfs-geo-replication there too.
      <br>
      <br>
      Started the glusterd and created a volume called myvol1_slave
      <br>
      <br>
      Then I peer probed one of the masters with slave. This showed the
      volume in my master and peer appeared in peer status.
      <br>
      <br>
      From here i run the command in your documentation
      <br>
      <br>
      volume geo-replication myvol1 1.2.3.4::myvol1_slave create
      push-pem
      <br>
      Passwordless ssh login has not been setup with 1.2.3.4.
      <br>
      geo-replication command failed
      <br>
    </blockquote>
    Couple of things here.<br>
    <br>
    I believe it was not clear enough in the docs and I apologise for
    that. But this is the prerequisite for dist-geo-rep.<br>
    <br>
    * <i>There should be a password-less ssh setup between at least one
      node in master volume to one node in slave volume. The geo-rep
      create command should be executed from this node which has
      password-less ssh setup to slave.</i><br>
    <br>
    So in your case, you can setup a password less ssh between 1.1.1.1
    (one master volume node) to 1.2.3.4 (one slave volume node). You can
    use "ssh-keygen" and "ssh-copy-id" to do the same.<br>
    After the above step is done, execute the "gluster system:: execute
    gsec_create". You don't need to copy it to the slave autorized_keys.
    geo-rep create push-pem takes care of it for you.<br>
    <br>
    Now, you should execute "gluster volume geo-rep myvol1
    1.2.3.4::myvol1_slave cerate push-pem" from 1.1.1.1 (because this
    node has passwordless ssh to 1.2.3.4 mentioned in the command)<br>
    <br>
    That should create a geo-rep session for you. That can be started
    later on.<br>
    <br>
    And you don't need to peer probe slave from master or vice versa.
    Logically both master and slave volumes are in different clusters
    (in two different geographic locations).<br>
    <br>
    HTH,<br>
    Vishwanath<br>
    <br>
    <blockquote cite="mid:53C521F4.1050103@newsweaver.com" type="cite">
      <br>
      In the secure log file i could see the connection though.
      <br>
      <br>
      2014-07-15T13:26:56.083445+01:00 1testlab sshd[23905]: Set
      /proc/self/oom_score_adj to 0
      <br>
      2014-07-15T13:26:56.089423+01:00 1testlab sshd[23905]: Connection
      from 1.1.1.1 port 58351
      <br>
      2014-07-15T13:26:56.248687+01:00 1testlab sshd[23906]: Connection
      closed by 1.1.1.1
      <br>
      <br>
      and in the logs of one of the masters
      <br>
      <br>
      [2014-07-15 12:26:56.247667] E
      [glusterd-geo-rep.c:1889:glusterd_verify_slave] 0-: Not a valid
      slave
      <br>
      [2014-07-15 12:26:56.247752] E
      [glusterd-geo-rep.c:2106:glusterd_op_stage_gsync_create] 0-:
      1.2.3.4::myvol1_slave is not a valid slave volume. Error:
      Passwordless ssh login has not been setup with 1.2.3.4.
      <br>
      [2014-07-15 12:26:56.247772] E
      [glusterd-syncop.c:912:gd_stage_op_phase] 0-management: Staging of
      operation 'Volume Geo-replication Create' failed on localhost :
      Passwordless ssh login has not been setup with 1.2.3.4.
      <br>
      <br>
      there is no log in the other masters in the cluster nor on slave..
      <br>
      <br>
      I even tried with force option, but same result... I disabled
      firewall and selinux just to make sure those parts of the system
      do not interfere. Searched a google for same problem and found
      one... <a class="moz-txt-link-freetext" href="http://irclog.perlgeek.de/gluster/2014-01-16">http://irclog.perlgeek.de/gluster/2014-01-16</a> but again no
      answer or solution.
      <br>
      <br>
      Thank you for your time and help.
      <br>
      <br>
      Best regards,
      <br>
      Stefan
      <br>
      <br>
      On 15/07/14 12:26, M S Vishwanath Bhat wrote:
      <br>
      <blockquote type="cite">On 15/07/14 15:08, Stefan Moravcik wrote:
        <br>
        <blockquote type="cite">Hello Guys,
          <br>
          <br>
          I have been trying to set a geo replication in our glusterfs
          test environment and got a problem with a message "invalid
          slave name"
          <br>
          <br>
          So first things first...
          <br>
          <br>
          I have 3 nodes configured in a cluster. Those nodes are
          configured as replica. On this cluster I have a volume created
          with let say name myvol1. So far everything works and looks
          good...
          <br>
          <br>
          Next step was to create a geo replication off site.. So i
          followed this documentation:
          <br>
          <a class="moz-txt-link-freetext" href="http://www.gluster.org/community/documentation/index.php/HowTo:geo-replication">http://www.gluster.org/community/documentation/index.php/HowTo:geo-replication</a>
          <br>
        </blockquote>
        These are old docs. I have edited this to mention that it is old
        geo-rep docs.
        <br>
        <br>
        Please refer to
        <a class="moz-txt-link-freetext" href="https://github.com/gluster/glusterfs/blob/master/doc/admin-guide/en-US/markdown/admin_distributed_geo_rep.md">https://github.com/gluster/glusterfs/blob/master/doc/admin-guide/en-US/markdown/admin_distributed_geo_rep.md</a>
        or
        <a class="moz-txt-link-freetext" href="https://medium.com/@msvbhat/distributed-geo-replication-in-glusterfs-ec95f4393c50">https://medium.com/@msvbhat/distributed-geo-replication-in-glusterfs-ec95f4393c50</a>
        for latest distributed-geo-rep documentation.
        <br>
        <blockquote type="cite">
          <br>
          I had peered the slave server, created secret.pem was able to
          ssh without the password and tried to create the geo
          replication volume with the code from the documentation and
          got the following error:
          <br>
          <br>
          on master:
          <br>
          gluster volume geo-replication myvol1
          1.2.3.4:/shared/myvol1_slave start
          <br>
          <br>
          on master:
          <br>
          [2014-07-15 09:15:37.188701] E
          [glusterd-geo-rep.c:4083:glusterd_get_slave_info] 0-: Invalid
          slave name
          <br>
          [2014-07-15 09:15:37.188827] W [dict.c:778:str_to_data]
          (--&gt;/usr/lib64/glusterfs/3.5.1/xlator/mgmt/glusterd.so(glusterd_op_stage_gsync_create+0x1e2)
          [0x7f979e20f1f2]
          (--&gt;/usr/lib64/glusterfs/3.5.1/xlator/mgmt/glusterd.so(glusterd_get_slave_details_confpath+0x116)
          [0x7f979e20a306]
          (--&gt;/usr/lib64/libglusterfs.so.0(dict_set_str+0x1c)
          [0x7f97a322045c]))) 0-dict: value is NULL
          <br>
          [2014-07-15 09:15:37.188837] E
          [glusterd-geo-rep.c:3995:glusterd_get_slave_details_confpath]
          0-: Unable to store slave volume name.
          <br>
          [2014-07-15 09:15:37.188849] E
          [glusterd-geo-rep.c:2056:glusterd_op_stage_gsync_create] 0-:
          Unable to fetch slave or confpath details.
          <br>
          [2014-07-15 09:15:37.188861] E
          [glusterd-syncop.c:912:gd_stage_op_phase] 0-management:
          Staging of operation 'Volume Geo-replication Create' failed on
          localhost
          <br>
          <br>
          there are no logs on slave what so ever
          <br>
          I also tried different documentation with "create push-pem"
          got the very same problem as above...
          <br>
          <br>
          I tried to start the volume as node:/path/to/dir and also
          created a volume on slave and started as
          node:/slave_volume_name always a same result...
          <br>
          <br>
          Tried to search for a solution and found this
          <a class="moz-txt-link-freetext" href="http://fpaste.org/114290/04117421/">http://fpaste.org/114290/04117421/</a>
          <br>
          <br>
          It was different user with a very same problem... The issue
          was shown on IRC channel, but never answered..
          <br>
          <br>
          This is a fresh install of 3.5.1, so no upgrade should be
          needed i guess... Any help solving this problem would be
          appreciated..
          <br>
        </blockquote>
        From what you have described, it looks like your slave is not a
        gluster volume. In latest geo-rep, slave has to be a gluster
        volume. Now glusterfs does not support a simple directory as a
        slave.
        <br>
        <br>
        Please follow new documentation and try once more.
        <br>
        <br>
        HTH
        <br>
        <br>
        Best Regards,
        <br>
        Vishwanath
        <br>
        <br>
        <blockquote type="cite">
          <br>
          Thank you and best regards,
          <br>
          Stefan
          <br>
          <br>
          <br>
        </blockquote>
        <br>
      </blockquote>
      <br>
      <br>
    </blockquote>
    <br>
  </body>
</html>