<div dir="ltr">I&#39;m trying to create a new Geo-Rep of about 3 TB of data currently stored in a 2 brick mirror config. Obviously the geo-rep destination is a third server.<div><br></div><div>This is my 150th attempt.  Okay, maybe not that far, but it&#39;s pretty darn bad.</div>
<div><br></div><div><div>Replication works fine until I hit around 1TB of data sync&#39;d, then it just stalls.  For the past two days it hasn&#39;t gone past 1050156672 bytes sync&#39;d to the destination server.</div><div>
<br></div><div>I did some digging in the logs and it looks like the brick that&#39;s running the geo-rep process thinks it&#39;s syncing:</div><div><br></div><div><div><font face="courier new, monospace">[2013-09-05 09:45:37.354831] D [master:386:crawl] GMaster: syncing ./evds3/Sky_Main_66/00/00/08/00000863.enc ...</font></div>
<div><font face="courier new, monospace">[2013-09-05 09:45:37.358669] D [master:386:crawl] GMaster: syncing ./evds3/Sky_Main_66/00/00/08/0000083b.enc ...</font></div><div><font face="courier new, monospace">[2013-09-05 09:45:37.362251] D [master:386:crawl] GMaster: syncing ./evds3/Sky_Main_66/00/00/08/0000087b.enc ...</font></div>
<div><font face="courier new, monospace">[2013-09-05 09:45:37.366027] D [master:386:crawl] GMaster: syncing ./evds3/Sky_Main_66/00/00/08/00000834.enc ...</font></div><div><font face="courier new, monospace">[2013-09-05 09:45:37.369752] D [master:386:crawl] GMaster: syncing ./evds3/Sky_Main_66/00/00/08/00000845.enc ...</font></div>
<div><font face="courier new, monospace">[2013-09-05 09:45:37.373528] D [master:386:crawl] GMaster: syncing ./evds3/Sky_Main_66/00/00/08/00000864.enc ...</font></div><div><font face="courier new, monospace">[2013-09-05 09:45:37.377037] D [master:386:crawl] GMaster: syncing ./evds3/Sky_Main_66/00/00/08/0000087f.enc ...</font></div>
<div><font face="courier new, monospace">[2013-09-05 09:45:37.391432] D [master:386:crawl] GMaster: syncing ./evds3/Sky_Main_66/00/00/08/00000897.enc ...</font></div><div><font face="courier new, monospace">[2013-09-05 09:45:37.395059] D [master:386:crawl] GMaster: syncing ./evds3/Sky_Main_66/00/00/08/00000829.enc ...</font></div>
<div><font face="courier new, monospace">[2013-09-05 09:45:37.398725] D [master:386:crawl] GMaster: syncing ./evds3/Sky_Main_66/00/00/08/00000816.enc ...</font></div><div><font face="courier new, monospace">[2013-09-05 09:45:37.402559] D [master:386:crawl] GMaster: syncing ./evds3/Sky_Main_66/00/00/08/000008cc.enc ...</font></div>
<div><font face="courier new, monospace">[2013-09-05 09:45:37.406450] D [master:386:crawl] GMaster: syncing ./evds3/Sky_Main_66/00/00/08/000008d2.enc ...</font></div><div><font face="courier new, monospace">[2013-09-05 09:45:37.410310] D [master:386:crawl] GMaster: syncing ./evds3/Sky_Main_66/00/00/08/000008df.enc ...</font></div>
<div><font face="courier new, monospace">[2013-09-05 09:45:37.414344] D [master:386:crawl] GMaster: syncing ./evds3/Sky_Main_66/00/00/08/000008bd.enc ...</font></div><div><font face="courier new, monospace">[2013-09-05 09:45:37.438173] D [master:386:crawl] GMaster: syncing ./evds3/Sky_Main_66/<a href="http://volume.info">volume.info</a> ...</font></div>
<div><font face="courier new, monospace">[2013-09-05 09:45:37.441675] D [master:386:crawl] GMaster: syncing ./evds3/Sky_Main_66/volume.enc ...</font></div></div><div><br></div><div>But, <b>those files never appear on the destination server,</b> however the containing folders are there, just empty.</div>
<div><br></div><div>Also, the other log file (...gluster.log) in the geo-replication log folder that matches the destination stopped updating when the syncing stopped apparently.  It&#39;s last timestamp is from the 2nd, which is the last time data transferred.</div>
<div><br></div><div>The last bit from that log file is as such:</div><div><br></div><div><div><font face="courier new, monospace">+------------------------------------------------------------------------------+</font></div>
<div><font face="courier new, monospace">[2013-09-02 06:37:50.109730] I [rpc-clnt.c:1654:rpc_clnt_reconfig] 0-docstore1-client-1: changing port to 24009 (from 0)</font></div><div><font face="courier new, monospace">[2013-09-02 06:37:50.109857] I [rpc-clnt.c:1654:rpc_clnt_reconfig] 0-docstore1-client-0: changing port to 24009 (from 0)</font></div>
<div><font face="courier new, monospace">[2013-09-02 06:37:54.097468] I [client-handshake.c:1614:select_server_supported_programs] 0-docstore1-client-1: Using Program GlusterFS 3.3.2, Num (1298437), Version (330)</font></div>
<div><font face="courier new, monospace">[2013-09-02 06:37:54.097973] I [client-handshake.c:1411:client_setvolume_cbk] 0-docstore1-client-1: Connected to <a href="http://10.200.1.6:24009">10.200.1.6:24009</a>, attached to remote volume &#39;/data/docstore1&#39;.</font></div>
<div><font face="courier new, monospace">[2013-09-02 06:37:54.098005] I [client-handshake.c:1423:client_setvolume_cbk] 0-docstore1-client-1: Server and Client lk-version numbers are not same, reopening the fds</font></div>
<div><font face="courier new, monospace">[2013-09-02 06:37:54.098094] I [afr-common.c:3685:afr_notify] 0-docstore1-replicate-0: Subvolume &#39;docstore1-client-1&#39; came back up; going online.</font></div><div><font face="courier new, monospace">[2013-09-02 06:37:54.098274] I [client-handshake.c:453:client_set_lk_version_cbk] 0-docstore1-client-1: Server lk version = 1</font></div>
<div><font face="courier new, monospace">[2013-09-02 06:37:54.098619] I [client-handshake.c:1614:select_server_supported_programs] 0-docstore1-client-0: Using Program GlusterFS 3.3.2, Num (1298437), Version (330)</font></div>
<div><font face="courier new, monospace">[2013-09-02 06:37:54.099191] I [client-handshake.c:1411:client_setvolume_cbk] 0-docstore1-client-0: Connected to <a href="http://10.200.1.5:24009">10.200.1.5:24009</a>, attached to remote volume &#39;/data/docstore1&#39;.</font></div>
<div><font face="courier new, monospace">[2013-09-02 06:37:54.099222] I [client-handshake.c:1423:client_setvolume_cbk] 0-docstore1-client-0: Server and Client lk-version numbers are not same, reopening the fds</font></div>
<div><font face="courier new, monospace">[2013-09-02 06:37:54.105891] I [fuse-bridge.c:4191:fuse_graph_setup] 0-fuse: switched to graph 0</font></div><div><font face="courier new, monospace">[2013-09-02 06:37:54.106039] I [client-handshake.c:453:client_set_lk_version_cbk] 0-docstore1-client-0: Server lk version = 1</font></div>
<div><font face="courier new, monospace">[2013-09-02 06:37:54.106179] I [fuse-bridge.c:3376:fuse_init] 0-glusterfs-fuse: FUSE inited with protocol versions: glusterfs 7.13 kernel 7.17</font></div><div><font face="courier new, monospace">[2013-09-02 06:37:54.108766] I [afr-common.c:2022:afr_set_root_inode_on_first_lookup] 0-docstore1-replicate-0: added root inode</font></div>
</div><div><br></div><div><br></div><div>This is driving me nuts - I&#39;ve been working on getting Geo-Replication working for over 2 months now without any success.</div><div><br></div><div>Status on the geo-rep shows OK:</div>
<div><br></div><div><div><font face="courier new, monospace">root@gfs6:~# gluster volume geo-replication docstore1 ssh://root@backup-ds2.gluster:/data/docstore1 status</font></div><div><font face="courier new, monospace">MASTER               SLAVE                                              STATUS    </font></div>
<div><font face="courier new, monospace">--------------------------------------------------------------------------------</font></div><div><font face="courier new, monospace">docstore1            ssh://root@backup-ds2.gluster:/data/docstore1      OK        </font></div>
<div><font face="courier new, monospace">root@gfs6:~# </font></div></div><div><br></div><div>Here&#39;s the config:</div><div><br></div><div><div><font face="courier new, monospace">root@gfs6:~# gluster volume geo-replication docstore1 ssh://root@backup-ds2.gluster:/data/docstore1 config</font></div>
<div><font face="courier new, monospace">log_level: DEBUG</font></div><div><font face="courier new, monospace">gluster_log_file: /var/log/glusterfs/geo-replication/docstore1/ssh%3A%2F%2Froot%4010.200.1.12%3Afile%3A%2F%2F%2Fdata%2Fdocstore1.gluster.log</font></div>
<div><font face="courier new, monospace">ssh_command: ssh -oPasswordAuthentication=no -oStrictHostKeyChecking=no -i /var/lib/glusterd/geo-replication/secret.pem</font></div><div><font face="courier new, monospace">session_owner: 24f8c92d-723e-4513-9593-40ef4b7e766a</font></div>
<div><font face="courier new, monospace">remote_gsyncd: /usr/lib/glusterfs/glusterfs/gsyncd</font></div><div><font face="courier new, monospace">state_file: /var/lib/glusterd/geo-replication/docstore1/ssh%3A%2F%2Froot%4010.200.1.12%3Afile%3A%2F%2F%2Fdata%2Fdocstore1.status</font></div>
<div><font face="courier new, monospace">gluster_command_dir: /usr/sbin/</font></div><div><font face="courier new, monospace">pid_file: /var/lib/glusterd/geo-replication/docstore1/ssh%3A%2F%2Froot%4010.200.1.12%3Afile%3A%2F%2F%2Fdata%2Fdocstore1.pid</font></div>
<div><font face="courier new, monospace">log_file: /var/log/glusterfs/geo-replication/docstore1/ssh%3A%2F%2Froot%4010.200.1.12%3Afile%3A%2F%2F%2Fdata%2Fdocstore1.log</font></div><div><font face="courier new, monospace">gluster_params: xlator-option=*-dht.assert-no-child-down=true</font></div>
<div><font face="courier new, monospace">root@gfs6:~# </font></div></div><div><br></div><div>I&#39;m running Ubuntu packages 3.3.2-ubuntu1-precise2 from the ppa.  Any ideas for why it&#39;s stalling?</div><div><br></div>
</div></div>