<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=us-ascii">
<style>
<!--
@font-face
        {font-family:Calibri}
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0in;
        margin-bottom:.0001pt;
        font-size:11.0pt;
        font-family:"Calibri","sans-serif"}
a:link, span.MsoHyperlink
        {color:blue;
        text-decoration:underline}
a:visited, span.MsoHyperlinkFollowed
        {color:purple;
        text-decoration:underline}
span.EmailStyle17
        {font-family:"Calibri","sans-serif";
        color:windowtext}
.MsoChpDefault
        {font-family:"Calibri","sans-serif"}
@page WordSection1
        {margin:1.0in 1.0in 1.0in 1.0in}
div.WordSection1
        {}
-->
</style>
</head>
<body lang="EN-US" link="blue" vlink="purple">
<div class="WordSection1">
<p class="MsoNormal">Hey everyone,</p>
<p class="MsoNormal">&nbsp;</p>
<p class="MsoNormal">I'm trying to get geo-replication working from a two brick replicated volume to a single directory on a remote host.&nbsp; I can ssh as either root or georep-user to the destination as either georep-user or root with no password using the default
 ssh commands given by the config command: ssh -oPasswordAuthentication=no -oStrictHostKeyChecking=no -i /etc/glusterd/geo-replication/secret.pem.&nbsp; All the glusterfs rpms are installed on the remote host.&nbsp; There are no firewalls running on any of the hosts
 and no firewalls in between them.&nbsp; The remote_gsyncd command is correct as I can copy and paste it to the command line and run it on both source hosts and destination host.&nbsp; I'm using the current production version of glusterfs 3.2.6, rsync 3.0.9, fuse-2.8.3
 rpm's are installed, OpenSSH 5.3, and Python 2.6.6 on RHEL6.2.&nbsp; The remote directory is set to 777, world read-write so there are no permission errors.&nbsp;
</p>
<p class="MsoNormal">&nbsp;</p>
<p class="MsoNormal">I'm using this command to start replication: gluster volume geo-replication RMSNFSMOUNT hptv3130:/nfs start</p>
<p class="MsoNormal">&nbsp;</p>
<p class="MsoNormal">Whenever I try to initiate geo-replication the status goes to starting for about 30 seconds, then goes to faulty.&nbsp; On the slave I get these messages repeating in the geo-replication-slaves log:</p>
<p class="MsoNormal">&nbsp;</p>
<p class="MsoNormal">[2012-04-27 09:37:59.485424] I [resource(slave):201:service_loop] FILE: slave listening</p>
<p class="MsoNormal">[2012-04-27 09:38:05.413768] I [repce(slave):60:service_loop] RepceServer: terminating on reaching EOF.</p>
<p class="MsoNormal">[2012-04-27 09:38:15.35907] I [resource(slave):207:service_loop] FILE: connection inactive for 120 seconds, stopping</p>
<p class="MsoNormal">[2012-04-27 09:38:15.36382] I [gsyncd(slave):302:main_i] &lt;top&gt;: exiting.</p>
<p class="MsoNormal">[2012-04-27 09:38:19.952683] I [gsyncd(slave):290:main_i] &lt;top&gt;: syncing: file:///nfs</p>
<p class="MsoNormal">[2012-04-27 09:38:19.955024] I [resource(slave):201:service_loop] FILE: slave listening</p>
<p class="MsoNormal">&nbsp;</p>
<p class="MsoNormal">&nbsp;</p>
<p class="MsoNormal">I get these messages in etc-glusterfs-glusterd.vol.log on the slave:</p>
<p class="MsoNormal">&nbsp;</p>
<p class="MsoNormal">[2012-04-27 09:39:23.667930] W [socket.c:1494:__socket_proto_state_machine] 0-socket.management: reading from socket failed. Error (Transport endpoint is not connected), peer (127.0.0.1:1021)</p>
<p class="MsoNormal">[2012-04-27 09:39:43.736138] I [glusterd-handler.c:3226:glusterd_handle_getwd] 0-glusterd: Received getwd req</p>
<p class="MsoNormal">[2012-04-27 09:39:43.740749] W [socket.c:1494:__socket_proto_state_machine] 0-socket.management: reading from socket failed. Error (Transport endpoint is not connected), peer (127.0.0.1:1023)</p>
<p class="MsoNormal">&nbsp;</p>
<p class="MsoNormal">As I understand it from searching the list that message is benign and can be ignored though.</p>
<p class="MsoNormal">&nbsp;</p>
<p class="MsoNormal">&nbsp;</p>
<p class="MsoNormal">Here are tails of all the logs on one of the sources:</p>
<p class="MsoNormal">&nbsp;</p>
<p class="MsoNormal">[root@retv3130 RMSNFSMOUNT]# tail ssh%3A%2F%2Fgeorep-user%4010.2.1.60%3Afile%3A%2F%2F%2Fnfs.gluster.log</p>
<p class="MsoNormal">&#43;------------------------------------------------------------------------------&#43;</p>
<p class="MsoNormal">[2012-04-26 16:16:40.804047] E [socket.c:1685:socket_connect_finish] 0-RMSNFSMOUNT-client-1: connection to&nbsp; failed (Connection refused)</p>
<p class="MsoNormal">[2012-04-26 16:16:40.804852] I [rpc-clnt.c:1536:rpc_clnt_reconfig] 0-RMSNFSMOUNT-client-0: changing port to 24009 (from 0)</p>
<p class="MsoNormal">[2012-04-26 16:16:44.779451] I [rpc-clnt.c:1536:rpc_clnt_reconfig] 0-RMSNFSMOUNT-client-1: changing port to 24010 (from 0)</p>
<p class="MsoNormal">[2012-04-26 16:16:44.855903] I [client-handshake.c:1090:select_server_supported_programs] 0-RMSNFSMOUNT-client-0: Using Program GlusterFS 3.2.6, Num (1298437), Version (310)</p>
<p class="MsoNormal">[2012-04-26 16:16:44.856893] I [client-handshake.c:913:client_setvolume_cbk] 0-RMSNFSMOUNT-client-0: Connected to 10.170.1.222:24009, attached to remote volume '/nfs'.</p>
<p class="MsoNormal">[2012-04-26 16:16:44.856943] I [afr-common.c:3141:afr_notify] 0-RMSNFSMOUNT-replicate-0: Subvolume 'RMSNFSMOUNT-client-0' came back up; going online.</p>
<p class="MsoNormal">[2012-04-26 16:16:44.866734] I [fuse-bridge.c:3339:fuse_graph_setup] 0-fuse: switched to graph 0</p>
<p class="MsoNormal">[2012-04-26 16:16:44.867391] I [fuse-bridge.c:3241:fuse_thread_proc] 0-fuse: unmounting /tmp/gsyncd-aux-mount-8zMs0J</p>
<p class="MsoNormal">[2012-04-26 16:16:44.868538] W [glusterfsd.c:727:cleanup_and_exit] (--&gt;/lib64/libc.so.6(clone&#43;0x6d) [0x31494e5ccd] (--&gt;/lib64/libpthread.so.0() [0x3149c077f1] (--&gt;/opt/glusterfs/3.2.6/sbin/glusterfs(glusterfs_sigwaiter&#43;0x17c) [0x40477c])))
 0-: received signum (15), shutting down</p>
<p class="MsoNormal">[root@retv3130 RMSNFSMOUNT]# tail ssh%3A%2F%2Fgeorep-user%4010.2.1.60%3Afile%3A%2F%2F%2Fnfs.log</p>
<p class="MsoNormal">[2012-04-26 16:16:39.263871] I [gsyncd:290:main_i] &lt;top&gt;: syncing: gluster://localhost:RMSNFSMOUNT -&gt; ssh://georep-user@hptv3130:/nfs</p>
<p class="MsoNormal">[2012-04-26 16:16:41.332690] E [syncdutils:133:log_raise_exception] &lt;top&gt;: FAIL:</p>
<p class="MsoNormal">Traceback (most recent call last):</p>
<p class="MsoNormal">&nbsp; File &quot;/opt/glusterfs/3.2.6/local/libexec/glusterfs/python/syncdaemon/syncdutils.py&quot;, line 154, in twrap</p>
<p class="MsoNormal">&nbsp;&nbsp;&nbsp; tf(*aa)</p>
<p class="MsoNormal">&nbsp; File &quot;/opt/glusterfs/3.2.6/local/libexec/glusterfs/python/syncdaemon/repce.py&quot;, line 117, in listen</p>
<p class="MsoNormal">&nbsp;&nbsp;&nbsp; rid, exc, res = recv(self.inf)</p>
<p class="MsoNormal">&nbsp; File &quot;/opt/glusterfs/3.2.6/local/libexec/glusterfs/python/syncdaemon/repce.py&quot;, line 41, in recv</p>
<p class="MsoNormal">&nbsp;&nbsp;&nbsp; return pickle.load(inf)</p>
<p class="MsoNormal">EOFError</p>
<p class="MsoNormal">[root@retv3130 RMSNFSMOUNT]# tail ssh%3A%2F%2Froot%4010.2.1.60%3Afile%3A%2F%2F%2Fnfs.gluster.log</p>
<p class="MsoNormal">[2012-04-27 09:48:42.892842] I [rpc-clnt.c:1536:rpc_clnt_reconfig] 0-RMSNFSMOUNT-client-1: changing port to 24010 (from 0)</p>
<p class="MsoNormal">[2012-04-27 09:48:43.120749] I [client-handshake.c:1090:select_server_supported_programs] 0-RMSNFSMOUNT-client-0: Using Program GlusterFS 3.2.6, Num (1298437), Version (310)</p>
<p class="MsoNormal">[2012-04-27 09:48:43.121489] I [client-handshake.c:913:client_setvolume_cbk] 0-RMSNFSMOUNT-client-0: Connected to 10.170.1.222:24009, attached to remote volume '/nfs'.</p>
<p class="MsoNormal">[2012-04-27 09:48:43.121515] I [afr-common.c:3141:afr_notify] 0-RMSNFSMOUNT-replicate-0: Subvolume 'RMSNFSMOUNT-client-0' came back up; going online.</p>
<p class="MsoNormal">[2012-04-27 09:48:43.132904] I [fuse-bridge.c:3339:fuse_graph_setup] 0-fuse: switched to graph 0</p>
<p class="MsoNormal">[2012-04-27 09:48:43.133704] I [fuse-bridge.c:2927:fuse_init] 0-glusterfs-fuse: FUSE inited with protocol versions: glusterfs 7.13 kernel 7.13</p>
<p class="MsoNormal">[2012-04-27 09:48:43.135797] I [afr-common.c:1520:afr_set_root_inode_on_first_lookup] 0-RMSNFSMOUNT-replicate-0: added root inode</p>
<p class="MsoNormal">[2012-04-27 09:48:44.533289] W [fuse-bridge.c:2517:fuse_xattr_cbk] 0-glusterfs-fuse: 8: GETXATTR(trusted.glusterfs.9de3c1c8-a753-45a1-8042-b6a4872c5c3c.xtime) / =&gt; -1 (Transport endpoint is not connected)</p>
<p class="MsoNormal">[2012-04-27 09:48:44.544934] I [fuse-bridge.c:3241:fuse_thread_proc] 0-fuse: unmounting /tmp/gsyncd-aux-mount-uXCybC</p>
<p class="MsoNormal">[2012-04-27 09:48:44.545879] W [glusterfsd.c:727:cleanup_and_exit] (--&gt;/lib64/libc.so.6(clone&#43;0x6d) [0x31494e5ccd] (--&gt;/lib64/libpthread.so.0() [0x3149c077f1] (--&gt;/opt/glusterfs/3.2.6/sbin/glusterfs(glusterfs_sigwaiter&#43;0x17c) [0x40477c])))
 0-: received signum (15), shutting down</p>
<p class="MsoNormal">[root@retv3130 RMSNFSMOUNT]# tail ssh%3A%2F%2Froot%4010.2.1.60%3Afile%3A%2F%2F%2Fnfs.log</p>
<p class="MsoNormal">&nbsp; File &quot;/opt/glusterfs/3.2.6/local/libexec/glusterfs/python/syncdaemon/libcxattr.py&quot;, line 34, in lgetxattr</p>
<p class="MsoNormal">&nbsp;&nbsp;&nbsp; return cls._query_xattr( path, siz, 'lgetxattr', attr)</p>
<p class="MsoNormal">&nbsp; File &quot;/opt/glusterfs/3.2.6/local/libexec/glusterfs/python/syncdaemon/libcxattr.py&quot;, line 26, in _query_xattr</p>
<p class="MsoNormal">&nbsp;&nbsp;&nbsp; cls.raise_oserr()</p>
<p class="MsoNormal">&nbsp; File &quot;/opt/glusterfs/3.2.6/local/libexec/glusterfs/python/syncdaemon/libcxattr.py&quot;, line 16, in raise_oserr</p>
<p class="MsoNormal">&nbsp;&nbsp;&nbsp; raise OSError(errn, os.strerror(errn))</p>
<p class="MsoNormal">OSError: [Errno 107] Transport endpoint is not connected</p>
<p class="MsoNormal">[2012-04-27 09:49:14.846837] I [monitor(monitor):59:monitor] Monitor: ------------------------------------------------------------</p>
<p class="MsoNormal">[2012-04-27 09:49:14.847898] I [monitor(monitor):60:monitor] Monitor: starting gsyncd worker</p>
<p class="MsoNormal">[2012-04-27 09:49:14.930681] I [gsyncd:290:main_i] &lt;top&gt;: syncing: gluster://localhost:RMSNFSMOUNT -&gt; ssh://hptv3130:/nfs</p>
<p class="MsoNormal">&nbsp;</p>
<p class="MsoNormal">&nbsp;</p>
<p class="MsoNormal">I'm out of ideas.&nbsp; I've satisfied all the requirements I can find, and I'm not seeing anything in the logs that makes any sense to me as an error that I can fix.&nbsp; Can anyone help?</p>
<p class="MsoNormal">&nbsp;</p>
<p class="MsoNormal">Thanks!</p>
<p class="MsoNormal">&nbsp;</p>
<p class="MsoNormal"><span style="font-family:&quot;Arial&quot;,&quot;sans-serif&quot;">Scot Kreienkamp</span></p>
<p class="MsoNormal"><span style="font-family:&quot;Arial&quot;,&quot;sans-serif&quot;">skreien@la-z-boy.com</span></p>
<p class="MsoNormal">&nbsp;</p>
</div>
<br>
<br>
<br>
This message is intended only for the individual or entity to which it is addressed. It may contain privileged, confidential information which is exempt from disclosure under applicable laws. If you are not the intended recipient, please note that you are strictly
 prohibited from disseminating or distributing this information (other than to the intended recipient) or copying this information. If you have received this communication in error, please notify us immediately by e-mail or by telephone at the above number.
 Thank you.
</body>
</html>