<div dir="ltr">Funny things going on...<div><br></div><div>Let&#39;s start from the beginning:&nbsp;</div><div><br></div><div>I am not familiar with ubuntu&#39;s way of starting and stopping a service, but what you did on iptables was adding a line that, in theory, allows any connection to the server.&nbsp;</div>
<div><br></div><div>Just in case, really, REALLY disable iptables.</div><div><br></div><div>on a Red hat-based environment, you&#39;d do something like:</div><div><br></div><div>service iptables stop</div><div>chkconfig iptables off</div>
<div><br></div><div>If you can do that, it can help.</div><div><br></div><div>Now, on the UBUNTU SERVER running gluster, try:</div><div><br></div><div>mkdir -p /mnt/glustervol0</div><div><br></div><div>mount -t nfs localhost:/gv0 /mnt/glustervol0</div>
<div><br></div><div>This should work.</div><div><br></div><div>Next, still on your ubuntu server, do:</div><div><br></div><div>df -h&nbsp;</div><div>(just to make sure you volume is there)</div><div><br></div><div>Let&#39;s do this first, to see if gluster and the server are behaving the way they should.</div>
<div><br></div><div>KR,&nbsp;</div><div><br></div><div>Carlos</div></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Tue, Mar 11, 2014 at 8:29 AM, Daniel Baker <span dir="ltr">&lt;<a href="mailto:info@collisiondetection.biz" target="_blank">info@collisiondetection.biz</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Dear Carlos<br>
<br>
I opened up the glusterfs server firewall &nbsp;to accept all connections<br>
from &nbsp;my computer :<br>
<br>
iptables -I INPUT -p all -s 192.168.100.209 -j ACCEPT<br>
<br>
And on my computer to accept all connections from the glusterfs server.<br>
<br>
When I try showmount -e localhost<br>
<br>
Export list for localhost:<br>
/gv0 *<br>
<br>
<br>
When I try the same command from my computer I get:<br>
<br>
<br>
showmount -e 192.168.100.170<br>
Export list for <a href="http://192.168.100.170" target="_blank">192.168.100.170</a>:<br>
/gv0 *<br>
<br>
<br>
When I try from my computer :<br>
<div class=""><br>
sudo mount -t nfs 192.168.100.170:/gv0 /mnt/export<br>
<br>
</div>mount.nfs: mount point /mnt/export does not exist<br>
<br>
And when I try from my computer:<br>
<div class=""><br>
sudo mount -t glusterfs 192.168.100.170:/gv0 /mnt/export<br>
</div><div class="">Usage: &nbsp;mount.glusterfs &lt;volumeserver&gt;:&lt;volumeid/volumeport&gt; -o<br>
&lt;options&gt; &lt;mountpoint&gt;<br>
Options:<br>
man 8 mount.glusterfs<br>
<br>
To display the version number of the mount helper:<br>
mount.glusterfs --version<br>
<br>
<br>
</div>So it looks like the volume is there but it doesn&rsquo;t see the mount point ?<br>
<br>
Then I changed tac. I found this tutorial :<br>
<a href="http://www.howtoforge.com/high-availability-storage-with-glusterfs-3.2.x-on-debian-wheezy-automatic-file-replication-mirror-across-two-storage-servers" target="_blank">http://www.howtoforge.com/high-availability-storage-with-glusterfs-3.2.x-on-debian-wheezy-automatic-file-replication-mirror-across-two-storage-servers</a><br>

<br>
<br>
I issued this command on my client computer:<br>
<br>
mkdir /mnt/glusterfs<br>
<br>
mount.glusterfs <a href="http://192.168.100.170/gv0" target="_blank">192.168.100.170/gv0</a> /mnt/glusterfs<br>
<br>
<br>
This time I did not receive any messages about how to use the gluster<br>
commads. So it looked ok.<br>
<br>
However when I issue :<br>
<br>
mount<br>
<br>
I get this :<br>
<br>
/dev/sda2 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;451G &nbsp;421G &nbsp;7.2G &nbsp;99% /<br>
udev &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 3.8G &nbsp;4.0K &nbsp;3.8G &nbsp; 1% /dev<br>
tmpfs &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;1.6G 1008K &nbsp;1.6G &nbsp; 1% /run<br>
none &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 5.0M &nbsp; &nbsp; 0 &nbsp;5.0M &nbsp; 0% /run/lock<br>
none &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 3.8G &nbsp;748K &nbsp;3.8G &nbsp; 1% /run/shm<br>
cgroup &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 3.8G &nbsp; &nbsp; 0 &nbsp;3.8G &nbsp; 0% /sys/fs/cgroup<br>
/dev/sda1 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 93M &nbsp;2.1M &nbsp; 91M &nbsp; 3% /boot/efi<br>
/home/kam270/.Private &nbsp;451G &nbsp;421G &nbsp;7.2G &nbsp;99% /home/kam270<br>
<br>
No mount point to server.<br>
<br>
Maybe I need to try adding hostnames in my /etc/hosts ?<br>
<br>
<br>
Thanks,<br>
<div><div class="h5"><br>
Dan<br>
<br>
&gt;<br>
&gt;<br>
&gt; ------------------------------<br>
&gt;<br>
&gt; Message: 4<br>
&gt; Date: Fri, 7 Mar 2014 17:56:08 +0100<br>
&gt; From: Carlos Capriotti &lt;<a href="mailto:capriotti.carlos@gmail.com">capriotti.carlos@gmail.com</a>&gt;<br>
&gt; To: Daniel Baker &lt;<a href="mailto:info@collisiondetection.biz">info@collisiondetection.biz</a>&gt;<br>
&gt; Cc: gluster-users &lt;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&gt;<br>
&gt; Subject: Re: [Gluster-users] Testing Gluster 3.2.4 in VMware<br>
&gt; Message-ID:<br>
&gt; &nbsp; &nbsp; &nbsp; &lt;CAMShz32JK=B+O+cL3Ej-hxSsQ1s06U0JOiP9GgSkdjfq1=<a href="mailto:0s-Q@mail.gmail.com">0s-Q@mail.gmail.com</a>&gt;<br>
&gt; Content-Type: text/plain; charset=&quot;iso-8859-1&quot;<br>
&gt;<br>
&gt; Hello, Daniel.<br>
&gt; I am also testing gluster on vmware; in my application, it will be a<br>
&gt; secondary datastore for VM images.<br>
&gt;<br>
&gt; So far, I&#39;ve hit a couple of brick walls, like, for instance, VMware not<br>
&gt; reading volumes created as striped, or striped + replicated. It simply sits<br>
&gt; there, trying, four hours, without errors on either sides.<br>
&gt;<br>
&gt; But your current configuration WILL work.<br>
&gt;<br>
&gt; As a suggestion, to begin with your troubleshooting, try disabling firewall<br>
&gt; and SElinux. nothing to do with your current problem, BUT will matter in<br>
&gt; the near future. After you are sure all works, go back an re-enable/ fine<br>
&gt; tune them.<br>
&gt;<br>
&gt; Now to your problem...<br>
&gt;<br>
&gt; Your first syntax seem to be a bit off,unless it is a typo;<br>
&gt;<br>
&gt; sudo mount.glusterfs 192.168.100.170:gv0 /mnt/export<br>
&gt;<br>
&gt; you see, there is a slash missing after. It should read<br>
&gt;<br>
&gt; sudo mount.glusterfs 192.168.100.170:/gv0 /mnt/export<br>
&gt;<br>
&gt; For the second case, you did not post the error message, so I can only<br>
&gt; suggest you try copying/pasting this:<br>
&gt;<br>
&gt; sudo mount -t glusterfs 192.168.100.170:/gv0 /mnt/export<br>
&gt;<br>
&gt; Now, here is another trick: try mounting wit nfs:<br>
&gt;<br>
&gt; First, make sure your NFS share is really being shared:<br>
&gt;<br>
&gt; # showmount -e 192.168.100.170<br>
&gt;<br>
&gt; Alternatively, if you are on one of the gluster servers, just for testing,<br>
&gt; you may try:<br>
&gt;<br>
&gt; # showmount -e localhost<br>
&gt;<br>
&gt; Make sure your gluster volume is REALLY called gv0.<br>
&gt;<br>
&gt; Now you can try mounting with:<br>
&gt;<br>
&gt; sudo mount -t nfs 192.168.100.170:/gv0 /mnt/export<br>
&gt;<br>
&gt; Again, if you are on one of the servers, try<br>
&gt;<br>
&gt; sudo mount -t nfs localhost:/gv0 /mnt/export<br>
&gt;<br>
&gt; You might want to &quot;sudo su&quot; to run everything all commands as root, without<br>
&gt; the hassle of sudoing everything.<br>
&gt;<br>
&gt; Give it a try. If nfs works, go for it anyway; It is your only option for<br>
&gt; VMware/esxi anyway.<br>
&gt;<br>
&gt; There are a few more advanced steps on esxi and on gluster, but let&#39;s get<br>
&gt; it to work first, right ?<br>
&gt;<br>
&gt; Cheers,<br>
&gt;<br>
&gt; On Fri, Mar 7, 2014 at 9:15 AM, Daniel Baker &lt;<a href="mailto:info@collisiondetection.biz">info@collisiondetection.biz</a>&gt;wrote:<br>
&gt;<br>
&gt;&gt;<br>
&gt;&gt; Hi,<br>
&gt;&gt;<br>
&gt;&gt; I have followed your tutorial to set up glusterfs 3.4.2 in vmware.<br>
&gt;&gt;<br>
&gt;&gt; <a href="http://www.gluster.org/community/documentation/index.php/Getting_started_configure" target="_blank">http://www.gluster.org/community/documentation/index.php/Getting_started_configure</a><br>
&gt;&gt;<br>
&gt;&gt; My &nbsp;gluster volume info is the same as this:<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; Volume Name: gv0<br>
&gt;&gt; Type: Replicate<br>
&gt;&gt; Volume ID: 8bc3e96b-a1b6-457d-8f7a-a91d1d4dc019<br>
&gt;&gt; Status: Created<br>
&gt;&gt; Number of Bricks: 1 x 2 = 2<br>
&gt;&gt; Transport-type: tcp<br>
&gt;&gt; Bricks:<br>
&gt;&gt; Brick1: node01.yourdomain.net:/export/sdb1/brick<br>
&gt;&gt; Brick2: node02.yourdomain.net:/export/sdb1/brick<br>
&gt;&gt;<br>
&gt;&gt; In order to test replication I have installed the glusterfs-client on my<br>
&gt;&gt; ubuntu 12.04 &nbsp;laptop.<br>
&gt;&gt;<br>
&gt;&gt; I issue this command:<br>
&gt;&gt;<br>
&gt;&gt; sudo mount.glusterfs 192.168.100.170:gv0 /mnt/export<br>
&gt;&gt;<br>
&gt;&gt; but I receive this &nbsp;error :<br>
&gt;&gt;<br>
&gt;&gt; Usage: &nbsp;mount.glusterfs &lt;volumeserver&gt;:&lt;volumeid/volumeport&gt; -o<br>
&gt;&gt; &lt;options&gt; &lt;mountpoint&gt;<br>
&gt;&gt; Options:<br>
&gt;&gt; man 8 mount.glusterfs<br>
&gt;&gt;<br>
&gt;&gt; To display the version number of the mount helper:<br>
&gt;&gt; mount.glusterfs --version<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; I have also tried this variant :<br>
&gt;&gt;<br>
&gt;&gt; &nbsp;# mount -t glusterfs HOSTNAME-OR-IPADDRESS:/VOLNAME MOUNTDIR<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; So how do I mount the volumes and test the replication. Your getting<br>
&gt;&gt; started tutorial doesn&#39;t detail that ?<br>
&gt;&gt;<br>
&gt;&gt; Thanks for your help<br>
&gt;&gt;<br>
&gt;&gt; Dan<br>
&gt;&gt;<br>
&gt;&gt; _______________________________________________<br>
&gt;&gt; Gluster-users mailing list<br>
&gt;&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt;&gt; <a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;&gt;<br>
&gt; -------------- next part --------------<br>
&gt; An HTML attachment was scrubbed...<br>
&gt; URL: &lt;<a href="http://supercolony.gluster.org/pipermail/gluster-users/attachments/20140307/1143f397/attachment-0001.html" target="_blank">http://supercolony.gluster.org/pipermail/gluster-users/attachments/20140307/1143f397/attachment-0001.html</a>&gt;<br>

&gt;<br>
&gt; ------------------------------<br>
&gt;<br>
&gt; Message: 5<br>
</div></div>&gt; Date: Fri, 7 Mar 2014 19:05:24 +0000<br>
&gt; From: Justin Clift &lt;<a href="mailto:justin@gluster.org">justin@gluster.org</a>&gt;<br>
&gt; To: <a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>, &lt;<a href="mailto:gluster-devel@nongnu.org">gluster-devel@nongnu.org</a>&gt;<br>
&gt; Subject: Re: [Gluster-users] [Gluster-devel] Is there demand for<br>
&gt; &nbsp; &nbsp; &nbsp; geo-replication on RHEL/CentOS/SL 5.x?<br>
&gt; Message-ID: &lt;<a href="mailto:9D72E0A0-589F-48A4-B978-8B8508B56372@gluster.org">9D72E0A0-589F-48A4-B978-8B8508B56372@gluster.org</a>&gt;<br>
&gt; Content-Type: text/plain; charset=us-ascii<br>
&gt;<br>
&gt; On 04/03/2014, at 1:35 PM, Justin Clift wrote:<br>
&gt;&gt; Hi all,<br>
&gt;&gt;<br>
&gt;&gt; Is anyone interested in having geo-replication work on RHEL/CentOS/SL 5.x?<br>
&gt;<br>
&gt;<br>
&gt; Seems pretty clear there&#39;s no demand for geo-replication on EL5,<br>
&gt; so we&#39;ll disable the rpm building of it.<br>
&gt;<br>
&gt; Patch to do the disabling is up for review:<br>
&gt;<br>
&gt; &nbsp; <a href="http://review.gluster.org/#/c/7210/" target="_blank">http://review.gluster.org/#/c/7210/</a><br>
&gt;<br>
&gt; If anyone&#39;s got the time to do code review of it, please do (it&#39;s<br>
&gt; a simple one). :)<br>
&gt;<br>
&gt; Regards and best wishes,<br>
&gt;<br>
&gt; Justin Clift<br>
&gt;<br>
&gt; --<br>
&gt; Open Source and Standards @ Red Hat<br>
&gt;<br>
&gt; <a href="http://twitter.com/realjustinclift" target="_blank">twitter.com/realjustinclift</a><br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; ------------------------------<br>
&gt;<br>
&gt; Message: 6<br>
&gt; Date: Fri, 7 Mar 2014 11:47:06 -0800<br>
&gt; From: Justin Dossey &lt;<a href="mailto:jbd@podomatic.com">jbd@podomatic.com</a>&gt;<br>
&gt; To: gluster-users &lt;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&gt;<br>
&gt; Subject: [Gluster-users] DNS resolution of gluster servers from<br>
&gt; &nbsp; &nbsp; &nbsp; client?<br>
&gt; Message-ID:<br>
&gt; &nbsp; &nbsp; &nbsp; &lt;<a href="mailto:CAPMPShziV96SvSb-tpAoExFR67qANvqDU4D1uavs9t33EYrULg@mail.gmail.com">CAPMPShziV96SvSb-tpAoExFR67qANvqDU4D1uavs9t33EYrULg@mail.gmail.com</a>&gt;<br>
&gt; Content-Type: text/plain; charset=&quot;iso-8859-1&quot;<br>
&gt;<br>
&gt; While testing rolling upgrades from 3.3 to 3.4, I ran into the &quot;Transport<br>
&gt; Endpoint is not connected&quot; issue on my test client (running 3.3) after<br>
&gt; rebooting two of my four test GlusterFS 3.4 servers<br>
&gt; (distributed-replicated-2).<br>
&gt;<br>
&gt; Unmounting and remounting the volume was the only way I could get the error<br>
&gt; to go away<br>
&gt;<br>
&gt; As the nodes in question were actually up at the time I got the error, and<br>
&gt; waiting did not help, I checked the client logs and found this:<br>
&gt;<br>
&gt; [2014-03-04 23:19:26.124162] E [dht-common.c:1374:dht_lookup] 0-TEST1-dht:<br>
&gt; Failed to get hashed subvol for /<br>
&gt; [2014-03-04 23:19:26.124434] E [dht-common.c:1374:dht_lookup] 0-TEST1-dht:<br>
&gt; Failed to get hashed subvol for /<br>
&gt; [2014-03-04 23:19:27.626845] I [afr-common.c:3843:afr_local_init]<br>
&gt; 0-TEST1-replicate-0: no subvolumes up<br>
&gt; [2014-03-04 23:19:27.626928] W [fuse-bridge.c:2525:fuse_statfs_cbk]<br>
&gt; 0-glusterfs-fuse: 77: ERR =&gt; -1 (Transport endpoint is not connected)<br>
&gt; [2014-03-04 23:19:27.857455] E [common-utils.c:125:gf_resolve_ip6]<br>
&gt; 0-resolver: getaddrinfo failed (No address associated with hostname)<br>
&gt; [2014-03-04 23:19:27.857507] E<br>
&gt; [name.c:243:af_inet_client_get_remote_sockaddr] 0-TEST1-client-0: DNS<br>
&gt; resolution failed on host glustertest1<br>
&gt; [2014-03-04 23:19:28.047913] E [common-utils.c:125:gf_resolve_ip6]<br>
&gt; 0-resolver: getaddrinfo failed (No address associated with hostname)<br>
&gt; [2014-03-04 23:19:28.047963] E<br>
&gt; [name.c:243:af_inet_client_get_remote_sockaddr] 0-TEST1-client-1: DNS<br>
&gt; resolution failed on host glustertest2<br>
&gt;<br>
&gt; These log messages are interesting because although the servers in question<br>
&gt; (glustertest{1,2,3,4} are not in DNS, they *are* in the /etc/hosts files on<br>
&gt; all of the hosts in question.<br>
&gt;<br>
&gt; Is it a bug that the client requires that all the GlusterFS servers be in<br>
&gt; DNS?<br>
&gt;<br>
&gt;<br>
</blockquote></div><br></div>