<html><body><p>How could I define such a feature.  I was unaware of such a timeout.  Is there a feature to prevent or refresh a timeout of less than a second?  Then is the quick solution is to long list the directory path ?<br><br>Khoi<br>-------- Original Message --------<br><br>From :      anand.avati@gmail.com<br>To :                 Khoi Mai &lt;KHOIMAI@up.com&gt;<br>Cc :        gluster-users &lt;gluster-users@gluster.org&gt;<br>Sent on : 12/24 02:04:10 AM CST<br>Subject : Re: [Gluster-users] 11. Re: glusterfs-3.4.2qa4 released<br><br><font size="4">Khoi,</font><br><font size="4">Looking at your logs, my guess is that the client was mounted with a very high --entry-timeout=N value (or client-2 accesses file, runs strace etc. all within the default 1sec after client-1 recreated the file through vi). If not, I don't see how your client could get this log entry:</font><br><br><font size="4">[2013-12-19 20:08:51.729392] W [fuse-bridge.c:705:fuse_attr_cbk] 0-glusterfs-fuse: 42: STAT() /world =&gt; -1 (Stale file handle)</font><br><br><font size="4">If a file is deleted/recreated within the entry-timeout period from another client, this can happen, and that is a gluster independent FUSE behavior.</font><br><br><font size="4">Avati</font><br><br><br><font size="4">On Thu, Dec 19, 2013 at 12:48 PM, Khoi Mai </font><font size="4">&lt;</font><a href="mailto:KHOIMAI@up.com"><u><font size="4" color="#0000ff">KHOIMAI@up.com</font></u></a><font size="4">&gt;</font><font size="4"> </font><font size="4">wrote:</font><br><tt><font size="4">Gluster community,</font></tt><br><br><tt><font size="4">        </font></tt><a href="https://bugzilla.redhat.com/show_bug.cgi?id=1041109"><tt><u><font size="4" color="#0000ff">https://bugzilla.redhat.com/show_bug.cgi?id=1041109</font></u></tt></a><br><br><tt><font size="4">I've updated the above bugzilla while testing the latest gluster package glusterfs-3.4.2qa4 with reproducible results.  I am unsure if there is any feature options that can remedy this behavior.</font></tt><br><br><font size="4">Khoi</font><br><br><br><br><br><br><br><font size="2" color="#5f5f5f">From:       </font><a href="mailto:gluster-users-request@gluster.org"><u><font size="2" color="#0000ff">gluster-users-request@gluster.org</font></u></a><br><font size="2" color="#5f5f5f">To:       </font><a href="mailto:gluster-users@gluster.org"><u><font size="2" color="#0000ff">gluster-users@gluster.org</font></u></a><br><font size="2" color="#5f5f5f">Date:       </font><font size="2">12/19/2013 06:00 AM</font><br><font size="2" color="#5f5f5f">Subject:     </font><font size="2">Gluster-users Digest, Vol 68, Issue 20</font><br><font size="2" color="#5f5f5f">Sent by:     </font><a href="mailto:gluster-users-bounces@gluster.org"><u><font size="2" color="#0000ff">gluster-users-bounces@gluster.org</font></u></a><br><hr width="99%" size="4" align="left"><br><br><br><tt><font size="4">Send Gluster-users mailing list submissions to</font></tt><br><tt><font size="4">                </font></tt><a href="mailto:gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">gluster-users@gluster.org</font></u></tt></a><br><br><tt><font size="4">To subscribe or unsubscribe via the World Wide Web, visit</font></tt><br><tt><font size="4">                </font></tt><a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users"><tt><u><font size="4" color="#0000ff">http://supercolony.gluster.org/mailman/listinfo/gluster-users</font></u></tt></a><br><tt><font size="4">or, via email, send a message with subject or body 'help' to</font></tt><br><tt><font size="4">                </font></tt><a href="mailto:gluster-users-request@gluster.org"><tt><u><font size="4" color="#0000ff">gluster-users-request@gluster.org</font></u></tt></a><br><br><tt><font size="4">You can reach the person managing the list at</font></tt><br><tt><font size="4">                </font></tt><a href="mailto:gluster-users-owner@gluster.org"><tt><u><font size="4" color="#0000ff">gluster-users-owner@gluster.org</font></u></tt></a><br><br><tt><font size="4">When replying, please edit your Subject line so it is more specific</font></tt><br><tt><font size="4">than &quot;Re: Contents of Gluster-users digest...&quot;</font></tt><br><br><br><tt><font size="4">Today's Topics:</font></tt><br><br><tt><font size="4">  1. Re: help with replace-brick migrate (Mariusz Sobisiak)</font></tt><br><tt><font size="4">  2. Re: help with replace-brick migrate (Raphael Rabelo)</font></tt><br><tt><font size="4">  3. Re: help with replace-brick migrate (Mariusz Sobisiak)</font></tt><br><tt><font size="4">  4. Problem adding brick (replica) (Sa?a Friedrich)</font></tt><br><tt><font size="4">  5. Shared storage for critical infrastructure (Pieter Baele)</font></tt><br><tt><font size="4">  6. Debugging gfapi (Kelly Burkhart)</font></tt><br><tt><font size="4">  7. Re: [Gluster-devel] glusterfs-3.4.2qa4 released (Kaleb Keithley)</font></tt><br><tt><font size="4">  8. Cancelled: Gluster Community Weekly Meeting (Vijay Bellur)</font></tt><br><tt><font size="4">  9. Cancelled: Gluster Community Weekly Meeting (Vijay Bellur)</font></tt><br><tt><font size="4"> 10. Gluster Community Weekly Meeting Minutes --       2013-12-18</font></tt><br><tt><font size="4">     (Vijay Bellur)</font></tt><br><tt><font size="4"> 11. Re: glusterfs-3.4.2qa4 released (Vijay Bellur)</font></tt><br><tt><font size="4"> 12. Re: Debugging gfapi (Jeff Darcy)</font></tt><br><tt><font size="4"> 13. Trying to start glusterd (Knut Moe)</font></tt><br><tt><font size="4"> 14. gfapi from non-root (Kelly Burkhart)</font></tt><br><tt><font size="4"> 15. Passing noforget option to glusterfs native client     mounts</font></tt><br><tt><font size="4">     (Chalcogen)</font></tt><br><tt><font size="4"> 16. Re: Passing noforget option to glusterfs native     client mounts</font></tt><br><tt><font size="4">     (Chalcogen)</font></tt><br><tt><font size="4"> 17. Re: Problem adding brick (replica) (Anirban Ghoshal)</font></tt><br><tt><font size="4"> 18. Re: Problem adding brick (replica) (Sa?a Friedrich)</font></tt><br><tt><font size="4"> 19. Re: gfapi from non-root (Kelly Burkhart)</font></tt><br><tt><font size="4"> 20. failed to create volume ends with a prefix of it is     already</font></tt><br><tt><font size="4">     part of a volume (William Kwan)</font></tt><br><tt><font size="4"> 21. Re: Trying to start glusterd (Kaushal M)</font></tt><br><tt><font size="4"> 22. Re: qemu remote insecure connections (Vijay Bellur)</font></tt><br><tt><font size="4"> 23. Re: failed to create volume ends with a prefix of     it is</font></tt><br><tt><font size="4">     already part of a volume (Bernhard Glomm)</font></tt><br><br><br><tt><font size="4">----------------------------------------------------------------------</font></tt><br><br><tt><font size="4">Message: 1</font></tt><br><tt><font size="4">Date: Wed, 18 Dec 2013 13:21:26 +0100</font></tt><br><tt><font size="4">From: &quot;Mariusz Sobisiak&quot; &lt;</font></tt><a href="mailto:MSobisiak@ydp.pl"><tt><u><font size="4" color="#0000ff">MSobisiak@ydp.pl</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">To: &lt;</font></tt><a href="mailto:gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">gluster-users@gluster.org</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Subject: Re: [Gluster-users] help with replace-brick migrate</font></tt><br><tt><font size="4">Message-ID:</font></tt><br><tt><font size="4">                &lt;507D8C234E515F4F969362F9666D7EBBED1CB7@nagato1.intranet.ydp&gt;</font></tt><br><tt><font size="4">Content-Type: text/plain;             charset=&quot;us-ascii&quot;</font></tt><br><br><tt><font size="4">&gt; I don't knew that can be a lot of trash (orphan) files in .glusterfs,</font></tt><br><tt><font size="4">so here what i do:</font></tt><br><br><tt><font size="4">I think you can easily check by this command (on old gluster server):</font></tt><br><tt><font size="4">find .glusterfs/ -type f -links 1</font></tt><br><tt><font size="4">If something returns that means file have only one link and doesn't have</font></tt><br><tt><font size="4">a &quot;real&quot; file on the brick so it unintended (and it's orphan file).</font></tt><br><br><tt><font size="4">&gt; # du -hs *</font></tt><br><tt><font size="4">&gt; 3.5G documents</font></tt><br><tt><font size="4">&gt; 341G home</font></tt><br><tt><font size="4">&gt; 58G archives</font></tt><br><tt><font size="4">&gt; 808G secure_folder</font></tt><br><tt><font size="4">&gt; 93G secure_folder2</font></tt><br><br><tt><font size="4">So you have files on new gluster. I understood that you have just</font></tt><br><tt><font size="4">.glusterfs directory...</font></tt><br><br><tt><font size="4">&gt; 1.3T .glusterfs/</font></tt><br><br><tt><font size="4">It looks OK. It's not taking any space because it's hardlinks.</font></tt><br><br><tt><font size="4">&gt; So, i have 1.3Tb in gluster!! So, i think that replace-brick worked</font></tt><br><tt><font size="4">correctly ... right ?</font></tt><br><br><tt><font size="4">Probably yes.</font></tt><br><br><tt><font size="4">&gt; So, how can i restart the replace-brick command again ?</font></tt><br><br><tt><font size="4">I am not sure what for you want to restart the replace-brick command?</font></tt><br><tt><font size="4">You wrote that status show: migration complete... So it's ok and do just</font></tt><br><tt><font size="4">commit (first ensure is everything is OK).</font></tt><br><br><tt><font size="4">If you're not sure if all files had copied maybe you can compare files</font></tt><br><tt><font size="4">on both nodes (old one and migrated) like this:</font></tt><br><tt><font size="4">find /where/the/brick/is/ -path &quot;*/.glusterfs/*&quot; -prune -o -name '*'</font></tt><br><tt><font size="4">-print|wc -l</font></tt><br><tt><font size="4">If the command return the same values that mean you have all files :D</font></tt><br><br><tt><font size="4">But In my opinion everything looks okay (except that why so many files</font></tt><br><tt><font size="4">are orphaned on old glusterfs).</font></tt><br><br><tt><font size="4">--</font></tt><br><tt><font size="4">Mariusz</font></tt><br><br><br><br><tt><font size="4">------------------------------</font></tt><br><br><tt><font size="4">Message: 2</font></tt><br><tt><font size="4">Date: Wed, 18 Dec 2013 10:59:12 -0200</font></tt><br><tt><font size="4">From: Raphael Rabelo &lt;</font></tt><a href="mailto:rabeloo@gmail.com"><tt><u><font size="4" color="#0000ff">rabeloo@gmail.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">To: Mariusz Sobisiak &lt;</font></tt><a href="mailto:MSobisiak@ydp.pl"><tt><u><font size="4" color="#0000ff">MSobisiak@ydp.pl</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Cc: </font></tt><a href="mailto:gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">gluster-users@gluster.org</font></u></tt></a><br><tt><font size="4">Subject: Re: [Gluster-users] help with replace-brick migrate</font></tt><br><tt><font size="4">Message-ID:</font></tt><br><tt><font size="4">                &lt;</font></tt><a href="mailto:CAMOH6nDr8ZCRjdybDfE51V_%2B4UDCkrTx9xaSfJM5JhXM8fvoqw@mail.gmail.com"><tt><u><font size="4" color="#0000ff">CAMOH6nDr8ZCRjdybDfE51V_+4UDCkrTx9xaSfJM5JhXM8fvoqw@mail.gmail.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Content-Type: text/plain; charset=&quot;iso-8859-1&quot;</font></tt><br><br><tt><font size="4">&gt; I think you can easily check by this command (on old gluster server):</font></tt><br><tt><font size="4">find .glusterfs/ -type f -links 1</font></tt><br><tt><font size="4">If something returns that means file have only one link and doesn't have</font></tt><br><tt><font size="4">a &quot;real&quot; file on the brick so it unintended (and it's orphan file).</font></tt><br><br><tt><font size="4">The result of  # find .glusterfs/ -type f -links 1 is empty ...</font></tt><br><br><tt><font size="4">&gt; I am not sure what for you want to restart the replace-brick command?</font></tt><br><tt><font size="4">You wrote that status show: migration complete... So it's ok and do just</font></tt><br><tt><font size="4">commit (first ensure is everything is OK).</font></tt><br><br><tt><font size="4">Before commit the replace, i erased all files on the new node, thinking</font></tt><br><tt><font size="4">that's not ok... :(</font></tt><br><tt><font size="4">I thinked that add these 2 new bricks in the same volume with replica 4,</font></tt><br><tt><font size="4">and use self-heal to replicate all data... what you think ?</font></tt><br><br><tt><font size="4">Tks!</font></tt><br><br><tt><font size="4">2013/12/18 Mariusz Sobisiak &lt;</font></tt><a href="mailto:MSobisiak@ydp.pl"><tt><u><font size="4" color="#0000ff">MSobisiak@ydp.pl</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><br><tt><font size="4">&gt; &gt; I don't knew that can be a lot of trash (orphan) files in .glusterfs,</font></tt><br><tt><font size="4">&gt; so here what i do:</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; I think you can easily check by this command (on old gluster server):</font></tt><br><tt><font size="4">&gt; find .glusterfs/ -type f -links 1</font></tt><br><tt><font size="4">&gt; If something returns that means file have only one link and doesn't have</font></tt><br><tt><font size="4">&gt; a &quot;real&quot; file on the brick so it unintended (and it's orphan file).</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; &gt; # du -hs *</font></tt><br><tt><font size="4">&gt; &gt; 3.5G documents</font></tt><br><tt><font size="4">&gt; &gt; 341G home</font></tt><br><tt><font size="4">&gt; &gt; 58G archives</font></tt><br><tt><font size="4">&gt; &gt; 808G secure_folder</font></tt><br><tt><font size="4">&gt; &gt; 93G secure_folder2</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; So you have files on new gluster. I understood that you have just</font></tt><br><tt><font size="4">&gt; .glusterfs directory...</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; &gt; 1.3T .glusterfs/</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; It looks OK. It's not taking any space because it's hardlinks.</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; &gt; So, i have 1.3Tb in gluster!! So, i think that replace-brick worked</font></tt><br><tt><font size="4">&gt; correctly ... right ?</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; Probably yes.</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; &gt; So, how can i restart the replace-brick command again ?</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; I am not sure what for you want to restart the replace-brick command?</font></tt><br><tt><font size="4">&gt; You wrote that status show: migration complete... So it's ok and do just</font></tt><br><tt><font size="4">&gt; commit (first ensure is everything is OK).</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; If you're not sure if all files had copied maybe you can compare files</font></tt><br><tt><font size="4">&gt; on both nodes (old one and migrated) like this:</font></tt><br><tt><font size="4">&gt; find /where/the/brick/is/ -path &quot;*/.glusterfs/*&quot; -prune -o -name '*'</font></tt><br><tt><font size="4">&gt; -print|wc -l</font></tt><br><tt><font size="4">&gt; If the command return the same values that mean you have all files :D</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; But In my opinion everything looks okay (except that why so many files</font></tt><br><tt><font size="4">&gt; are orphaned on old glusterfs).</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; --</font></tt><br><tt><font size="4">&gt; Mariusz</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; _______________________________________________</font></tt><br><tt><font size="4">&gt; Gluster-users mailing list</font></tt><br><tt><font size="4">&gt; </font></tt><a href="mailto:Gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">Gluster-users@gluster.org</font></u></tt></a><br><tt><font size="4">&gt; </font></tt><a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users"><tt><u><font size="4" color="#0000ff">http://supercolony.gluster.org/mailman/listinfo/gluster-users</font></u></tt></a><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">-------------- next part --------------</font></tt><br><tt><font size="4">An HTML attachment was scrubbed...</font></tt><br><tt><font size="4">URL: &lt;</font></tt><a href="http://supercolony.gluster.org/pipermail/gluster-users/attachments/20131218/22c98a96/attachment-0001.html"><tt><u><font size="4" color="#0000ff">http://supercolony.gluster.org/pipermail/gluster-users/attachments/20131218/22c98a96/attachment-0001.html</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><br><tt><font size="4">------------------------------</font></tt><br><br><tt><font size="4">Message: 3</font></tt><br><tt><font size="4">Date: Wed, 18 Dec 2013 14:28:41 +0100</font></tt><br><tt><font size="4">From: &quot;Mariusz Sobisiak&quot; &lt;</font></tt><a href="mailto:MSobisiak@ydp.pl"><tt><u><font size="4" color="#0000ff">MSobisiak@ydp.pl</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">To: &lt;</font></tt><a href="mailto:gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">gluster-users@gluster.org</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Subject: Re: [Gluster-users] help with replace-brick migrate</font></tt><br><tt><font size="4">Message-ID:</font></tt><br><tt><font size="4">                &lt;507D8C234E515F4F969362F9666D7EBBED1D5A@nagato1.intranet.ydp&gt;</font></tt><br><tt><font size="4">Content-Type: text/plain;             charset=&quot;iso-8859-2&quot;</font></tt><br><br><tt><font size="4">&gt; The result of ?# find .glusterfs/ -type f -links 1 is empty ...?</font></tt><br><br><tt><font size="4">You run it on old gluster (where is 2TB)? It may take a long time. So in fact it very strange. </font></tt><br><tt><font size="4">You can use that other find command to compare amount of data.</font></tt><br><br><tt><font size="4">&gt; I thinked that add these 2 new bricks in the same volume with replica 4, and use self-heal to replicate all data... what you think ?</font></tt><br><br><tt><font size="4">You can abort replace-brick. And do it again. I thought you want migrate data to another server, now you want expand volume? Of course if you want just only expand you can use add-brick command.</font></tt><br><br><tt><font size="4">--</font></tt><br><tt><font size="4">Mariusz</font></tt><br><br><br><tt><font size="4">------------------------------</font></tt><br><br><tt><font size="4">Message: 4</font></tt><br><tt><font size="4">Date: Wed, 18 Dec 2013 15:38:39 +0100</font></tt><br><tt><font size="4">From: Sa?a Friedrich &lt;</font></tt><a href="mailto:sasa.friedrich@bitlab.si"><tt><u><font size="4" color="#0000ff">sasa.friedrich@bitlab.si</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">To: </font></tt><a href="mailto:gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">gluster-users@gluster.org</font></u></tt></a><br><tt><font size="4">Subject: [Gluster-users] Problem adding brick (replica)</font></tt><br><tt><font size="4">Message-ID: &lt;</font></tt><a href="mailto:52B1B36F.1020704@bitlab.si"><tt><u><font size="4" color="#0000ff">52B1B36F.1020704@bitlab.si</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Content-Type: text/plain; charset=&quot;windows-1252&quot;; Format=&quot;flowed&quot;</font></tt><br><br><tt><font size="4">Hi!</font></tt><br><br><tt><font size="4">I have some trouble adding a brick to existing gluster volume.</font></tt><br><br><tt><font size="4">When I try to (in CLI):</font></tt><br><br><tt><font size="4">   gluster&gt; volume add-brick data_domain replica 3</font></tt><br><tt><font size="4">   gluster2.data:/glusterfs/data_domain</font></tt><br><br><tt><font size="4">I get:</font></tt><br><br><tt><font size="4">   volume add-brick: failed:</font></tt><br><br><tt><font size="4">I probed the peer successfully, peer status returns:</font></tt><br><br><tt><font size="4">   Hostname: gluster3.data</font></tt><br><tt><font size="4">   Uuid: e694f552-636a-4cf3-a04f-997ec87a880c</font></tt><br><tt><font size="4">   State: Peer in Cluster (Connected)</font></tt><br><br><tt><font size="4">   Hostname: gluster2.data</font></tt><br><tt><font size="4">   Port: 24007</font></tt><br><tt><font size="4">   Uuid: 36922d4c-55f2-4cc6-85b9-a9541e5619a2</font></tt><br><tt><font size="4">   State: Peer in Cluster (Connected)</font></tt><br><br><tt><font size="4">Existing volume info:</font></tt><br><br><tt><font size="4">   Volume Name: data_domain</font></tt><br><tt><font size="4">   Type: Replicate</font></tt><br><tt><font size="4">   Volume ID: ae096e7d-cf0c-46ed-863a-9ecc3e8ce288</font></tt><br><tt><font size="4">   Status: Started</font></tt><br><tt><font size="4">   Number of Bricks: 1 x 2 = 2</font></tt><br><tt><font size="4">   Transport-type: tcp</font></tt><br><tt><font size="4">   Bricks:</font></tt><br><tt><font size="4">   Brick1: gluster1.data:/glusterfs/data_domain</font></tt><br><tt><font size="4">   Brick2: gluster3.data:/glusterfs/data_domain</font></tt><br><tt><font size="4">   Options Reconfigured:</font></tt><br><tt><font size="4">   storage.owner-gid: 36</font></tt><br><tt><font size="4">   storage.owner-uid: 36</font></tt><br><tt><font size="4">   server.allow-insecure: on</font></tt><br><tt><font size="4">   network.remote-dio: enable</font></tt><br><tt><font size="4">   cluster.eager-lock: enable</font></tt><br><tt><font size="4">   performance.stat-prefetch: off</font></tt><br><tt><font size="4">   performance.io-cache: off</font></tt><br><tt><font size="4">   performance.read-ahead: off</font></tt><br><tt><font size="4">   performance.quick-read: off</font></tt><br><br><br><tt><font size="4">Only thing I found in log is:</font></tt><br><br><tt><font size="4">   (/var/log/glusterfs/cli.log)</font></tt><br><tt><font size="4">   [2013-12-18 12:09:17.281310] W [cli-rl.c:106:cli_rl_process_line]</font></tt><br><tt><font size="4">   0-glusterfs: failed to process line</font></tt><br><tt><font size="4">   [2013-12-18 12:10:07.650267] I</font></tt><br><tt><font size="4">   [cli-rpc-ops.c:332:gf_cli_list_friends_cbk] 0-cli: Received resp to</font></tt><br><tt><font size="4">   list: 0</font></tt><br><br><tt><font size="4">   (/var/log/glusterfs/etc-glusterfs-glusterd.vol.log)</font></tt><br><tt><font size="4">   [2013-12-18 12:12:38.887911] I</font></tt><br><tt><font size="4">   [glusterd-brick-ops.c:370:__glusterd_handle_add_brick] 0-management:</font></tt><br><tt><font size="4">   Received add brick req</font></tt><br><tt><font size="4">   [2013-12-18 12:12:38.888064] I</font></tt><br><tt><font size="4">   [glusterd-brick-ops.c:417:__glusterd_handle_add_brick] 0-management:</font></tt><br><tt><font size="4">   replica-count is 3</font></tt><br><tt><font size="4">   [2013-12-18 12:12:38.888124] I</font></tt><br><tt><font size="4">   [glusterd-brick-ops.c:256:gd_addbr_validate_replica_count]</font></tt><br><tt><font size="4">   0-management: Changing the replica count of volume data_domain from</font></tt><br><tt><font size="4">   2 to 3</font></tt><br><br><br><tt><font size="4">I'm running some VM-s on this volume so I'd really like to avoid </font></tt><br><tt><font size="4">restarting glusterd service.</font></tt><br><tt><font size="4">OS is FC19, kernel 3.11.10-200.fc19.x86_64, glusterfs.x86_64 3.4.1-1.fc19</font></tt><br><br><br><tt><font size="4">tnx for help!</font></tt><br><tt><font size="4">-------------- next part --------------</font></tt><br><tt><font size="4">An HTML attachment was scrubbed...</font></tt><br><tt><font size="4">URL: &lt;</font></tt><a href="http://supercolony.gluster.org/pipermail/gluster-users/attachments/20131218/4b36895e/attachment-0001.html"><tt><u><font size="4" color="#0000ff">http://supercolony.gluster.org/pipermail/gluster-users/attachments/20131218/4b36895e/attachment-0001.html</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><br><tt><font size="4">------------------------------</font></tt><br><br><tt><font size="4">Message: 5</font></tt><br><tt><font size="4">Date: Wed, 18 Dec 2013 16:11:38 +0100</font></tt><br><tt><font size="4">From: Pieter Baele &lt;</font></tt><a href="mailto:pieter.baele@gmail.com"><tt><u><font size="4" color="#0000ff">pieter.baele@gmail.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">To: </font></tt><a href="mailto:gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">gluster-users@gluster.org</font></u></tt></a><br><tt><font size="4">Subject: [Gluster-users] Shared storage for critical infrastructure</font></tt><br><tt><font size="4">Message-ID:</font></tt><br><tt><font size="4">                &lt;</font></tt><a href="mailto:CADDXySqPg2jkrS4LX2sCC7uPQZ_eKF2JX60OepLFOOnRVJCiDA@mail.gmail.com"><tt><u><font size="4" color="#0000ff">CADDXySqPg2jkrS4LX2sCC7uPQZ_eKF2JX60OepLFOOnRVJCiDA@mail.gmail.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Content-Type: text/plain; charset=&quot;iso-8859-1&quot;</font></tt><br><br><tt><font size="4">Hello,</font></tt><br><br><tt><font size="4">Some critical infrastructure needs a file share for messaging.</font></tt><br><tt><font size="4">Can gluster (RH Storage) be used for HA purposes?</font></tt><br><br><tt><font size="4">I was also considering GlusterFS, but I need to be sure that it is</font></tt><br><tt><font size="4">compatible - and handles well -</font></tt><br><tt><font size="4">the requirements from the software vendor:</font></tt><br><br><tt><font size="4">- Write Order</font></tt><br><tt><font size="4">- Synchronous Write persistence</font></tt><br><tt><font size="4">- Distributed File Locking</font></tt><br><tt><font size="4">- Unique Write Ownership</font></tt><br><br><tt><font size="4">Sincerely,</font></tt><br><tt><font size="4">PieterB</font></tt><br><tt><font size="4">-------------- next part --------------</font></tt><br><tt><font size="4">An HTML attachment was scrubbed...</font></tt><br><tt><font size="4">URL: &lt;</font></tt><a href="http://supercolony.gluster.org/pipermail/gluster-users/attachments/20131218/4cd25064/attachment-0001.html"><tt><u><font size="4" color="#0000ff">http://supercolony.gluster.org/pipermail/gluster-users/attachments/20131218/4cd25064/attachment-0001.html</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><br><tt><font size="4">------------------------------</font></tt><br><br><tt><font size="4">Message: 6</font></tt><br><tt><font size="4">Date: Wed, 18 Dec 2013 09:23:43 -0600</font></tt><br><tt><font size="4">From: Kelly Burkhart &lt;</font></tt><a href="mailto:kelly.burkhart@gmail.com"><tt><u><font size="4" color="#0000ff">kelly.burkhart@gmail.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">To: </font></tt><a href="mailto:gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">gluster-users@gluster.org</font></u></tt></a><br><tt><font size="4">Subject: [Gluster-users] Debugging gfapi</font></tt><br><tt><font size="4">Message-ID:</font></tt><br><tt><font size="4">                &lt;</font></tt><a href="mailto:CAND8VyCSM%2BE3ecRv1m8CUJc8vcTp_cdCvDfn3ETmsy83p23xEw@mail.gmail.com"><tt><u><font size="4" color="#0000ff">CAND8VyCSM+E3ecRv1m8CUJc8vcTp_cdCvDfn3ETmsy83p23xEw@mail.gmail.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Content-Type: text/plain; charset=&quot;iso-8859-1&quot;</font></tt><br><br><tt><font size="4">Is there some trick I need to do to use gdb on libgfapi?  I configured</font></tt><br><tt><font size="4">gluster like this:</font></tt><br><br><tt><font size="4">./configure --disable-ibverbs --enable-debug</font></tt><br><br><tt><font size="4">And also tried this:</font></tt><br><br><tt><font size="4">CFLAGS=-g CPPFLAGS=-g LDFLAGS=-g ./configure --disable-ibverbs</font></tt><br><tt><font size="4">--enable-debug</font></tt><br><br><tt><font size="4">I can't step into calls like glfs_new, the debugger skips over the call.</font></tt><br><tt><font size="4">Is there some magic that makes gdb think that gfapi is not debuggable?</font></tt><br><br><tt><font size="4">-K</font></tt><br><tt><font size="4">-------------- next part --------------</font></tt><br><tt><font size="4">An HTML attachment was scrubbed...</font></tt><br><tt><font size="4">URL: &lt;</font></tt><a href="http://supercolony.gluster.org/pipermail/gluster-users/attachments/20131218/5ea2b239/attachment-0001.html"><tt><u><font size="4" color="#0000ff">http://supercolony.gluster.org/pipermail/gluster-users/attachments/20131218/5ea2b239/attachment-0001.html</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><br><tt><font size="4">------------------------------</font></tt><br><br><tt><font size="4">Message: 7</font></tt><br><tt><font size="4">Date: Wed, 18 Dec 2013 11:11:40 -0500 (EST)</font></tt><br><tt><font size="4">From: Kaleb Keithley &lt;</font></tt><a href="mailto:kkeithle@redhat.com"><tt><u><font size="4" color="#0000ff">kkeithle@redhat.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">To: </font></tt><a href="mailto:gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">gluster-users@gluster.org</font></u></tt></a><tt><font size="4">, </font></tt><a href="mailto:gluster-devel@nongnu.org"><tt><u><font size="4" color="#0000ff">gluster-devel@nongnu.org</font></u></tt></a><br><tt><font size="4">Subject: Re: [Gluster-users] [Gluster-devel] glusterfs-3.4.2qa4</font></tt><br><tt><font size="4">                released</font></tt><br><tt><font size="4">Message-ID:</font></tt><br><tt><font size="4">                &lt;</font></tt><a href="mailto:2119012122.44202998.1387383100132.JavaMail.root@redhat.com"><tt><u><font size="4" color="#0000ff">2119012122.44202998.1387383100132.JavaMail.root@redhat.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Content-Type: text/plain; charset=utf-8</font></tt><br><br><br><tt><font size="4">YUM repos for EPEL (5 &amp; 6) and Fedora (18, 19, 20) are at </font></tt><a href="http://download.gluster.org/pub/gluster/glusterfs/qa-releases/3.4.2qa4/"><tt><u><font size="4" color="#0000ff">http://download.gluster.org/pub/gluster/glusterfs/qa-releases/3.4.2qa4/</font></u></tt></a><br><br><br><tt><font size="4">----- Original Message -----</font></tt><br><tt><font size="4">From: &quot;Gluster Build System&quot; &lt;</font></tt><a href="mailto:jenkins@build.gluster.org"><tt><u><font size="4" color="#0000ff">jenkins@build.gluster.org</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">To: </font></tt><a href="mailto:gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">gluster-users@gluster.org</font></u></tt></a><tt><font size="4">, </font></tt><a href="mailto:gluster-devel@nongnu.org"><tt><u><font size="4" color="#0000ff">gluster-devel@nongnu.org</font></u></tt></a><br><tt><font size="4">Sent: Monday, December 16, 2013 11:53:40 PM</font></tt><br><tt><font size="4">Subject: [Gluster-devel] glusterfs-3.4.2qa4 released</font></tt><br><br><br><tt><font size="4">RPM: </font></tt><a href="http://bits.gluster.org/pub/gluster/glusterfs/3.4.2qa4/"><tt><u><font size="4" color="#0000ff">http://bits.gluster.org/pub/gluster/glusterfs/3.4.2qa4/</font></u></tt></a><br><br><tt><font size="4">SRC: </font></tt><a href="http://bits.gluster.org/pub/gluster/glusterfs/src/glusterfs-3.4.2qa4.tar.gz"><tt><u><font size="4" color="#0000ff">http://bits.gluster.org/pub/gluster/glusterfs/src/glusterfs-3.4.2qa4.tar.gz</font></u></tt></a><br><br><tt><font size="4">This release is made off jenkins-release-53</font></tt><br><br><tt><font size="4">-- Gluster Build System</font></tt><br><br><tt><font size="4">_______________________________________________</font></tt><br><tt><font size="4">Gluster-devel mailing list</font></tt><br><a href="mailto:Gluster-devel@nongnu.org"><tt><u><font size="4" color="#0000ff">Gluster-devel@nongnu.org</font></u></tt></a><br><a href="https://lists.nongnu.org/mailman/listinfo/gluster-devel"><tt><u><font size="4" color="#0000ff">https://lists.nongnu.org/mailman/listinfo/gluster-devel</font></u></tt></a><br><br><br><tt><font size="4">------------------------------</font></tt><br><br><tt><font size="4">Message: 8</font></tt><br><tt><font size="4">Date: Wed, 18 Dec 2013 11:36:10 -0500 (EST)</font></tt><br><tt><font size="4">From: Vijay Bellur &lt;</font></tt><a href="mailto:vbellur@redhat.com"><tt><u><font size="4" color="#0000ff">vbellur@redhat.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">To: </font></tt><a href="mailto:gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">gluster-users@gluster.org</font></u></tt></a><tt><font size="4">, </font></tt><a href="mailto:gluster-devel@nongnu.org"><tt><u><font size="4" color="#0000ff">gluster-devel@nongnu.org</font></u></tt></a><br><tt><font size="4">Subject: [Gluster-users] Cancelled: Gluster Community Weekly Meeting</font></tt><br><tt><font size="4">Message-ID:</font></tt><br><tt><font size="4">                &lt;</font></tt><a href="mailto:1076006422.19710808.1387384570071.JavaMail.root@redhat.com"><tt><u><font size="4" color="#0000ff">1076006422.19710808.1387384570071.JavaMail.root@redhat.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Content-Type: text/plain; charset=&quot;utf-8&quot;</font></tt><br><br><tt><font size="4">A single instance of the following meeting has been cancelled:</font></tt><br><br><tt><font size="4">Subject: Gluster Community Weekly Meeting </font></tt><br><tt><font size="4">Organizer: &quot;Vijay Bellur&quot; &lt;</font></tt><a href="mailto:vbellur@redhat.com"><tt><u><font size="4" color="#0000ff">vbellur@redhat.com</font></u></tt></a><tt><font size="4">&gt; </font></tt><br><br><tt><font size="4">Location: #gluster-meeting on </font></tt><a href="http://irc.freenode.net"><tt><u><font size="4" color="#0000ff">irc.freenode.net</font></u></tt></a><tt><font size="4">&nbsp;</font></tt><br><tt><font size="4">Time: Wednesday, December 25, 2013, 8:30:00 PM - 9:30:00 PM GMT +05:30 Chennai, Kolkata, Mumbai, New Delhi</font></tt><br><br><tt><font size="4">Invitees: </font></tt><a href="mailto:gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">gluster-users@gluster.org</font></u></tt></a><tt><font size="4">; </font></tt><a href="mailto:gluster-devel@nongnu.org"><tt><u><font size="4" color="#0000ff">gluster-devel@nongnu.org</font></u></tt></a><tt><font size="4">; </font></tt><a href="mailto:Christian.Heggland@nov.com"><tt><u><font size="4" color="#0000ff">Christian.Heggland@nov.com</font></u></tt></a><tt><font size="4">; </font></tt><a href="mailto:vmallika@redhat.com"><tt><u><font size="4" color="#0000ff">vmallika@redhat.com</font></u></tt></a><tt><font size="4">; </font></tt><a href="mailto:bobby.jacob@alshaya.com"><tt><u><font size="4" color="#0000ff">bobby.jacob@alshaya.com</font></u></tt></a><tt><font size="4">; </font></tt><a href="mailto:kevin.stevenard@alcatel-lucent.com"><tt><u><font size="4" color="#0000ff">kevin.stevenard@alcatel-lucent.com</font></u></tt></a><tt><font size="4">; </font></tt><a href="mailto:radek.dymacz@databarracks.com"><tt><u><font size="4" color="#0000ff">radek.dymacz@databarracks.com</font></u></tt></a><tt><font size="4">; </font></tt><a href="mailto:pportant@redhat.com"><tt><u><font size="4" color="#0000ff">pportant@redhat.com</font></u></tt></a><tt><font size="4">; </font></tt><a href="mailto:ryade@mcs.anl.gov"><tt><u><font size="4" color="#0000ff">ryade@mcs.anl.gov</font></u></tt></a><tt><font size="4">; </font></tt><a href="mailto:roger@dutchmillerauto.com"><tt><u><font size="4" color="#0000ff">roger@dutchmillerauto.com</font></u></tt></a><tt><font size="4">; </font></tt><a href="mailto:Thomas.Seitner@gugler.at"><tt><u><font size="4" color="#0000ff">Thomas.Seitner@gugler.at</font></u></tt></a><tt><font size="4">&nbsp;</font></tt><tt><font size="4">... </font></tt><br><br><br><tt><font size="4">*~*~*~*~*~*~*~*~*~*</font></tt><br><br><tt><font size="4">Cancelling this instance due to the holiday season.</font></tt><br><tt><font size="4">-------------- next part --------------</font></tt><br><tt><font size="4">A non-text attachment was scrubbed...</font></tt><br><tt><font size="4">Name: meeting.ics</font></tt><br><tt><font size="4">Type: text/calendar</font></tt><br><tt><font size="4">Size: 3392 bytes</font></tt><br><tt><font size="4">Desc: not available</font></tt><br><tt><font size="4">URL: &lt;</font></tt><a href="http://supercolony.gluster.org/pipermail/gluster-users/attachments/20131218/dbf372c9/attachment-0001.ics"><tt><u><font size="4" color="#0000ff">http://supercolony.gluster.org/pipermail/gluster-users/attachments/20131218/dbf372c9/attachment-0001.ics</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><br><tt><font size="4">------------------------------</font></tt><br><br><tt><font size="4">Message: 9</font></tt><br><tt><font size="4">Date: Wed, 18 Dec 2013 11:37:05 -0500 (EST)</font></tt><br><tt><font size="4">From: Vijay Bellur &lt;</font></tt><a href="mailto:vbellur@redhat.com"><tt><u><font size="4" color="#0000ff">vbellur@redhat.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">To: </font></tt><a href="mailto:gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">gluster-users@gluster.org</font></u></tt></a><tt><font size="4">, </font></tt><a href="mailto:gluster-devel@nongnu.org"><tt><u><font size="4" color="#0000ff">gluster-devel@nongnu.org</font></u></tt></a><br><tt><font size="4">Subject: [Gluster-users] Cancelled: Gluster Community Weekly Meeting</font></tt><br><tt><font size="4">Message-ID: &lt;</font></tt><a href="mailto:83718219.19711692.1387384625186.JavaMail.root@redhat.com"><tt><u><font size="4" color="#0000ff">83718219.19711692.1387384625186.JavaMail.root@redhat.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Content-Type: text/plain; charset=&quot;utf-8&quot;</font></tt><br><br><tt><font size="4">A single instance of the following meeting has been cancelled:</font></tt><br><br><tt><font size="4">Subject: Gluster Community Weekly Meeting </font></tt><br><tt><font size="4">Organizer: &quot;Vijay Bellur&quot; &lt;</font></tt><a href="mailto:vbellur@redhat.com"><tt><u><font size="4" color="#0000ff">vbellur@redhat.com</font></u></tt></a><tt><font size="4">&gt; </font></tt><br><br><tt><font size="4">Location: #gluster-meeting on </font></tt><a href="http://irc.freenode.net"><tt><u><font size="4" color="#0000ff">irc.freenode.net</font></u></tt></a><tt><font size="4">&nbsp;</font></tt><br><tt><font size="4">Time: Wednesday, January 1, 2014, 8:30:00 PM - 9:30:00 PM GMT +05:30 Chennai, Kolkata, Mumbai, New Delhi</font></tt><br><br><tt><font size="4">Invitees: </font></tt><a href="mailto:gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">gluster-users@gluster.org</font></u></tt></a><tt><font size="4">; </font></tt><a href="mailto:gluster-devel@nongnu.org"><tt><u><font size="4" color="#0000ff">gluster-devel@nongnu.org</font></u></tt></a><tt><font size="4">; </font></tt><a href="mailto:Christian.Heggland@nov.com"><tt><u><font size="4" color="#0000ff">Christian.Heggland@nov.com</font></u></tt></a><tt><font size="4">; </font></tt><a href="mailto:vmallika@redhat.com"><tt><u><font size="4" color="#0000ff">vmallika@redhat.com</font></u></tt></a><tt><font size="4">; </font></tt><a href="mailto:bobby.jacob@alshaya.com"><tt><u><font size="4" color="#0000ff">bobby.jacob@alshaya.com</font></u></tt></a><tt><font size="4">; </font></tt><a href="mailto:kevin.stevenard@alcatel-lucent.com"><tt><u><font size="4" color="#0000ff">kevin.stevenard@alcatel-lucent.com</font></u></tt></a><tt><font size="4">; </font></tt><a href="mailto:radek.dymacz@databarracks.com"><tt><u><font size="4" color="#0000ff">radek.dymacz@databarracks.com</font></u></tt></a><tt><font size="4">; </font></tt><a href="mailto:pportant@redhat.com"><tt><u><font size="4" color="#0000ff">pportant@redhat.com</font></u></tt></a><tt><font size="4">; </font></tt><a href="mailto:ryade@mcs.anl.gov"><tt><u><font size="4" color="#0000ff">ryade@mcs.anl.gov</font></u></tt></a><tt><font size="4">; </font></tt><a href="mailto:roger@dutchmillerauto.com"><tt><u><font size="4" color="#0000ff">roger@dutchmillerauto.com</font></u></tt></a><tt><font size="4">; </font></tt><a href="mailto:Thomas.Seitner@gugler.at"><tt><u><font size="4" color="#0000ff">Thomas.Seitner@gugler.at</font></u></tt></a><tt><font size="4">&nbsp;</font></tt><tt><font size="4">... </font></tt><br><br><br><tt><font size="4">*~*~*~*~*~*~*~*~*~*</font></tt><br><br><tt><font size="4">Cancelling this instance due to the holiday season.</font></tt><br><tt><font size="4">-------------- next part --------------</font></tt><br><tt><font size="4">A non-text attachment was scrubbed...</font></tt><br><tt><font size="4">Name: meeting.ics</font></tt><br><tt><font size="4">Type: text/calendar</font></tt><br><tt><font size="4">Size: 3390 bytes</font></tt><br><tt><font size="4">Desc: not available</font></tt><br><tt><font size="4">URL: &lt;</font></tt><a href="http://supercolony.gluster.org/pipermail/gluster-users/attachments/20131218/b3557b59/attachment-0001.ics"><tt><u><font size="4" color="#0000ff">http://supercolony.gluster.org/pipermail/gluster-users/attachments/20131218/b3557b59/attachment-0001.ics</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><br><tt><font size="4">------------------------------</font></tt><br><br><tt><font size="4">Message: 10</font></tt><br><tt><font size="4">Date: Wed, 18 Dec 2013 23:15:44 +0530</font></tt><br><tt><font size="4">From: Vijay Bellur &lt;</font></tt><a href="mailto:vbellur@redhat.com"><tt><u><font size="4" color="#0000ff">vbellur@redhat.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">To: &quot;'</font></tt><a href="mailto:gluster-devel@nongnu.org"><tt><u><font size="4" color="#0000ff">gluster-devel@nongnu.org</font></u></tt></a><tt><font size="4">'&quot; &lt;</font></tt><a href="mailto:gluster-devel@nongnu.org"><tt><u><font size="4" color="#0000ff">gluster-devel@nongnu.org</font></u></tt></a><tt><font size="4">&gt;,</font></tt><br><tt><font size="4">                gluster-users Discussion List &lt;</font></tt><a href="mailto:Gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">Gluster-users@gluster.org</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Subject: [Gluster-users] Gluster Community Weekly Meeting Minutes --</font></tt><br><tt><font size="4">                2013-12-18</font></tt><br><tt><font size="4">Message-ID: &lt;</font></tt><a href="mailto:52B1DF48.60104@redhat.com"><tt><u><font size="4" color="#0000ff">52B1DF48.60104@redhat.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Content-Type: text/plain; charset=ISO-8859-1; format=flowed</font></tt><br><br><tt><font size="4">Meeting minutes available at:</font></tt><br><br><a href="http://meetbot.fedoraproject.org/gluster-meeting/2013-12-18/gluster-meeting.2013-12-18-15.00.html"><tt><u><font size="4" color="#0000ff">http://meetbot.fedoraproject.org/gluster-meeting/2013-12-18/gluster-meeting.2013-12-18-15.00.html</font></u></tt></a><br><br><tt><font size="4">-Vijay</font></tt><br><br><br><tt><font size="4">------------------------------</font></tt><br><br><tt><font size="4">Message: 11</font></tt><br><tt><font size="4">Date: Wed, 18 Dec 2013 23:17:02 +0530</font></tt><br><tt><font size="4">From: Vijay Bellur &lt;</font></tt><a href="mailto:vbellur@redhat.com"><tt><u><font size="4" color="#0000ff">vbellur@redhat.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">To: Luk?? Bezdi?ka &lt;</font></tt><a href="mailto:lukas.bezdicka@gooddata.com"><tt><u><font size="4" color="#0000ff">lukas.bezdicka@gooddata.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Cc: &quot;</font></tt><a href="mailto:gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">gluster-users@gluster.org</font></u></tt></a><tt><font size="4">&quot; &lt;</font></tt><a href="mailto:gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">gluster-users@gluster.org</font></u></tt></a><tt><font size="4">&gt;, Gluster</font></tt><br><tt><font size="4">                Devel &lt;</font></tt><a href="mailto:gluster-devel@nongnu.org"><tt><u><font size="4" color="#0000ff">gluster-devel@nongnu.org</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Subject: Re: [Gluster-users] glusterfs-3.4.2qa4 released</font></tt><br><tt><font size="4">Message-ID: &lt;</font></tt><a href="mailto:52B1DF96.7060809@redhat.com"><tt><u><font size="4" color="#0000ff">52B1DF96.7060809@redhat.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Content-Type: text/plain; charset=UTF-8; format=flowed</font></tt><br><br><tt><font size="4">On 12/17/2013 09:27 PM, Luk?? Bezdi?ka wrote:</font></tt><br><tt><font size="4">&gt; Quite high memory usage for nfs daemon which we don't use at all.</font></tt><br><tt><font size="4">&gt; USER       PID %CPU %MEM    VSZ   RSS TTY      STAT START   TIME COMMAND</font></tt><br><tt><font size="4">&gt; root     23246  0.0  1.9 485524 313116 ?   Ssl  15:43   0:00</font></tt><br><tt><font size="4">&gt; /usr/sbin/glusterfs -s localhost --volfile-id gluster/nfs -p</font></tt><br><tt><font size="4">&gt; /var/lib/glusterd/nfs/run/nfs.pid -l /var/log/glusterfs/nfs.log -S</font></tt><br><tt><font size="4">&gt; /var/run/a90b5253b325435599e00f1a6534b95c.socket</font></tt><br><tt><font size="4">&gt;</font></tt><br><br><tt><font size="4">Can you please check if setting volume option nfs.drc to off brings down </font></tt><br><tt><font size="4">the memory usage?</font></tt><br><br><tt><font size="4">Thanks,</font></tt><br><tt><font size="4">Vijay</font></tt><br><br><br><br><tt><font size="4">------------------------------</font></tt><br><br><tt><font size="4">Message: 12</font></tt><br><tt><font size="4">Date: Wed, 18 Dec 2013 12:54:55 -0500</font></tt><br><tt><font size="4">From: Jeff Darcy &lt;</font></tt><a href="mailto:jdarcy@redhat.com"><tt><u><font size="4" color="#0000ff">jdarcy@redhat.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">To: Kelly Burkhart &lt;</font></tt><a href="mailto:kelly.burkhart@gmail.com"><tt><u><font size="4" color="#0000ff">kelly.burkhart@gmail.com</font></u></tt></a><tt><font size="4">&gt;,</font></tt><br><tt><font size="4">                </font></tt><a href="mailto:gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">gluster-users@gluster.org</font></u></tt></a><br><tt><font size="4">Subject: Re: [Gluster-users] Debugging gfapi</font></tt><br><tt><font size="4">Message-ID: &lt;</font></tt><a href="mailto:52B1E16F.2030803@redhat.com"><tt><u><font size="4" color="#0000ff">52B1E16F.2030803@redhat.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Content-Type: text/plain; charset=ISO-8859-1; format=flowed</font></tt><br><br><tt><font size="4">On 12/18/2013 10:23 AM, Kelly Burkhart wrote:</font></tt><br><tt><font size="4">&gt; Is there some trick I need to do to use gdb on libgfapi?  I</font></tt><br><tt><font size="4">&gt; configured gluster like this:</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; ./configure --disable-ibverbs --enable-debug</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; And also tried this:</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; CFLAGS=-g CPPFLAGS=-g LDFLAGS=-g ./configure --disable-ibverbs</font></tt><br><tt><font size="4">&gt; --enable-debug</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; I can't step into calls like glfs_new, the debugger skips over the</font></tt><br><tt><font size="4">&gt; call.  Is there some magic that makes gdb think that gfapi is not</font></tt><br><tt><font size="4">&gt; debuggable?</font></tt><br><br><tt><font size="4">The formula for getting GlusterFS to build with the proper flags seems</font></tt><br><tt><font size="4">to change frequently.  If you look at </font></tt><a href="http://configure.ac"><tt><u><font size="4" color="#0000ff">configure.ac</font></u></tt></a><tt><font size="4">&nbsp;</font></tt><tt><font size="4">the current magic</font></tt><br><tt><font size="4">seems to be:</font></tt><br><br><tt><font size="4">                export enable_debug=yes</font></tt><br><tt><font size="4">                configure/rpmbuild/whatever</font></tt><br><br><tt><font size="4">That's what I do for my own build, and I'm generally able to step</font></tt><br><tt><font size="4">through anything in a translator.  I haven't tried with gfapi, but it</font></tt><br><tt><font size="4">should be the same because it's also a library.  Executables are a</font></tt><br><tt><font size="4">different matter because they're explicitly stripped during the build</font></tt><br><tt><font size="4">process.</font></tt><br><br><br><br><tt><font size="4">------------------------------</font></tt><br><br><tt><font size="4">Message: 13</font></tt><br><tt><font size="4">Date: Wed, 18 Dec 2013 11:19:24 -0700</font></tt><br><tt><font size="4">From: Knut Moe &lt;</font></tt><a href="mailto:kmoe66@gmail.com"><tt><u><font size="4" color="#0000ff">kmoe66@gmail.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">To: </font></tt><a href="mailto:gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">gluster-users@gluster.org</font></u></tt></a><br><tt><font size="4">Subject: [Gluster-users] Trying to start glusterd</font></tt><br><tt><font size="4">Message-ID:</font></tt><br><tt><font size="4">                &lt;CADXLLPhgNiA1P=</font></tt><a href="mailto:LOULw06X0b-7gbqi7r2NXaGt20WPevhDmh4A@mail.gmail.com"><tt><u><font size="4" color="#0000ff">LOULw06X0b-7gbqi7r2NXaGt20WPevhDmh4A@mail.gmail.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Content-Type: text/plain; charset=&quot;iso-8859-1&quot;</font></tt><br><br><tt><font size="4">I have two Ubuntu servers set up, downloaded GlusterFS 3.4 and by all</font></tt><br><tt><font size="4">accounts it seems to have installed properly using the apt-get install</font></tt><br><tt><font size="4">command.</font></tt><br><br><tt><font size="4">However, when I issue a glusterd start or glusterd status command I am</font></tt><br><tt><font size="4">getting the following error:</font></tt><br><br><tt><font size="4">ERROR: failed to create log file (/var/log/glusterfs/start.log) (Permission</font></tt><br><tt><font size="4">denied).</font></tt><br><br><tt><font size="4">Is there a way to determine if gluster is installed properly and also</font></tt><br><tt><font size="4">troubleshoot the above?</font></tt><br><br><tt><font size="4">If I issue sudo glusterd start or sudo glusterd status I am returned to the</font></tt><br><tt><font size="4">prompt with no additional info.</font></tt><br><br><tt><font size="4">Thx.</font></tt><br><tt><font size="4">-------------- next part --------------</font></tt><br><tt><font size="4">An HTML attachment was scrubbed...</font></tt><br><tt><font size="4">URL: &lt;</font></tt><a href="http://supercolony.gluster.org/pipermail/gluster-users/attachments/20131218/933d17a0/attachment-0001.html"><tt><u><font size="4" color="#0000ff">http://supercolony.gluster.org/pipermail/gluster-users/attachments/20131218/933d17a0/attachment-0001.html</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><br><tt><font size="4">------------------------------</font></tt><br><br><tt><font size="4">Message: 14</font></tt><br><tt><font size="4">Date: Wed, 18 Dec 2013 13:43:34 -0600</font></tt><br><tt><font size="4">From: Kelly Burkhart &lt;</font></tt><a href="mailto:kelly.burkhart@gmail.com"><tt><u><font size="4" color="#0000ff">kelly.burkhart@gmail.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">To: </font></tt><a href="mailto:gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">gluster-users@gluster.org</font></u></tt></a><br><tt><font size="4">Subject: [Gluster-users] gfapi from non-root</font></tt><br><tt><font size="4">Message-ID:</font></tt><br><tt><font size="4">                &lt;CAND8VyCuidxwU7whEYfkG1th-ejtM2oLsM8usDWgK0w=</font></tt><a href="mailto:fpvohA@mail.gmail.com"><tt><u><font size="4" color="#0000ff">fpvohA@mail.gmail.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Content-Type: text/plain; charset=&quot;iso-8859-1&quot;</font></tt><br><br><tt><font size="4">How does one run a gfapi app without being root?</font></tt><br><br><tt><font size="4">I've set server.allow-insecure on on the server side (and bounced all</font></tt><br><tt><font size="4">gluster processes).  Is there something else required?</font></tt><br><br><tt><font size="4">My test program just stats a file on the cluster volume.  It works as root</font></tt><br><tt><font size="4">and fails as a normal user.  Local log file shows a message about failing</font></tt><br><tt><font size="4">to bind a privileged port.</font></tt><br><br><tt><font size="4">-K</font></tt><br><tt><font size="4">-------------- next part --------------</font></tt><br><tt><font size="4">An HTML attachment was scrubbed...</font></tt><br><tt><font size="4">URL: &lt;</font></tt><a href="http://supercolony.gluster.org/pipermail/gluster-users/attachments/20131218/16f6e37c/attachment-0001.html"><tt><u><font size="4" color="#0000ff">http://supercolony.gluster.org/pipermail/gluster-users/attachments/20131218/16f6e37c/attachment-0001.html</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><br><tt><font size="4">------------------------------</font></tt><br><br><tt><font size="4">Message: 15</font></tt><br><tt><font size="4">Date: Thu, 19 Dec 2013 01:16:15 +0530</font></tt><br><tt><font size="4">From: Chalcogen &lt;</font></tt><a href="mailto:chalcogen_eg_oxygen@yahoo.com"><tt><u><font size="4" color="#0000ff">chalcogen_eg_oxygen@yahoo.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">To: </font></tt><a href="mailto:gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">gluster-users@gluster.org</font></u></tt></a><br><tt><font size="4">Subject: [Gluster-users] Passing noforget option to glusterfs native</font></tt><br><tt><font size="4">                client                 mounts</font></tt><br><tt><font size="4">Message-ID: &lt;</font></tt><a href="mailto:52B1FB87.8070002@yahoo.com"><tt><u><font size="4" color="#0000ff">52B1FB87.8070002@yahoo.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Content-Type: text/plain; charset=&quot;iso-8859-1&quot;; Format=&quot;flowed&quot;</font></tt><br><br><tt><font size="4">Hi everybody,</font></tt><br><br><tt><font size="4">A few months back I joined a project where people want to replace their </font></tt><br><tt><font size="4">legacy fuse-based (twin-server) replicated file-system with GlusterFS. </font></tt><br><tt><font size="4">They also have a high-availability NFS server code tagged with the </font></tt><br><tt><font size="4">kernel NFSD that they would wish to retain (the nfs-kernel-server, I </font></tt><br><tt><font size="4">mean). The reason they wish to retain the kernel NFS and not use the NFS </font></tt><br><tt><font size="4">server that comes with GlusterFS is mainly because there's this bit of </font></tt><br><tt><font size="4">code that allows NFS IP's to be migrated from one host server to the </font></tt><br><tt><font size="4">other in the case that one happens to go down, and tweaks on the export </font></tt><br><tt><font size="4">server configuration allow the file-handles to remain identical on the </font></tt><br><tt><font size="4">new host server.</font></tt><br><br><tt><font size="4">The solution was to mount gluster volumes using the mount.glusterfs </font></tt><br><tt><font size="4">native client program and then export the directories over the kernel </font></tt><br><tt><font size="4">NFS server. This seems to work most of the time, but on rare occasions, </font></tt><br><tt><font size="4">'stale file handle' is reported off certain clients, which really puts a </font></tt><br><tt><font size="4">damper over the 'high-availability' thing. After suitably instrumenting </font></tt><br><tt><font size="4">the nfsd/fuse code in the kernel, it seems that decoding of the </font></tt><br><tt><font size="4">file-handle fails on the server because the inode record corresponding </font></tt><br><tt><font size="4">to the nodeid in the handle cannot be looked up. Combining this with the </font></tt><br><tt><font size="4">fact that a second attempt by the client to execute lookup on the same </font></tt><br><tt><font size="4">file passes, one might suspect that the problem is identical to what </font></tt><br><tt><font size="4">many people attempting to export fuse mounts over the kernel's NFS </font></tt><br><tt><font size="4">server are facing; viz, fuse 'forgets' the inode records thereby causing </font></tt><br><tt><font size="4">ilookup5() to fail. Miklos and other fuse developers/hackers would point </font></tt><br><tt><font size="4">towards '-o noforget' while mounting their fuse file-systems.</font></tt><br><br><tt><font size="4">I tried passing  '-o noforget' to mount.glusterfs, but it does not seem </font></tt><br><tt><font size="4">to recognize it. Could somebody help me out with the correct syntax to </font></tt><br><tt><font size="4">pass noforget to gluster volumes? Or, something we could pass to </font></tt><br><tt><font size="4">glusterfs that would instruct fuse to allocate a bigger cache for our </font></tt><br><tt><font size="4">inodes?</font></tt><br><br><tt><font size="4">Additionally, should you think that something else might be behind our </font></tt><br><tt><font size="4">problems, please do let me know.</font></tt><br><br><tt><font size="4">Here's my configuration:</font></tt><br><br><tt><font size="4">Linux kernel version: 2.6.34.12</font></tt><br><tt><font size="4">GlusterFS versionn: 3.4.0</font></tt><br><tt><font size="4">nfs.disable option for volumes: OFF on all volumes</font></tt><br><br><tt><font size="4">Thanks a lot for your time!</font></tt><br><tt><font size="4">Anirban</font></tt><br><br><tt><font size="4">P.s. I found quite a few pages on the web that admonish users that </font></tt><br><tt><font size="4">GlusterFS is not compatible with the kernel NFS server, but do not </font></tt><br><tt><font size="4">really give much detail. Is this one of the reasons for saying so?</font></tt><br><tt><font size="4">-------------- next part --------------</font></tt><br><tt><font size="4">An HTML attachment was scrubbed...</font></tt><br><tt><font size="4">URL: &lt;</font></tt><a href="http://supercolony.gluster.org/pipermail/gluster-users/attachments/20131219/35365020/attachment-0001.html"><tt><u><font size="4" color="#0000ff">http://supercolony.gluster.org/pipermail/gluster-users/attachments/20131219/35365020/attachment-0001.html</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><br><tt><font size="4">------------------------------</font></tt><br><br><tt><font size="4">Message: 16</font></tt><br><tt><font size="4">Date: Thu, 19 Dec 2013 01:40:29 +0530</font></tt><br><tt><font size="4">From: Chalcogen &lt;</font></tt><a href="mailto:chalcogen_eg_oxygen@yahoo.com"><tt><u><font size="4" color="#0000ff">chalcogen_eg_oxygen@yahoo.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">To: </font></tt><a href="mailto:gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">gluster-users@gluster.org</font></u></tt></a><br><tt><font size="4">Subject: Re: [Gluster-users] Passing noforget option to glusterfs</font></tt><br><tt><font size="4">                native                 client mounts</font></tt><br><tt><font size="4">Message-ID: &lt;</font></tt><a href="mailto:52B20135.6030902@yahoo.com"><tt><u><font size="4" color="#0000ff">52B20135.6030902@yahoo.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Content-Type: text/plain; charset=&quot;iso-8859-1&quot;; Format=&quot;flowed&quot;</font></tt><br><br><tt><font size="4">P.s. I think I need to clarify this:</font></tt><br><br><tt><font size="4">I am only reading from the mounts, and not modifying anything on the </font></tt><br><tt><font size="4">server. and so the commonest causes on stale file handles do not appy.</font></tt><br><br><tt><font size="4">Anirban</font></tt><br><br><tt><font size="4">On Thursday 19 December 2013 01:16 AM, Chalcogen wrote:</font></tt><br><tt><font size="4">&gt; Hi everybody,</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; A few months back I joined a project where people want to replace </font></tt><br><tt><font size="4">&gt; their legacy fuse-based (twin-server) replicated file-system with </font></tt><br><tt><font size="4">&gt; GlusterFS. They also have a high-availability NFS server code tagged </font></tt><br><tt><font size="4">&gt; with the kernel NFSD that they would wish to retain (the </font></tt><br><tt><font size="4">&gt; nfs-kernel-server, I mean). The reason they wish to retain the kernel </font></tt><br><tt><font size="4">&gt; NFS and not use the NFS server that comes with GlusterFS is mainly </font></tt><br><tt><font size="4">&gt; because there's this bit of code that allows NFS IP's to be migrated </font></tt><br><tt><font size="4">&gt; from one host server to the other in the case that one happens to go </font></tt><br><tt><font size="4">&gt; down, and tweaks on the export server configuration allow the </font></tt><br><tt><font size="4">&gt; file-handles to remain identical on the new host server.</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; The solution was to mount gluster volumes using the mount.glusterfs </font></tt><br><tt><font size="4">&gt; native client program and then export the directories over the kernel </font></tt><br><tt><font size="4">&gt; NFS server. This seems to work most of the time, but on rare </font></tt><br><tt><font size="4">&gt; occasions, 'stale file handle' is reported off certain clients, which </font></tt><br><tt><font size="4">&gt; really puts a damper over the 'high-availability' thing. After </font></tt><br><tt><font size="4">&gt; suitably instrumenting the nfsd/fuse code in the kernel, it seems that </font></tt><br><tt><font size="4">&gt; decoding of the file-handle fails on the server because the inode </font></tt><br><tt><font size="4">&gt; record corresponding to the nodeid in the handle cannot be looked up. </font></tt><br><tt><font size="4">&gt; Combining this with the fact that a second attempt by the client to </font></tt><br><tt><font size="4">&gt; execute lookup on the same file passes, one might suspect that the </font></tt><br><tt><font size="4">&gt; problem is identical to what many people attempting to export fuse </font></tt><br><tt><font size="4">&gt; mounts over the kernel's NFS server are facing; viz, fuse 'forgets' </font></tt><br><tt><font size="4">&gt; the inode records thereby causing ilookup5() to fail. Miklos and other </font></tt><br><tt><font size="4">&gt; fuse developers/hackers would point towards '-o noforget' while </font></tt><br><tt><font size="4">&gt; mounting their fuse file-systems.</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; I tried passing  '-o noforget' to mount.glusterfs, but it does not </font></tt><br><tt><font size="4">&gt; seem to recognize it. Could somebody help me out with the correct </font></tt><br><tt><font size="4">&gt; syntax to pass noforget to gluster volumes? Or, something we could </font></tt><br><tt><font size="4">&gt; pass to glusterfs that would instruct fuse to allocate a bigger cache </font></tt><br><tt><font size="4">&gt; for our inodes?</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; Additionally, should you think that something else might be behind our </font></tt><br><tt><font size="4">&gt; problems, please do let me know.</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; Here's my configuration:</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; Linux kernel version: 2.6.34.12</font></tt><br><tt><font size="4">&gt; GlusterFS versionn: 3.4.0</font></tt><br><tt><font size="4">&gt; nfs.disable option for volumes: OFF on all volumes</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; Thanks a lot for your time!</font></tt><br><tt><font size="4">&gt; Anirban</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; P.s. I found quite a few pages on the web that admonish users that </font></tt><br><tt><font size="4">&gt; GlusterFS is not compatible with the kernel NFS server, but do not </font></tt><br><tt><font size="4">&gt; really give much detail. Is this one of the reasons for saying so?</font></tt><br><br><tt><font size="4">-------------- next part --------------</font></tt><br><tt><font size="4">An HTML attachment was scrubbed...</font></tt><br><tt><font size="4">URL: &lt;</font></tt><a href="http://supercolony.gluster.org/pipermail/gluster-users/attachments/20131219/f6b6b5bd/attachment-0001.html"><tt><u><font size="4" color="#0000ff">http://supercolony.gluster.org/pipermail/gluster-users/attachments/20131219/f6b6b5bd/attachment-0001.html</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><br><tt><font size="4">------------------------------</font></tt><br><br><tt><font size="4">Message: 17</font></tt><br><tt><font size="4">Date: Thu, 19 Dec 2013 04:27:19 +0800 (SGT)</font></tt><br><tt><font size="4">From: Anirban Ghoshal &lt;</font></tt><a href="mailto:chalcogen_eg_oxygen@yahoo.com"><tt><u><font size="4" color="#0000ff">chalcogen_eg_oxygen@yahoo.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">To: Sa?a Friedrich &lt;</font></tt><a href="mailto:sasa.friedrich@bitlab.si"><tt><u><font size="4" color="#0000ff">sasa.friedrich@bitlab.si</font></u></tt></a><tt><font size="4">&gt;,</font></tt><br><tt><font size="4">                &quot;</font></tt><a href="mailto:gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">gluster-users@gluster.org</font></u></tt></a><tt><font size="4">&quot; &lt;</font></tt><a href="mailto:gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">gluster-users@gluster.org</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Subject: Re: [Gluster-users] Problem adding brick (replica)</font></tt><br><tt><font size="4">Message-ID:</font></tt><br><tt><font size="4">                &lt;</font></tt><a href="mailto:1387398439.78214.YahooMailNeo@web193901.mail.sg3.yahoo.com"><tt><u><font size="4" color="#0000ff">1387398439.78214.YahooMailNeo@web193901.mail.sg3.yahoo.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Content-Type: text/plain; charset=&quot;utf-8&quot;</font></tt><br><br><tt><font size="4">Ok, I am not associated with, or part of the glusterFS development team in any way; I fact I only started using glusterfs since the past 3-4 months or so, but I have often observed that useful info might be found at &lt;log file dir&gt;/.cmd_history.log, which is, in your case,</font></tt><br><br><tt><font size="4">/var/log/glusterfs/.cmd_history.log</font></tt><br><br><br><br><br><tt><font size="4">On Wednesday, 18 December 2013 8:08 PM, Sa?a Friedrich &lt;</font></tt><a href="mailto:sasa.friedrich@bitlab.si"><tt><u><font size="4" color="#0000ff">sasa.friedrich@bitlab.si</font></u></tt></a><tt><font size="4">&gt; wrote:</font></tt><br><br><tt><font size="4">Hi!</font></tt><br><br><tt><font size="4">I have some trouble adding a brick to existing gluster volume.</font></tt><br><br><tt><font size="4">When I try to (in CLI):</font></tt><br><br><br><tt><font size="4">gluster&gt; volume add-brick data_domain replica 3 gluster2.data:/glusterfs/data_domain</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">I get:</font></tt><br><br><br><tt><font size="4">volume add-brick: failed:</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">I probed the peer successfully, peer status returns:</font></tt><br><br><br><tt><font size="4">Hostname: gluster3.data</font></tt><br><tt><font size="4">&gt;Uuid: e694f552-636a-4cf3-a04f-997ec87a880c</font></tt><br><tt><font size="4">&gt;State: Peer in Cluster (Connected)</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt;Hostname: gluster2.data</font></tt><br><tt><font size="4">&gt;Port: 24007</font></tt><br><tt><font size="4">&gt;Uuid: 36922d4c-55f2-4cc6-85b9-a9541e5619a2</font></tt><br><tt><font size="4">&gt;State: Peer in Cluster (Connected)</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Existing volume info:</font></tt><br><br><br><tt><font size="4">Volume Name: data_domain</font></tt><br><tt><font size="4">&gt;Type: Replicate</font></tt><br><tt><font size="4">&gt;Volume ID: ae096e7d-cf0c-46ed-863a-9ecc3e8ce288</font></tt><br><tt><font size="4">&gt;Status: Started</font></tt><br><tt><font size="4">&gt;Number of Bricks: 1 x 2 = 2</font></tt><br><tt><font size="4">&gt;Transport-type: tcp</font></tt><br><tt><font size="4">&gt;Bricks:</font></tt><br><tt><font size="4">&gt;Brick1: gluster1.data:/glusterfs/data_domain</font></tt><br><tt><font size="4">&gt;Brick2: gluster3.data:/glusterfs/data_domain</font></tt><br><tt><font size="4">&gt;Options Reconfigured:</font></tt><br><tt><font size="4">&gt;storage.owner-gid: 36</font></tt><br><tt><font size="4">&gt;storage.owner-uid: 36</font></tt><br><tt><font size="4">&gt;server.allow-insecure: on</font></tt><br><tt><font size="4">&gt;network.remote-dio: enable</font></tt><br><tt><font size="4">&gt;cluster.eager-lock: enable</font></tt><br><tt><font size="4">&gt;performance.stat-prefetch: off</font></tt><br><tt><font size="4">&gt;performance.io-cache: off</font></tt><br><tt><font size="4">&gt;performance.read-ahead: off</font></tt><br><tt><font size="4">&gt;performance.quick-read: off</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Only thing I found in log is:</font></tt><br><br><br><tt><font size="4">(/var/log/glusterfs/cli.log)</font></tt><br><tt><font size="4">&gt;[2013-12-18 12:09:17.281310] W [cli-rl.c:106:cli_rl_process_line]</font></tt><br><tt><font size="4">     0-glusterfs: failed to process line</font></tt><br><tt><font size="4">&gt;[2013-12-18 12:10:07.650267] I</font></tt><br><tt><font size="4">     [cli-rpc-ops.c:332:gf_cli_list_friends_cbk] 0-cli: Received resp</font></tt><br><tt><font size="4">     to list: 0</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt;(/var/log/glusterfs/etc-glusterfs-glusterd.vol.log)</font></tt><br><tt><font size="4">&gt;[2013-12-18 12:12:38.887911] I</font></tt><br><tt><font size="4">     [glusterd-brick-ops.c:370:__glusterd_handle_add_brick]</font></tt><br><tt><font size="4">     0-management: Received add brick req</font></tt><br><tt><font size="4">&gt;[2013-12-18 12:12:38.888064] I</font></tt><br><tt><font size="4">     [glusterd-brick-ops.c:417:__glusterd_handle_add_brick]</font></tt><br><tt><font size="4">     0-management: replica-count is 3</font></tt><br><tt><font size="4">&gt;[2013-12-18 12:12:38.888124] I</font></tt><br><tt><font size="4">     [glusterd-brick-ops.c:256:gd_addbr_validate_replica_count]</font></tt><br><tt><font size="4">     0-management: Changing the replica count of volume data_domain</font></tt><br><tt><font size="4">     from 2 to 3</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">I'm running some VM-s on this volume so I'd really like to avoid</font></tt><br><tt><font size="4">   restarting glusterd service.</font></tt><br><tt><font size="4">OS is FC19, kernel 3.11.10-200.fc19.x86_64, glusterfs.x86_64</font></tt><br><tt><font size="4">   3.4.1-1.fc19</font></tt><br><br><br><tt><font size="4">tnx for help!</font></tt><br><br><tt><font size="4">_______________________________________________</font></tt><br><tt><font size="4">Gluster-users mailing list</font></tt><br><a href="mailto:Gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">Gluster-users@gluster.org</font></u></tt></a><br><a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users"><tt><u><font size="4" color="#0000ff">http://supercolony.gluster.org/mailman/listinfo/gluster-users</font></u></tt></a><br><tt><font size="4">-------------- next part --------------</font></tt><br><tt><font size="4">An HTML attachment was scrubbed...</font></tt><br><tt><font size="4">URL: &lt;</font></tt><a href="http://supercolony.gluster.org/pipermail/gluster-users/attachments/20131219/d9bec9fd/attachment-0001.html"><tt><u><font size="4" color="#0000ff">http://supercolony.gluster.org/pipermail/gluster-users/attachments/20131219/d9bec9fd/attachment-0001.html</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><br><tt><font size="4">------------------------------</font></tt><br><br><tt><font size="4">Message: 18</font></tt><br><tt><font size="4">Date: Wed, 18 Dec 2013 21:32:43 +0100</font></tt><br><tt><font size="4">From: Sa?a Friedrich &lt;</font></tt><a href="mailto:sasa.friedrich@bitlab.si"><tt><u><font size="4" color="#0000ff">sasa.friedrich@bitlab.si</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">To: Anirban Ghoshal &lt;</font></tt><a href="mailto:chalcogen_eg_oxygen@yahoo.com"><tt><u><font size="4" color="#0000ff">chalcogen_eg_oxygen@yahoo.com</font></u></tt></a><tt><font size="4">&gt;,</font></tt><br><tt><font size="4">                &quot;</font></tt><a href="mailto:gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">gluster-users@gluster.org</font></u></tt></a><tt><font size="4">&quot; &lt;</font></tt><a href="mailto:gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">gluster-users@gluster.org</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Subject: Re: [Gluster-users] Problem adding brick (replica)</font></tt><br><tt><font size="4">Message-ID: &lt;</font></tt><a href="mailto:52B2066B.1070606@bitlab.si"><tt><u><font size="4" color="#0000ff">52B2066B.1070606@bitlab.si</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Content-Type: text/plain; charset=&quot;utf-8&quot;; Format=&quot;flowed&quot;</font></tt><br><br><tt><font size="4">Here is the line that gets thrown in that log file (which I wasn't aware </font></tt><br><tt><font size="4">of - thanks Anirban)</font></tt><br><br><tt><font size="4">[2013-12-18 20:31:21.005913]  : volume add-brick iso_domain replica 2 </font></tt><br><tt><font size="4">gluster2.data:/glusterfs/iso_domain : FAILED :</font></tt><br><br><br><br><tt><font size="4">Dne 18. 12. 2013 21:27, pi?e Anirban Ghoshal:</font></tt><br><tt><font size="4">&gt; Ok, I am not associated with, or part of the glusterFS development </font></tt><br><tt><font size="4">&gt; team in any way; I fact I only started using glusterfs since the past </font></tt><br><tt><font size="4">&gt; 3-4 months or so, but I have often observed that useful info might be </font></tt><br><tt><font size="4">&gt; found at &lt;log file dir&gt;/.cmd_history.log, which is, in your case,</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; /var/log/glusterfs/.cmd_history.log</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; On Wednesday, 18 December 2013 8:08 PM, Sa?a Friedrich </font></tt><br><tt><font size="4">&gt; &lt;</font></tt><a href="mailto:sasa.friedrich@bitlab.si"><tt><u><font size="4" color="#0000ff">sasa.friedrich@bitlab.si</font></u></tt></a><tt><font size="4">&gt; wrote:</font></tt><br><tt><font size="4">&gt; Hi!</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; I have some trouble adding a brick to existing gluster volume.</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; When I try to (in CLI):</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt;     gluster&gt; volume add-brick data_domain replica 3</font></tt><br><tt><font size="4">&gt;     gluster2.data:/glusterfs/data_domain</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; I get:</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt;     volume add-brick: failed:</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; I probed the peer successfully, peer status returns:</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt;     Hostname: gluster3.data</font></tt><br><tt><font size="4">&gt;     Uuid: e694f552-636a-4cf3-a04f-997ec87a880c</font></tt><br><tt><font size="4">&gt;     State: Peer in Cluster (Connected)</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt;     Hostname: gluster2.data</font></tt><br><tt><font size="4">&gt;     Port: 24007</font></tt><br><tt><font size="4">&gt;     Uuid: 36922d4c-55f2-4cc6-85b9-a9541e5619a2</font></tt><br><tt><font size="4">&gt;     State: Peer in Cluster (Connected)</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; Existing volume info:</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt;     Volume Name: data_domain</font></tt><br><tt><font size="4">&gt;     Type: Replicate</font></tt><br><tt><font size="4">&gt;     Volume ID: ae096e7d-cf0c-46ed-863a-9ecc3e8ce288</font></tt><br><tt><font size="4">&gt;     Status: Started</font></tt><br><tt><font size="4">&gt;     Number of Bricks: 1 x 2 = 2</font></tt><br><tt><font size="4">&gt;     Transport-type: tcp</font></tt><br><tt><font size="4">&gt;     Bricks:</font></tt><br><tt><font size="4">&gt;     Brick1: gluster1.data:/glusterfs/data_domain</font></tt><br><tt><font size="4">&gt;     Brick2: gluster3.data:/glusterfs/data_domain</font></tt><br><tt><font size="4">&gt;     Options Reconfigured:</font></tt><br><tt><font size="4">&gt;     storage.owner-gid: 36</font></tt><br><tt><font size="4">&gt;     storage.owner-uid: 36</font></tt><br><tt><font size="4">&gt;     server.allow-insecure: on</font></tt><br><tt><font size="4">&gt;     network.remote-dio: enable</font></tt><br><tt><font size="4">&gt;     cluster.eager-lock: enable</font></tt><br><tt><font size="4">&gt;     performance.stat-prefetch: off</font></tt><br><tt><font size="4">&gt;     performance.io-cache: off</font></tt><br><tt><font size="4">&gt;     performance.read-ahead: off</font></tt><br><tt><font size="4">&gt;     performance.quick-read: off</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; Only thing I found in log is:</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt;     (/var/log/glusterfs/cli.log)</font></tt><br><tt><font size="4">&gt;     [2013-12-18 12:09:17.281310] W [cli-rl.c:106:cli_rl_process_line]</font></tt><br><tt><font size="4">&gt;     0-glusterfs: failed to process line</font></tt><br><tt><font size="4">&gt;     [2013-12-18 12:10:07.650267] I</font></tt><br><tt><font size="4">&gt;     [cli-rpc-ops.c:332:gf_cli_list_friends_cbk] 0-cli: Received resp</font></tt><br><tt><font size="4">&gt;     to list: 0</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt;     (/var/log/glusterfs/etc-glusterfs-glusterd.vol.log)</font></tt><br><tt><font size="4">&gt;     [2013-12-18 12:12:38.887911] I</font></tt><br><tt><font size="4">&gt;     [glusterd-brick-ops.c:370:__glusterd_handle_add_brick]</font></tt><br><tt><font size="4">&gt;     0-management: Received add brick req</font></tt><br><tt><font size="4">&gt;     [2013-12-18 12:12:38.888064] I</font></tt><br><tt><font size="4">&gt;     [glusterd-brick-ops.c:417:__glusterd_handle_add_brick]</font></tt><br><tt><font size="4">&gt;     0-management: replica-count is 3</font></tt><br><tt><font size="4">&gt;     [2013-12-18 12:12:38.888124] I</font></tt><br><tt><font size="4">&gt;     [glusterd-brick-ops.c:256:gd_addbr_validate_replica_count]</font></tt><br><tt><font size="4">&gt;     0-management: Changing the replica count of volume data_domain</font></tt><br><tt><font size="4">&gt;     from 2 to 3</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; I'm running some VM-s on this volume so I'd really like to avoid </font></tt><br><tt><font size="4">&gt; restarting glusterd service.</font></tt><br><tt><font size="4">&gt; OS is FC19, kernel 3.11.10-200.fc19.x86_64, glusterfs.x86_64 3.4.1-1.fc19</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; tnx for help!</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; _______________________________________________</font></tt><br><tt><font size="4">&gt; Gluster-users mailing list</font></tt><br><tt><font size="4">&gt; </font></tt><a href="mailto:Gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">Gluster-users@gluster.org</font></u></tt></a><tt><font size="4">&nbsp;</font></tt><tt><font size="4">&lt;</font></tt><a href="mailto:Gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">mailto:Gluster-users@gluster.org</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; </font></tt><a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users"><tt><u><font size="4" color="#0000ff">http://supercolony.gluster.org/mailman/listinfo/gluster-users</font></u></tt></a><br><tt><font size="4">&gt;</font></tt><br><br><tt><font size="4">-------------- next part --------------</font></tt><br><tt><font size="4">An HTML attachment was scrubbed...</font></tt><br><tt><font size="4">URL: &lt;</font></tt><a href="http://supercolony.gluster.org/pipermail/gluster-users/attachments/20131218/f357938f/attachment-0001.html"><tt><u><font size="4" color="#0000ff">http://supercolony.gluster.org/pipermail/gluster-users/attachments/20131218/f357938f/attachment-0001.html</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><br><tt><font size="4">------------------------------</font></tt><br><br><tt><font size="4">Message: 19</font></tt><br><tt><font size="4">Date: Wed, 18 Dec 2013 14:49:28 -0600</font></tt><br><tt><font size="4">From: Kelly Burkhart &lt;</font></tt><a href="mailto:kelly.burkhart@gmail.com"><tt><u><font size="4" color="#0000ff">kelly.burkhart@gmail.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">To: </font></tt><a href="mailto:gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">gluster-users@gluster.org</font></u></tt></a><br><tt><font size="4">Subject: Re: [Gluster-users] gfapi from non-root</font></tt><br><tt><font size="4">Message-ID:</font></tt><br><tt><font size="4">                &lt;CAND8VyDW=</font></tt><a href="mailto:V3qZCQoOwYg2f1GVdhEn4LO6ch8u_uN5R2w9kBZaA@mail.gmail.com"><tt><u><font size="4" color="#0000ff">V3qZCQoOwYg2f1GVdhEn4LO6ch8u_uN5R2w9kBZaA@mail.gmail.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Content-Type: text/plain; charset=&quot;iso-8859-1&quot;</font></tt><br><br><tt><font size="4">OK, I believe I solved it by doing this by 1. setting the volume property</font></tt><br><tt><font size="4">allow-insecure with the following command:</font></tt><br><br><tt><font size="4">gluster volume set gv0 server.allow-insecure on</font></tt><br><br><tt><font size="4">and 2. editing the /usr/local/etc/glusterfs/glusterd.vol file and adding</font></tt><br><tt><font size="4">the following line between 'volume-management' and 'end-volume':</font></tt><br><br><tt><font size="4">   option rpc-auth-allow-insecure on</font></tt><br><br><br><tt><font size="4">Is there some mechanism for setting glusterd.vol options without manually</font></tt><br><tt><font size="4">editing a file on each host in the cluster?</font></tt><br><tt><font size="4">If I add a new host to the cluster at a later point, will it slurp the</font></tt><br><tt><font size="4">glusterd.vol file from one of the already established hos
ts?  Or do I have</font></tt><br><tt><font size="4">to manage keeping this file identical on every host?</font></tt><br><br><tt><font size="4">-K</font></tt><br><br><br><tt><font size="4">On Wed, Dec 18, 2013 at 1:43 PM, Kelly Burkhart &lt;</font></tt><a href="mailto:kelly.burkhart@gmail.com"><tt><u><font size="4" color="#0000ff">kelly.burkhart@gmail.com</font></u></tt></a><tt><font size="4">&gt;wrote:</font></tt><br><br><tt><font size="4">&gt; How does one run a gfapi app without being root?</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; I've set server.allow-insecure on on the server side (and bounced all</font></tt><br><tt><font size="4">&gt; gluster processes).  Is there something else required?</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; My test program just stats a file on the cluster volume.  It works as root</font></tt><br><tt><font size="4">&gt; and fails as a normal user.  Local log file shows a message about failing</font></tt><br><tt><font size="4">&gt; to bind a privileged port.</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; -K</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">-------------- next part --------------</font></tt><br><tt><font size="4">An HTML attachment was scrubbed...</font></tt><br><tt><font size="4">URL: &lt;</font></tt><a href="http://supercolony.gluster.org/pipermail/gluster-users/attachments/20131218/5c79ada1/attachment-0001.html"><tt><u><font size="4" color="#0000ff">http://supercolony.gluster.org/pipermail/gluster-users/attachments/20131218/5c79ada1/attachment-0001.html</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><br><tt><font size="4">------------------------------</font></tt><br><br><tt><font size="4">Message: 20</font></tt><br><tt><font size="4">Date: Wed, 18 Dec 2013 14:00:59 -0800 (PST)</font></tt><br><tt><font size="4">From: William Kwan &lt;</font></tt><a href="mailto:potatok@yahoo.com"><tt><u><font size="4" color="#0000ff">potatok@yahoo.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">To: &quot;</font></tt><a href="mailto:gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">gluster-users@gluster.org</font></u></tt></a><tt><font size="4">&quot; &lt;</font></tt><a href="mailto:gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">gluster-users@gluster.org</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Subject: [Gluster-users] failed to create volume ends with a prefix of</font></tt><br><tt><font size="4">                it is                 already part of a volume</font></tt><br><tt><font size="4">Message-ID:</font></tt><br><tt><font size="4">                &lt;</font></tt><a href="mailto:1387404059.18772.YahooMailNeo@web140403.mail.bf1.yahoo.com"><tt><u><font size="4" color="#0000ff">1387404059.18772.YahooMailNeo@web140403.mail.bf1.yahoo.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Content-Type: text/plain; charset=&quot;iso-8859-1&quot;</font></tt><br><br><tt><font size="4">Hi all,</font></tt><br><br><tt><font size="4">Env: CentOS 6.5 with?glusterfs 3.4.1?</font></tt><br><br><tt><font size="4">I just start working on Gluster. ?I have two test hosts. ?Both of them have a xfs on top of LVM. ? I searched, but there are lots of result like this. I'm not sure if this is a bug in my version?</font></tt><br><br><tt><font size="4"># gluster volume create gvol1 replica 2 transport tcp ghost1:/data ghost2:/data</font></tt><br><tt><font size="4">volume create: gvol1: failed</font></tt><br><tt><font size="4"># gluster volume list all</font></tt><br><tt><font size="4">No volumes present in cluster</font></tt><br><tt><font size="4"># gluster volume create gvol1 replica 2 transport tcp ghost1:/data ghost2:/data</font></tt><br><tt><font size="4">volume create: gvol1: failed: /data or a prefix of it is already part of a volume</font></tt><br><br><tt><font size="4">Thanks</font></tt><br><tt><font size="4">Will</font></tt><br><tt><font size="4">-------------- next part --------------</font></tt><br><tt><font size="4">An HTML attachment was scrubbed...</font></tt><br><tt><font size="4">URL: &lt;</font></tt><a href="http://supercolony.gluster.org/pipermail/gluster-users/attachments/20131218/c1967735/attachment-0001.html"><tt><u><font size="4" color="#0000ff">http://supercolony.gluster.org/pipermail/gluster-users/attachments/20131218/c1967735/attachment-0001.html</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><br><tt><font size="4">------------------------------</font></tt><br><br><tt><font size="4">Message: 21</font></tt><br><tt><font size="4">Date: Thu, 19 Dec 2013 07:38:35 +0530</font></tt><br><tt><font size="4">From: Kaushal M &lt;</font></tt><a href="mailto:kshlmster@gmail.com"><tt><u><font size="4" color="#0000ff">kshlmster@gmail.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">To: Knut Moe &lt;</font></tt><a href="mailto:kmoe66@gmail.com"><tt><u><font size="4" color="#0000ff">kmoe66@gmail.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Cc: </font></tt><a href="mailto:gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">gluster-users@gluster.org</font></u></tt></a><br><tt><font size="4">Subject: Re: [Gluster-users] Trying to start glusterd</font></tt><br><tt><font size="4">Message-ID:</font></tt><br><tt><font size="4">                &lt;CAOujamU6qu5x6vdXSrOVsdV36xnVJgp+po+t=</font></tt><a href="mailto:moJh00Fk9VM4g@mail.gmail.com"><tt><u><font size="4" color="#0000ff">moJh00Fk9VM4g@mail.gmail.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Content-Type: text/plain; charset=&quot;iso-8859-1&quot;</font></tt><br><br><tt><font size="4">All gluster processes need to be run as root. So you will need to use</font></tt><br><tt><font size="4">'sudo' to run any command.</font></tt><br><br><tt><font size="4">On Ubuntu, the correct way to start Glusterd is by using 'service glusterd</font></tt><br><tt><font size="4">start'. You can check if glusterd is running using 'service glusterd</font></tt><br><tt><font size="4">status'.</font></tt><br><tt><font size="4">On 18-Dec-2013 11:49 PM, &quot;Knut Moe&quot; &lt;</font></tt><a href="mailto:kmoe66@gmail.com"><tt><u><font size="4" color="#0000ff">kmoe66@gmail.com</font></u></tt></a><tt><font size="4">&gt; wrote:</font></tt><br><br><tt><font size="4">&gt; I have two Ubuntu servers set up, downloaded GlusterFS 3.4 and by all</font></tt><br><tt><font size="4">&gt; accounts it seems to have installed properly using the apt-get install</font></tt><br><tt><font size="4">&gt; command.</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; However, when I issue a glusterd start or glusterd status command I am</font></tt><br><tt><font size="4">&gt; getting the following error:</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; ERROR: failed to create log file (/var/log/glusterfs/start.log)</font></tt><br><tt><font size="4">&gt; (Permission denied).</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; Is there a way to determine if gluster is installed properly and also</font></tt><br><tt><font size="4">&gt; troubleshoot the above?</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; If I issue sudo glusterd start or sudo glusterd status I am returned to</font></tt><br><tt><font size="4">&gt; the prompt with no additional info.</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; Thx.</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; _______________________________________________</font></tt><br><tt><font size="4">&gt; Gluster-users mailing list</font></tt><br><tt><font size="4">&gt; </font></tt><a href="mailto:Gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">Gluster-users@gluster.org</font></u></tt></a><br><tt><font size="4">&gt; </font></tt><a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users"><tt><u><font size="4" color="#0000ff">http://supercolony.gluster.org/mailman/listinfo/gluster-users</font></u></tt></a><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">-------------- next part --------------</font></tt><br><tt><font size="4">An HTML attachment was scrubbed...</font></tt><br><tt><font size="4">URL: &lt;</font></tt><a href="http://supercolony.gluster.org/pipermail/gluster-users/attachments/20131219/f2f750a4/attachment-0001.html"><tt><u><font size="4" color="#0000ff">http://supercolony.gluster.org/pipermail/gluster-users/attachments/20131219/f2f750a4/attachment-0001.html</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><br><tt><font size="4">------------------------------</font></tt><br><br><tt><font size="4">Message: 22</font></tt><br><tt><font size="4">Date: Thu, 19 Dec 2013 12:34:59 +0530</font></tt><br><tt><font size="4">From: Vijay Bellur &lt;</font></tt><a href="mailto:vbellur@redhat.com"><tt><u><font size="4" color="#0000ff">vbellur@redhat.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">To: Joe Topjian &lt;</font></tt><a href="mailto:joe@topjian.net"><tt><u><font size="4" color="#0000ff">joe@topjian.net</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Cc: </font></tt><a href="mailto:gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">gluster-users@gluster.org</font></u></tt></a><tt><font size="4">, Bharata B Rao</font></tt><br><tt><font size="4">                &lt;</font></tt><a href="mailto:bharata@linux.vnet.ibm.com"><tt><u><font size="4" color="#0000ff">bharata@linux.vnet.ibm.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Subject: Re: [Gluster-users] qemu remote insecure connections</font></tt><br><tt><font size="4">Message-ID: &lt;</font></tt><a href="mailto:52B29A9B.3040503@redhat.com"><tt><u><font size="4" color="#0000ff">52B29A9B.3040503@redhat.com</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Content-Type: text/plain; charset=ISO-8859-1; format=flowed</font></tt><br><br><tt><font size="4">On 12/16/2013 08:42 AM, Joe Topjian wrote:</font></tt><br><tt><font size="4">&gt; Hello,</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; I apologize for the delayed reply.</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; I've collected some logs and posted them here:</font></tt><br><tt><font size="4">&gt; </font></tt><a href="https://gist.github.com/jtopjian/7981763"><tt><u><font size="4" color="#0000ff">https://gist.github.com/jtopjian/7981763</font></u></tt></a><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; I stopped the Gluster service on 192.168.1.11, moved /var/log/glusterfs</font></tt><br><tt><font size="4">&gt; to a backup, then started Gluster so that the log files were more succinct.</font></tt><br><tt><font size="4">&gt;</font></tt><br><tt><font size="4">&gt; I then used the qemu-img command as mentioned before as root, which was</font></tt><br><tt><font size="4">&gt; successful. Then I ran the command as libvirt-qemu and let the command</font></tt><br><tt><font size="4">&gt; hang for 2 minutes before I killed it.</font></tt><br><tt><font size="4">&gt;</font></tt><br><br><tt><font size="4">I did not notice anything in the logs which refer to failures from a </font></tt><br><tt><font size="4">gluster perspective. This is observed in the log file:</font></tt><br><br><tt><font size="4">&quot;[2013-12-16 02:58:16.078774] I </font></tt><br><tt><font size="4">[client-handshake.c:1456:client_setvolume_cbk] 0-instances-client-1: </font></tt><br><tt><font size="4">Connected to </font></tt><a href="http://192.168.1.12:49152"><tt><u><font size="4" color="#0000ff">192.168.1.12:49152</font></u></tt></a><tt><font size="4">, attached to remote volume </font></tt><br><tt><font size="4">'/gluster/instances'.&quot;</font></tt><br><br><tt><font size="4">It does look like a connection has been established but qemu-img is </font></tt><br><tt><font size="4">blocked on something. Can you please start qemu-img with strace -f and </font></tt><br><tt><font size="4">capture the output?</font></tt><br><br><tt><font size="4">Bharata: Any additional things that we could try here?</font></tt><br><br><tt><font size="4">Thanks,</font></tt><br><tt><font size="4">Vijay</font></tt><br><br><br><tt><font size="4">------------------------------</font></tt><br><br><tt><font size="4">Message: 23</font></tt><br><tt><font size="4">Date: Thu, 19 Dec 2013 08:55:39 +0000</font></tt><br><tt><font size="4">From: &quot;Bernhard Glomm&quot; &lt;</font></tt><a href="mailto:bernhard.glomm@ecologic.eu"><tt><u><font size="4" color="#0000ff">bernhard.glomm@ecologic.eu</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">To: </font></tt><a href="mailto:potatok@yahoo.com"><tt><u><font size="4" color="#0000ff">potatok@yahoo.com</font></u></tt></a><tt><font size="4">, </font></tt><a href="mailto:gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">gluster-users@gluster.org</font></u></tt></a><br><tt><font size="4">Subject: Re: [Gluster-users] failed to create volume ends with a</font></tt><br><tt><font size="4">                prefix of                 it is already part of a volume</font></tt><br><tt><font size="4">Message-ID: &lt;</font></tt><a href="mailto:0c18df4ee6aa911fd20cfe3ed5ab2ad2d4e3384c@ecologic.eu"><tt><u><font size="4" color="#0000ff">0c18df4ee6aa911fd20cfe3ed5ab2ad2d4e3384c@ecologic.eu</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><tt><font size="4">Content-Type: text/plain; charset=&quot;utf-8&quot;</font></tt><br><br><br><tt><font size="4">Hi Will,</font></tt><br><br><tt><font size="4">Had similar issues.</font></tt><br><tt><font size="4">Did you see?</font></tt><a href="http://joejulian.name/blog/glusterfs-path-or-a-prefix-of-it-is-already-part-of-a-volume/"><tt><u><font size="4" color="#0000ff">http://joejulian.name/blog/glusterfs-path-or-a-prefix-of-it-is-already-part-of-a-volume/</font></u></tt></a><br><br><br><tt><font size="4">run:</font></tt><br><tt><font size="4">setfattr -x trusted.glusterfs.volume-id $brick_path</font></tt><br><tt><font size="4">setfattr -x trusted.gfid $brick_path</font></tt><br><tt><font size="4">rm -rf $brick_path/.glusterfs</font></tt><br><br><br><tt><font size="4">on BOTH/ALL sides of your mirror</font></tt><br><tt><font size="4">than run</font></tt><br><br><tt><font size="4">gluster peer probe &lt;partnerhost&gt;</font></tt><br><br><tt><font size="4">on BOTH/ALL sides of your mirror</font></tt><br><tt><font size="4">only than run?</font></tt><br><br><tt><font size="4">gluster volume create ....</font></tt><br><br><tt><font size="4">hth</font></tt><br><br><tt><font size="4">Bernhard</font></tt><br><tt><font size="4">Am 18.12.2013 23:00:59, schrieb William Kwan:</font></tt><br><tt><font size="4">&gt; Hi all,</font></tt><br><tt><font size="4">&gt; </font></tt><br><tt><font size="4">&gt; Env: CentOS 6.5 with?glusterfs 3.4.1?</font></tt><br><tt><font size="4">&gt; </font></tt><br><tt><font size="4">&gt; I just start working on Gluster. ?I have two test hosts. ?Both of them have a xfs on top of LVM. ? I searched,</font></tt><br><tt><font size="4">but there are lots of result like this. I'm not sure if this is a bug in my version?</font></tt><br><tt><font size="4">&gt; </font></tt><br><tt><font size="4">&gt; # gluster volume create gvol1 replica 2 transport tcp ghost1:/data ghost2:/data</font></tt><br><tt><font size="4">&gt; &gt; volume create: gvol1: failed</font></tt><br><tt><font size="4">&gt; &gt; # gluster volume list all</font></tt><br><tt><font size="4">&gt; &gt; No volumes present in cluster</font></tt><br><tt><font size="4">&gt; &gt; # gluster volume create gvol1 replica 2 transport tcp ghost1:/data ghost2:/data</font></tt><br><tt><font size="4">&gt; </font></tt><br><tt><font size="4">&gt; &gt; volume create: gvol1: failed: /data or a prefix of it is already part of a volume</font></tt><br><tt><font size="4">&gt; </font></tt><br><br><tt><font size="4">&gt; </font></tt><br><tt><font size="4">&gt; &gt; Thanks</font></tt><br><tt><font size="4">&gt; &gt; Will</font></tt><br><tt><font size="4">&gt; </font></tt><br><tt><font size="4">&gt; </font></tt><br><tt><font size="4">&gt; &gt; _______________________________________________</font></tt><br><tt><font size="4">&gt; Gluster-users mailing list</font></tt><br><tt><font size="4">&gt; </font></tt><a href="mailto:Gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">Gluster-users@gluster.org</font></u></tt></a><br><tt><font size="4">&gt; </font></tt><a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users"><tt><u><font size="4" color="#0000ff">http://supercolony.gluster.org/mailman/listinfo/gluster-users</font></u></tt></a><br><br><br><br><tt><font size="4">-- </font></tt><br><br><br><tt><font size="4"> </font></tt><br><tt><font size="4">        </font></tt><br><tt><font size="4">   </font></tt><br><tt><font size="4">       </font></tt><br><tt><font size="4">     </font></tt><br><tt><font size="4">       </font></tt><br><tt><font size="4">         </font></tt><br><tt><font size="4">           Bernhard Glomm</font></tt><br><br><tt><font size="4">           IT Administration</font></tt><br><br><br><tt><font size="4">         </font></tt><br><tt><font size="4">           </font></tt><br><tt><font size="4">                 Phone:</font></tt><br><tt><font size="4">               </font></tt><br><tt><font size="4">               </font></tt><br><tt><font size="4">                 +49 (30) 86880 134</font></tt><br><tt><font size="4">               </font></tt><br><tt><font size="4">             </font></tt><br><tt><font size="4">                 Fax:</font></tt><br><tt><font size="4">               </font></tt><br><tt><font size="4">               </font></tt><br><tt><font size="4">                 +49 (30) 86880 100</font></tt><br><tt><font size="4">               </font></tt><br><tt><font size="4">             </font></tt><br><tt><font size="4">                 Skype:</font></tt><br><tt><font size="4">               </font></tt><br><tt><font size="4">               </font></tt><br><tt><font size="4">                 bernhard.glomm.ecologic</font></tt><br><tt><font size="4">               </font></tt><br><tt><font size="4">             </font></tt><br><tt><font size="4">       </font></tt><br><tt><font size="4">     </font></tt><br><tt><font size="4">   </font></tt><br><tt><font size="4">           </font></tt><br><tt><font size="4">           </font></tt><br><tt><font size="4">           </font></tt><br><tt><font size="4">           </font></tt><br><tt><font size="4">           </font></tt><br><tt><font size="4">           </font></tt><br><tt><font size="4">           </font></tt><br><tt><font size="4">           </font></tt><br><tt><font size="4">     </font></tt><br><tt><font size="4">   </font></tt><br><tt><font size="4">       </font></tt><br><tt><font size="4">         Ecologic Institut gemeinn?tzige GmbH | Pfalzburger Str. 43/44 | 10717 Berlin | Germany</font></tt><br><br><tt><font size="4">         GF: R. Andreas Kraemer | AG: Charlottenburg HRB 57947 | USt/VAT-IdNr.: DE811963464</font></tt><br><br><tt><font size="4">         Ecologic? is a Trade Mark (TM) of Ecologic Institut gemeinn?tzige GmbH</font></tt><br><tt><font size="4">       </font></tt><br><tt><font size="4">     </font></tt><br><tt><font size="4">   </font></tt><br><tt><font size="4">        </font></tt><br><br><tt><font size="4">-------------- next part --------------</font></tt><br><tt><font size="4">An HTML attachment was scrubbed...</font></tt><br><tt><font size="4">URL: &lt;</font></tt><a href="http://supercolony.gluster.org/pipermail/gluster-users/attachments/20131219/382a606b/attachment-0001.html"><tt><u><font size="4" color="#0000ff">http://supercolony.gluster.org/pipermail/gluster-users/attachments/20131219/382a606b/attachment-0001.html</font></u></tt></a><tt><font size="4">&gt;</font></tt><br><br><tt><font size="4">------------------------------</font></tt><br><br><tt><font size="4">_______________________________________________</font></tt><br><tt><font size="4">Gluster-users mailing list</font></tt><br><a href="mailto:Gluster-users@gluster.org"><tt><u><font size="4" color="#0000ff">Gluster-users@gluster.org</font></u></tt></a><br><a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users"><tt><u><font size="4" color="#0000ff">http://supercolony.gluster.org/mailman/listinfo/gluster-users</font></u></tt></a><br><br><tt><font size="4">End of Gluster-users Digest, Vol 68, Issue 20</font></tt><br><tt><font size="4">*********************************************</font></tt><br><br><br><font size="4">**</font><br><br><font size="4">This email and any attachments may contain information that is confidential and/or privileged for the sole use of the intended recipient.  Any use, review, disclosure, copying, distribution or reliance by others, and any forwarding of this email or its contents, without the express permission of the sender is strictly prohibited by law.  If you are not the intended recipient, please contact the sender immediately, delete the e-mail and destroy all copies.</font><br><font size="4">**</font><br><br><font size="4">_______________________________________________</font><br><font size="4">Gluster-users mailing list</font><br><a href="mailto:Gluster-users@gluster.org"><u><font size="4" color="#0000ff">Gluster-users@gluster.org</font></u></a><br><a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users"><u><font size="4" color="#0000ff">http://supercolony.gluster.org/mailman/listinfo/gluster-users</font></u></a><BR>
**<BR>
<BR>
This email and any attachments may contain information that is confidential and/or privileged for the sole use of the intended recipient.  Any use, review, disclosure, copying, distribution or reliance by others, and any forwarding of this email or its contents, without the express permission of the sender is strictly prohibited by law.  If you are not the intended recipient, please contact the sender immediately, delete the e-mail and destroy all copies.<BR>
**<BR>
</body></html>