<div dir="ltr">Hmmm, if this message supposed to be some kind of criticism of glusterfs devs and product, than it is too emotional to take it seriously.<div><br></div><div>Just another community member... </div></div><div class="gmail_extra">
<br><br><div class="gmail_quote">2014-09-02 6:49 GMT+03:00 Bencho Naut <span dir="ltr">&lt;<a href="mailto:all@b1nch0.us.to" target="_blank">all@b1nch0.us.to</a>&gt;</span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
until a few days ago my opinion about glusterfs was &quot; working but stable&quot;, now i would just call it the a versatile data and time blackhole.<br>
<br>
Though i don&#39;t even feel like the dev&#39;s read the gluster-users list, i suggest you shot yourself and just do it like truecrypt ( big disclaimer: this software is insecure, use another product, NO PRODUCTION USE).<br>

<br>
It started with the usual issues ,not syncing(3.2) , shd fails(3.2-3.3), peer doesnt reconnect(3.3), ssl keys have to be 2048-bit fixed size and all keys have to bey verywhere(all versions....which noob programmed that ??), only control connection is encrypted,   etc. etc. i kept calm, resynced,recreated, already gave up.. VERY OFTEN..<br>

<br>
At a certain point it also used tons of diskspace due to not deleting files in the &quot;.glusterfs&quot; directory , (but still being connected and up serving volumes)<br>
<br>
IT WAS A LONG AND PAINFUL SYNCING PROCESS until i thought i was happy ;)<br>
<br>
But now the master-fail happened:<br>
 (and i already know you can&#39;t pop out a simple solution, but yeah come, write your mess.. i&#39;ll describe it for you)<br>
<br>
Due to an Online-resizing lvm/XFS glusterfs (i watch the logs nearly all the time) i discovered &quot;mismacthing disk layouts&quot; , realizing also that<br>
<br>
server1 was up and happy when you mount from it, but server2 spew input/output errors on several directories (for now just in that volume),<br>
<br>
i tried to rename one directory, it created a recursive loop inside XFS (e.g. BIGGEST FILE-SYSTEM FAIL : TWO INODES linking to one dir , ideally containing another)<br>
i got at least the XFS loop solved.<br>
<br>
Then the pre-last resort option came up.. deleted the volumes, cleaned all xattr on that ~2T ... and recreated the volumes, since shd seems to work somehow since 3.4<br>
guess what happened ?? i/o errors on server2 on and on , before i could mount on server1 from server 2 without i/o errors..not now..<br>
<br>
Really i would like to love this project, but right now i&#39;m in the mood for a killswitch (for the whole project), the aim is good, the way glusterfs tries to achieve this is just poor..tons of senseless logs, really , even your worst *insertBigCorp* DB server will spit less logs, glusterfs in the default setting is just eating your diskspace with logs, there is no option to rate-limit , everytime you start a volume it logs the volume config... sometimes i feel like git would be the way to go, not only for the logs (git-annex ;) ) .<br>

<br>
now i realized through &quot;ls -R 1&gt;/dev/null&quot; that this happend on ALL volumes in the cluster, an known problem &quot;can&#39;t stat folders&quot;.<br>
<br>
Maybe anyone has a suggestion , except &quot;create a new clean volume and move all your TB&#39;s&quot; .<br>
<br>
Regards<br>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a><br>
</blockquote></div><br><br clear="all"><div><br></div>-- <br>Best regards,<br>Roman.
</div>