No, <br>When i run glusterfs with --debug option, nothing appear.<br>I just see that glusferfsd process consume a lot of cpu, and that&#39;s on big file, ( 10G ) acces by a lot of client simultanous, glusterfs/glusterfsd ? seems to be not respond, data not send like a deadlock or loop.<br>
<br>Regards, <br>Nicolas Prochazka<br><br><div class="gmail_quote">2008/12/9 Anand Avati <span dir="ltr">&lt;<a href="mailto:avati@zresearch.com">avati@zresearch.com</a>&gt;</span><br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
Nicolas,<br>
Do you have logs from the client and server?<br>
<br>
avati<br>
<br>
2008/12/9 nicolas prochazka &lt;<a href="mailto:prochazka.nicolas@gmail.com">prochazka.nicolas@gmail.com</a>&gt;:<br>
<div><div></div><div class="Wj3C7c">&gt; hi again,<br>
&gt; about glusterfs--mainline--3.0--patch-727 with same configuration.<br>
&gt; Now glusterfsd seems to be take a lot of cpu ressource &gt; 20 % &nbsp;, and ls -l<br>
&gt; /glustermount/ &nbsp;is very very long to respond ( &gt; 5 minutes ).<br>
&gt; We can notice that with -719 &nbsp;the issue is not appearing.<br>
&gt;<br>
&gt; Nicolas Prochazka.<br>
&gt;<br>
&gt; 2008/12/8 nicolas prochazka &lt;<a href="mailto:prochazka.nicolas@gmail.com">prochazka.nicolas@gmail.com</a>&gt;<br>
&gt;&gt;<br>
&gt;&gt; Thanks it&#39;s working now.<br>
&gt;&gt; Regards,<br>
&gt;&gt; Nicolas Prochazka<br>
&gt;&gt;<br>
&gt;&gt; 2008/12/8 Basavanagowda Kanur &lt;<a href="mailto:gowda@zresearch.com">gowda@zresearch.com</a>&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Nicolas,<br>
&gt;&gt;&gt; &nbsp; Please use glusterfs--mainline--3.0--patch-719.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; --<br>
&gt;&gt;&gt; gowda<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; On Mon, Dec 8, 2008 at 3:07 PM, nicolas prochazka<br>
&gt;&gt;&gt; &lt;<a href="mailto:prochazka.nicolas@gmail.com">prochazka.nicolas@gmail.com</a>&gt; wrote:<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; Hi,<br>
&gt;&gt;&gt;&gt; It seems that &nbsp;glusterfs--mainline--3.0--patch-717 &nbsp;has a new problem,<br>
&gt;&gt;&gt;&gt; which not appear at least witch &nbsp;glusterfs--mainline--3.0--patch-710<br>
&gt;&gt;&gt;&gt; Now i&#39;ve :<br>
&gt;&gt;&gt;&gt; ls: cannot open directory /mnt/vdisk/: Software caused connection abort<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; Regards,<br>
&gt;&gt;&gt;&gt; Nicolas Prochazka.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; my client spec file &nbsp;:<br>
&gt;&gt;&gt;&gt; volume brick1<br>
&gt;&gt;&gt;&gt; type protocol/client<br>
&gt;&gt;&gt;&gt; option transport-type tcp/client # for TCP/IP transport<br>
&gt;&gt;&gt;&gt; option remote-host <a href="http://10.98.98.1" target="_blank">10.98.98.1</a> &nbsp; # IP address of server1<br>
&gt;&gt;&gt;&gt; option remote-subvolume brick &nbsp; &nbsp;# name of the remote volume on server1<br>
&gt;&gt;&gt;&gt; end-volume<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; volume brick2<br>
&gt;&gt;&gt;&gt; type protocol/client<br>
&gt;&gt;&gt;&gt; option transport-type tcp/client # for TCP/IP transport<br>
&gt;&gt;&gt;&gt; option remote-host <a href="http://10.98.98.2" target="_blank">10.98.98.2</a> &nbsp; # IP address of server2<br>
&gt;&gt;&gt;&gt; option remote-subvolume brick &nbsp; &nbsp;# name of the remote volume on server2<br>
&gt;&gt;&gt;&gt; end-volume<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; volume afr<br>
&gt;&gt;&gt;&gt; type cluster/afr<br>
&gt;&gt;&gt;&gt; subvolumes brick1 brick2<br>
&gt;&gt;&gt;&gt; end-volume<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; volume iothreads<br>
&gt;&gt;&gt;&gt; type performance/io-threads<br>
&gt;&gt;&gt;&gt; option thread-count 4<br>
&gt;&gt;&gt;&gt; option cache-size 32MB<br>
&gt;&gt;&gt;&gt; subvolumes afr<br>
&gt;&gt;&gt;&gt; end-volume<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; volume io-cache<br>
&gt;&gt;&gt;&gt; type performance/io-cache<br>
&gt;&gt;&gt;&gt; option cache-size 256MB &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; # default is 32MB<br>
&gt;&gt;&gt;&gt; option page-size &nbsp;1MB &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;#128KB is default option<br>
&gt;&gt;&gt;&gt; option force-revalidate-timeout 2 &nbsp;# default is 1<br>
&gt;&gt;&gt;&gt; subvolumes iothreads<br>
&gt;&gt;&gt;&gt; end-volume<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; my server spec-file<br>
&gt;&gt;&gt;&gt; volume brickless<br>
&gt;&gt;&gt;&gt; type storage/posix<br>
&gt;&gt;&gt;&gt; option directory /mnt/disks/export<br>
&gt;&gt;&gt;&gt; end-volume<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; volume brick<br>
&gt;&gt;&gt;&gt; type features/posix-locks<br>
&gt;&gt;&gt;&gt; option mandatory on &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;# enables mandatory locking on all files<br>
&gt;&gt;&gt;&gt; subvolumes brickless<br>
&gt;&gt;&gt;&gt; end-volume<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; volume server<br>
&gt;&gt;&gt;&gt; type protocol/server<br>
&gt;&gt;&gt;&gt; subvolumes brick<br>
&gt;&gt;&gt;&gt; option transport-type tcp<br>
&gt;&gt;&gt;&gt; option auth.addr.brick.allow <a href="http://10.98.98." target="_blank">10.98.98.</a>*<br>
&gt;&gt;&gt;&gt; end-volume<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; _______________________________________________<br>
&gt;&gt;&gt;&gt; Gluster-devel mailing list<br>
&gt;&gt;&gt;&gt; <a href="mailto:Gluster-devel@nongnu.org">Gluster-devel@nongnu.org</a><br>
&gt;&gt;&gt;&gt; <a href="http://lists.nongnu.org/mailman/listinfo/gluster-devel" target="_blank">http://lists.nongnu.org/mailman/listinfo/gluster-devel</a><br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; --<br>
&gt;&gt;&gt; hard work often pays off after time, but laziness always pays off now<br>
&gt;&gt;<br>
&gt;<br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; Gluster-devel mailing list<br>
&gt; <a href="mailto:Gluster-devel@nongnu.org">Gluster-devel@nongnu.org</a><br>
&gt; <a href="http://lists.nongnu.org/mailman/listinfo/gluster-devel" target="_blank">http://lists.nongnu.org/mailman/listinfo/gluster-devel</a><br>
&gt;<br>
&gt;<br>
</div></div></blockquote></div><br>