hi again, <br>I continue my tests and : <br>In my case, if one file is open on gluster mount during stop of one afr server, <br>gluster mount can not be acces ( gap ? ) in this server. All other client ( C for example) which not opening file during stop, isn&#39;t affect, i can do a ls or open after transport timeout time.<br>
If i kill the process that&#39;s use this file, then i can using gluster mount point without problem.<br><br>Regards, <br>Nicolas Prochazka.<br><br><div class="gmail_quote">2009/1/12 nicolas prochazka <span dir="ltr">&lt;<a href="mailto:prochazka.nicolas@gmail.com">prochazka.nicolas@gmail.com</a>&gt;</span><br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><br>for your attention, <br>it seems that&#39;s this problem occur only when files is open and use and gluster mount point .<br>
I use big files of computation ( ~ 10G)&nbsp; with in the most important part, read. In this case problem occurs.<br>
If i using only small files which create only some time, no problem occur, gluster mount can use other afr server.<br><br>Regards, <br>Nicolas Prochazka<br><br><br><br><div class="gmail_quote">2009/1/12 nicolas prochazka <span dir="ltr">&lt;<a href="mailto:prochazka.nicolas@gmail.com" target="_blank">prochazka.nicolas@gmail.com</a>&gt;</span><div>
<div></div><div class="Wj3C7c"><br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">Hi, <br>I&#39;m tryning to set <br>option transport-timeout 5<br>in protocol/client<br><br>
so a max of 10 seconds before restoring gluster in normal situation ?<br>
no success, i always in the same situation, a &#39;ls /mnt/gluster&#39;&nbsp;&nbsp; not respond after &gt; 10 mins<br>
I can not reuse glustermount exept kill glusterfs process.<br><br>Regards<br>Nicolas Prochazka<br>
<br><br><br><div class="gmail_quote">2009/1/12 Raghavendra G <span dir="ltr">&lt;<a href="mailto:raghavendra@zresearch.com" target="_blank">raghavendra@zresearch.com</a>&gt;</span><div><div></div><div><br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">

Hi Nicolas,<br><br>how much time did you wait before concluding the mount point to be not working? afr waits for a maximum of (2 * transport-timeout) seconds before returning sending reply to the application. Can you wait for some time and check out is this the issue you are facing?<br>




<br>regards,<br><br><div class="gmail_quote"><div><div></div><div>On Mon, Jan 12, 2009 at 7:49 PM, nicolas prochazka <span dir="ltr">&lt;<a href="mailto:prochazka.nicolas@gmail.com" target="_blank">prochazka.nicolas@gmail.com</a>&gt;</span> wrote:<br>



</div></div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><div><div></div><div>
Hi.<br>I&#39;ve installed this model to test Gluster : <br><br>+ 2 servers ( A B )<br>&nbsp;&nbsp; - with glusterfsd&nbsp; server&nbsp; ( glusterfs--mainline--3.0--patch-842 )<br>&nbsp;&nbsp; - with glusterfs&nbsp; client <br>server conf file .<br><br>+ 1 server C only client mode.<br>





<br>My issue : <br>If C open big file in this client configuration and then i stop server A (or B )&nbsp; <br>gluster mount point on server C seems to be block, i can not do &#39;ls -l&#39;&nbsp; for example.<br>Is a this thing is normal ? as C open his file on A or B , then it is blocking when server down ?<br>





I was thinking in client AFR, client can reopen file/block an other server , i&#39;m wrong ?<br>Should use HA translator ?<br><br>Regards, <br>Nicolas Prochazka.<br>&nbsp; <br><br><br><br><br>volume brickless<br>type storage/posix<br>





option directory /mnt/disks/export<br>end-volume<br><br>volume brick<br>type features/posix-locks<br>option mandatory on&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; # enables mandatory locking on all files<br>subvolumes brickless<br>end-volume<br><br>volume server<br>





type protocol/server<br>subvolumes brick<br>option transport-type tcp<br>option auth.addr.brick.allow 10.98.98.*<br>end-volume<br>--------------------------- <br><br>client config <br><b>volume brick_10.98.98.1<br>type protocol/client<br>





option transport-type tcp/client<br>option remote-host 10.98.98.1<br>option remote-subvolume brick<br>end-volume<br><br></b><b>volume brick_10.98.98.2<br>
type protocol/client<br>
option transport-type tcp/client<br>
option remote-host 10.98.98.2<br>
option remote-subvolume brick<br>
end-volume</b><br><b><br>volume last<br>type cluster/replicate<br>subvolumes brick_10.98.98.1 </b><b>brick_10.98.98.2</b><br><b>end-volume<br><br>volume iothreads<br>type performance/io-threads<br>option thread-count 2<br>





option cache-size 32MB<br>subvolumes last<br>end-volume<br><br>volume io-cache<br>type performance/io-cache<br>option cache-size 1024MB&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; # default is 32MB<br>option page-size&nbsp; 1MB&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; #128KB is default option<br>





option force-revalidate-timeout 2&nbsp; # default is 1<br>subvolumes iothreads<br>end-volume<br><br>volume writebehind<br>type performance/write-behind<br>option aggregate-size 256KB # default is 0bytes<br>option window-size 3MB<br>





option flush-behind on&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; # default is &#39;off&#39;<br>subvolumes io-cache<br>end-volume<br></b><br>
<br></div></div>_______________________________________________<br>
Gluster-devel mailing list<br>
<a href="mailto:Gluster-devel@nongnu.org" target="_blank">Gluster-devel@nongnu.org</a><br>
<a href="http://lists.nongnu.org/mailman/listinfo/gluster-devel" target="_blank">http://lists.nongnu.org/mailman/listinfo/gluster-devel</a><br>
<br></blockquote></div><br><br clear="all"><br>-- <br><font color="#888888">Raghavendra G<br><br>
</font></blockquote></div></div></div><br>
</blockquote></div></div></div><br>
</blockquote></div><br>