<div dir="ltr">Thanks Vijay for your response. My env has 2 nodes gluster cluster, and I use replica=2 for a volume.  On another node (actually a laptop), I have two scripts, one script will continuously connect to one node of the gluster cluster, and do some read/write operations, if it could not connect to this node, the script will try another node automatically.  Another script will login to one node and performing random reboot operations to simulate node down.<div>
<br></div><div>After about 1 hour, I got above issue.<br><div><br></div><div>Regards,</div><div>Yandong</div></div></div><div class="gmail_extra"><br><br><div class="gmail_quote">2014-01-27 Vijay Bellur <span dir="ltr">&lt;<a href="mailto:vbellur@redhat.com" target="_blank">vbellur@redhat.com</a>&gt;</span><br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="im">On 01/25/2014 06:27 PM, Yandong Yao wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hi Guys,<br>
<br>
I am using gluster 3.4.2 and doing some test with replica=4, and got<br>
following &#39;unable to get lock error&#39;, while it seems the lock has been<br>
acquired by itself already. is this a deadlock?<br>
<br>
any other volume command will be fail with error message like &#39;another<br>
transaction is in progress&#39;.<br>
</blockquote>
<br></div>
The locking problem is related to the cluster wide locking done by glusterd for performing a volume operation. A restart of glusterd on all nodes can help in overcoming this problem.<br>
<br>
Is there a sequence of steps that lead to this problem?<span class="HOEnZb"><font color="#888888"><br>
<br>
<br>
-Vijay<br>
</font></span></blockquote></div><br></div>