<div dir="ltr"><div>All,<br><br>Thanks for the replies. Unfortunately gluster vol info takes just as long as brick actions. I&#39;m also using IP address between gluster nodes, so there isn&#39;t any DNS resolution made.<br>

<br></div>However, just after I sent my initial email to the group gluster actions started working very quickly again. This was after about 2 days of slow performance from gluster actions and very low CPU use on both host and the hypervisor. Is there a way to troubleshoot this in the future?<br>

<div>
<div class="gmail_extra"><br><br><div class="gmail_quote">On Wed, May 21, 2014 at 7:18 AM, Anand Avati <span dir="ltr">&lt;<a href="mailto:avati@gluster.org" target="_blank">avati@gluster.org</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">


<p dir="ltr">Is it possible that each of your bricks is in its own vm, and the vm system drives (where /var/lib/glusterd resides) are all placed on the same host drive? Glusterd updates happen synchronously even in the latest release and the change to use buffered writes + fsync went into master only recently..<br>




</p>
<div class="gmail_quote"><div><div>On May 21, 2014 1:25 AM, &quot;Benjamin Kingston&quot; &lt;<a href="mailto:list@nexusnebula.net" target="_blank">list@nexusnebula.net</a>&gt; wrote:<br type="attribution"></div>
</div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div>
<div dir="ltr"><div><div><div>I&#39;m trying to get gluster working on a test lab and had excellent success setting up a volume and 14 bricks on the first go around. However I realized the reasoning behind using a subdirectory in each brick and decommissioned the whole volume to start over. I also deleted the /var/lib/glusterd directory and removed/installed the necessary gluster packages. I&#39;m running Scientific linux 6.4 with all recent updates.<br>





<br></div>Upon recreating the new volume with the new brick, I found the process very very slow, about 2-3 minutes to process the change. Adding additional bricks also takes the same amount of time as well as simple set parameter actions. This was with a distributed volume with only one host involved.<br>





<br></div>I notice in the cli log file, it constantly complains about not being able to guess the transport family, which an online search for the error or parts of the error only brought up issues that apply to older versions of gluster.<br>





<br></div>One thing of note, is I&#39;m currently trying a distributed volume with a 2nd host, and actions are still slow on the host containing the batch of bricks I&#39;m trying to add is very slow, however the other host with no volumes at this time runs gluster vol info volname very quickly. I will be trying to add bricks shortly, but since I had very quick response the first time around I&#39;m hoping someone may be able to shed some light for me.<br>





</div>
<br></div></div><div>_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a><br></div></blockquote></div>
</blockquote></div><br></div></div></div>