<div dir="ltr">One of the reasons for this could be address resolution. This is generally, in my observation, what takes up the longest time.<div><br></div><div>In any gluster operation involving addresses, including create volume, add-brick etc, address resolution is done to validate that the brick(s) given belong(s) to a member of the cluster. The address resolution is a blocking operation, and could lead to long waits like you&#39;ve observed. A volume info command on the other hand, does not involve any address resolution and returns instantly.</div>
<div><br></div><div>~kaushal</div><div><br></div><div><br></div></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Wed, May 21, 2014 at 1:41 PM, Benjamin Kingston <span dir="ltr">&lt;<a href="mailto:list@nexusnebula.net" target="_blank">list@nexusnebula.net</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div><div><div>I&#39;m trying to get gluster working on a test lab and had excellent success setting up a volume and 14 bricks on the first go around. However I realized the reasoning behind using a subdirectory in each brick and decommissioned the whole volume to start over. I also deleted the /var/lib/glusterd directory and removed/installed the necessary gluster packages. I&#39;m running Scientific linux 6.4 with all recent updates.<br>


<br></div>Upon recreating the new volume with the new brick, I found the process very very slow, about 2-3 minutes to process the change. Adding additional bricks also takes the same amount of time as well as simple set parameter actions. This was with a distributed volume with only one host involved.<br>


<br></div>I notice in the cli log file, it constantly complains about not being able to guess the transport family, which an online search for the error or parts of the error only brought up issues that apply to older versions of gluster.<br>


<br></div>One thing of note, is I&#39;m currently trying a distributed volume with a 2nd host, and actions are still slow on the host containing the batch of bricks I&#39;m trying to add is very slow, however the other host with no volumes at this time runs gluster vol info volname very quickly. I will be trying to add bricks shortly, but since I had very quick response the first time around I&#39;m hoping someone may be able to shed some light for me.<br>


</div>
<br>_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a><br></blockquote></div><br></div>