<div dir="ltr"><div class="gmail_extra"><br><br><div class="gmail_quote">On Fri, May 30, 2014 at 2:24 PM, Raghavendra Bhat <span dir="ltr">&lt;<a href="mailto:rabhat@redhat.com" target="_blank">rabhat@redhat.com</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><br>
Hi,<br>
<br>
Currently the lru-limit of the inode table in brick processes is 16384. There is a option to configure it to some other value. The protocol/server uses inode_lru_limit variable present in its private structure while creating the inode table (whose default value is 16384). When the option is reconfigured via volume set option the protocol/server&#39;s inode_lru_limit variable present in its private structure is changed. But the actual size of the inode table still remains same as old one. Only when the brick is restarted the newly set value comes into picture. Is it ok? Should we change the inode table&#39;s lru_limit variable also as part of reconfigure? If so, then probably we might have to remove the extra inodes present in the lru list by calling inode_table_prune.<br>
</blockquote><div><br></div><div>Yes, I think we should change the inode table&#39;s lru limit too and call inode_table_prune. From what I know, I don&#39;t think this change would cause any problems.<br> <br></div><blockquote class="gmail_quote" style="margin:0pt 0pt 0pt 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">

<br>
Please provide feedback<br>
<br>
<br>
Regards,<br>
Raghavendra Bhat<br>
______________________________<u></u>_________________<br>
Gluster-devel mailing list<br>
<a href="mailto:Gluster-devel@gluster.org" target="_blank">Gluster-devel@gluster.org</a><br>
<a href="http://supercolony.gluster.org/mailman/listinfo/gluster-devel" target="_blank">http://supercolony.gluster.<u></u>org/mailman/listinfo/gluster-<u></u>devel</a><br>
</blockquote></div><br><br clear="all"><br>-- <br>Raghavendra G<br>
</div></div>