<div dir="ltr"><div><div><div><div><div><div><div>Hey Kaleb,<br><br></div>Thanks for your response. <br></div>Yes, the brick fs is ext4 (therefore the log entries &quot;0-management: tune2fs exited with non-zero exit status&quot;). <br>
<br></div><div>e2fsprogs package is installed. tune2fs command is also available. <br></div><div><br></div>By the way, I forgot to mention the version:<br></div>glusterfs 3.4.2<br></div>Ubuntu 14.04 LTS<br><br></div>What exactly is the glusterfs daemon trying to do? Does it just want to get the information of how many inodes there are on the brick with &quot;tune2fs -l $brick&quot;?<br>
</div>If yes, then the issue is most likely a permission issue. <br>We&#39;re running the glusterfs daemon within an LXC container. The LV is directly mounted into the container (through the fstab config file in /var/lib/lxc/lxcname/fstab). <br>
Within the LXC, tune2fs doesn&#39;t work and returns &quot;1&quot;:<br><br><div><div># tune2fs -l /dev/lxc1/storage03-brick<br>tune2fs 1.42.9 (4-Feb-2014)<br>tune2fs: No such file or directory while trying to open /dev/lxc1/storage03-brick<br>
Couldn&#39;t find valid filesystem superblock.<br># echo $?<br>1<br><br></div><div>When I run the same on the physical server, the tune2fs command works:<br><br># tune2fs -l /dev/lxc1/storage03-brick<br>tune2fs 1.42.9 (4-Feb-2014)<br>
Filesystem volume name:   &lt;none&gt;<br>Last mounted on:          /usr/lib/x86_64-linux-gnu/lxc<br>Filesystem UUID:          18f84853-4070-4c6a-af95-efb27fe3eace<br>Filesystem magic number:  0xEF53<br>Filesystem revision #:    1 (dynamic)<br>
Filesystem features:      has_journal ext_attr resize_inode dir_index filetype needs_recovery sparse_super large_file<br>Filesystem flags:         signed_directory_hash <br>Default mount options:    user_xattr acl<br>Filesystem state:         clean<br>
[...]<br></div><div><br></div><div>Thanks for pointing me in the right direction :).<br><br>cheers<br></div></div></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Fri, Jun 20, 2014 at 1:16 PM, Kaleb S. KEITHLEY <span dir="ltr">&lt;<a href="mailto:kkeithle@redhat.com" target="_blank">kkeithle@redhat.com</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">You probably need to add xfsprogs (rpm) or the dpkg equivalent, assuming your brick is an xfs volume.<br>
<br>
Or if the brick is ext4, then you need to install e2fsprogs.<div><div class="h5"><br>
<br>
<br>
<br>
On 06/20/2014 04:33 AM, Claudio Kuenzler wrote:<br>
</div></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div class="h5">
Hello list,<br>
<br>
I am seeing continuously repeated log entries in<br>
/var/log/glusterfs/etc-<u></u>glusterfs-glusterd.vol.log:<br>
<br>
-------------- snipp ------------<br>
[2014-06-20 08:26:32.273383] I<br>
[glusterd-handler.c:3260:__<u></u>glusterd_handle_status_volume] 0-management:<br>
Received status volume req for volume applications<br>
[2014-06-20 08:26:32.400642] E<br>
[glusterd-utils.c:4584:<u></u>glusterd_add_inode_size_to_<u></u>dict] 0-management:<br>
tune2fs exited with non-zero exit status<br>
[2014-06-20 08:26:32.400691] E<br>
[glusterd-utils.c:4604:<u></u>glusterd_add_inode_size_to_<u></u>dict] 0-management:<br>
failed to get inode size<br>
[2014-06-20 08:26:48.550989] E<br>
[glusterd-utils.c:4584:<u></u>glusterd_add_inode_size_to_<u></u>dict] 0-management:<br>
tune2fs exited with non-zero exit status<br>
[2014-06-20 08:26:48.551041] E<br>
[glusterd-utils.c:4604:<u></u>glusterd_add_inode_size_to_<u></u>dict] 0-management:<br>
failed to get inode size<br>
[2014-06-20 08:26:49.271236] E<br>
[glusterd-utils.c:4584:<u></u>glusterd_add_inode_size_to_<u></u>dict] 0-management:<br>
tune2fs exited with non-zero exit status<br>
[2014-06-20 08:26:49.271300] E<br>
[glusterd-utils.c:4604:<u></u>glusterd_add_inode_size_to_<u></u>dict] 0-management:<br>
failed to get inode size<br>
[2014-06-20 08:26:55.311658] I<br>
[glusterd-volume-ops.c:478:__<u></u>glusterd_handle_cli_heal_<u></u>volume]<br>
0-management: Received heal vol req for volume home<br>
[2014-06-20 08:26:55.386682] I<br>
[glusterd-handler.c:3260:__<u></u>glusterd_handle_status_volume] 0-management:<br>
Received status volume req for volume home<br>
[2014-06-20 08:26:55.515313] E<br>
[glusterd-utils.c:4584:<u></u>glusterd_add_inode_size_to_<u></u>dict] 0-management:<br>
tune2fs exited with non-zero exit status<br>
[2014-06-20 08:26:55.515364] E<br>
[glusterd-utils.c:4604:<u></u>glusterd_add_inode_size_to_<u></u>dict] 0-management:<br>
failed to get inode size<br>
[2014-06-20 08:27:07.476962] E<br>
[glusterd-utils.c:4584:<u></u>glusterd_add_inode_size_to_<u></u>dict] 0-management:<br>
tune2fs exited with non-zero exit status<br>
[2014-06-20 08:27:07.477017] E<br>
[glusterd-utils.c:4604:<u></u>glusterd_add_inode_size_to_<u></u>dict] 0-management:<br>
failed to get inode size<br>
[2014-06-20 08:27:18.321956] E<br>
[glusterd-utils.c:4584:<u></u>glusterd_add_inode_size_to_<u></u>dict] 0-management:<br>
tune2fs exited with non-zero exit status<br>
[2014-06-20 08:27:18.322011] E<br>
[glusterd-utils.c:4604:<u></u>glusterd_add_inode_size_to_<u></u>dict] 0-management:<br>
failed to get inode size<br>
[2014-06-20 08:27:28.366934] E<br>
[glusterd-utils.c:4584:<u></u>glusterd_add_inode_size_to_<u></u>dict] 0-management:<br>
tune2fs exited with non-zero exit status<br>
[2014-06-20 08:27:28.366995] E<br>
[glusterd-utils.c:4604:<u></u>glusterd_add_inode_size_to_<u></u>dict] 0-management:<br>
failed to get inode size<br>
[2014-06-20 08:27:57.158702] I<br>
[glusterd-volume-ops.c:478:__<u></u>glusterd_handle_cli_heal_<u></u>volume]<br>
0-management: Received heal vol req for volume backup<br>
[2014-06-20 08:27:57.231446] I<br>
[glusterd-handler.c:3260:__<u></u>glusterd_handle_status_volume] 0-management:<br>
Received status volume req for volume backup<br>
[2014-06-20 08:27:57.347860] E<br>
[glusterd-utils.c:4584:<u></u>glusterd_add_inode_size_to_<u></u>dict] 0-management:<br>
tune2fs exited with non-zero exit status<br>
[2014-06-20 08:27:57.347957] E<br>
[glusterd-utils.c:4604:<u></u>glusterd_add_inode_size_to_<u></u>dict] 0-management:<br>
failed to get inode size<br>
[2014-06-20 08:27:58.404337] E<br>
[glusterd-utils.c:4584:<u></u>glusterd_add_inode_size_to_<u></u>dict] 0-management:<br>
tune2fs exited with non-zero exit status<br>
[2014-06-20 08:27:58.404485] E<br>
[glusterd-utils.c:4604:<u></u>glusterd_add_inode_size_to_<u></u>dict] 0-management:<br>
failed to get inode size<br>
[2014-06-20 08:28:32.520949] E<br>
[glusterd-utils.c:4584:<u></u>glusterd_add_inode_size_to_<u></u>dict] 0-management:<br>
tune2fs exited with non-zero exit status<br>
[2014-06-20 08:28:32.521023] E<br>
[glusterd-utils.c:4604:<u></u>glusterd_add_inode_size_to_<u></u>dict] 0-management:<br>
failed to get inode size<br>
[2014-06-20 08:28:48.230856] E<br>
[glusterd-utils.c:4584:<u></u>glusterd_add_inode_size_to_<u></u>dict] 0-management:<br>
tune2fs exited with non-zero exit status<br>
[2014-06-20 08:28:48.230911] E<br>
[glusterd-utils.c:4604:<u></u>glusterd_add_inode_size_to_<u></u>dict] 0-management:<br>
failed to get inode size<br>
[2014-06-20 08:28:48.505597] E<br>
[glusterd-utils.c:4584:<u></u>glusterd_add_inode_size_to_<u></u>dict] 0-management:<br>
tune2fs exited with non-zero exit status<br>
[2014-06-20 08:28:48.505646] E<br>
[glusterd-utils.c:4604:<u></u>glusterd_add_inode_size_to_<u></u>dict] 0-management:<br>
failed to get inode size<br>
-------------- end snipp ------------<br>
<br>
On my research I came across a source code commit<br>
(<a href="https://forge.gluster.org/glusterfs-core/glusterfs/commit/3f81c44a03e9ab78be2b4a69e3e36d41a4de324a/diffs?diffmode=sidebyside&amp;fragment=1" target="_blank">https://forge.gluster.org/<u></u>glusterfs-core/glusterfs/<u></u>commit/<u></u>3f81c44a03e9ab78be2b4a69e3e36d<u></u>41a4de324a/diffs?diffmode=<u></u>sidebyside&amp;fragment=1</a>)<br>

where the inode size from different fs types is retreived (glusterd:<br>
Used runner&#39;s RUN_PIPE to get inode size in xfs/ext3/ext4).<br>
<br>
Is the gluster management doing this because of the received heal<br>
request (Received status volume req for volume applications)?<br>
<br>
As these are errors, I worry about the consistency of the glusterfs<br>
volume. Anyone having had a similar issue?<br>
<br>
Thanks,<br>
Claudio<br>
<br>
<br></div></div>
______________________________<u></u>_________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://supercolony.gluster.<u></u>org/mailman/listinfo/gluster-<u></u>users</a><br>
<br><span class="HOEnZb"><font color="#888888">
</font></span></blockquote><span class="HOEnZb"><font color="#888888">
<br>
-- <br>
<br>
Kaleb<br>
______________________________<u></u>_________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://supercolony.gluster.<u></u>org/mailman/listinfo/gluster-<u></u>users</a><br>
</font></span></blockquote></div><br></div>