<html dir="ltr"><head><meta http-equiv="Content-Type" content="text/html; charset=iso-8859-1" /><style id="owaParaStyle" type="text/css">P {margin-top:0;margin-bottom:0;}</style></head><body ocsi="0" fpstyle="1">Heal-failed can be for any reason that&#39;s not defined as split brain. The only place I&#39;ve been able to find clues is in the log files. Look at the timestamp on the heal-failed output and match it to log entries in glustershd logs. <br><br><div class="gmail_quote">On November 7, 2014 6:49:36 PM PST, Peter Auyeung &lt;pauyeung@connexity.com&gt; wrote:<blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;">






<div style="direction: ltr;font-family: Tahoma;color: #000000;font-size: 10pt;">I have a node down while gfs still open for writing.<br />
<br />
Got tons of heal-failed on a replicated volume showing as gfid.<br />
<br />
Tried gfid-resolver and got the following:<br />
<br />
# ./gfid-resolver.sh /brick02/gfs/ 88417c43-7d0f-4ec5-8fcd-f696617b5bc1<br />
88417c43-7d0f-4ec5-8fcd-f696617b5bc1&nbsp;&nbsp;&nbsp; ==&nbsp;&nbsp;&nbsp; File:&nbsp;&nbsp;&nbsp; 11/07/14 18:47:19 [ /root/scripts ]<br />
<br />
Any one has clue how to resolve and fix these heal-failed entries??<br />
<br />
<br />
# gluster volume heal sas02 info heal-failed<br />
Gathering list of heal failed entries on volume sas02 has been successful<br />
<br />
Brick glusterprod001.bo.shopzilla.sea:/brick02/gfs<br />
Number of entries: 0<br />
<br />
Brick glusterprod002.bo.shopzilla.sea:/brick02/gfs<br />
Number of entries: 1024<br />
at&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; path on brick<br />
-----------------------------------<br />
2014-11-08 01:22:23 &lt;gfid:88417c43-7d0f-4ec5-8fcd-f696617b5bc1&gt;<br />
2014-11-08 01:22:23 &lt;gfid:d0d9e3aa-45ef-4a5c-8ccb-1a5859ff658c&gt;<br />
2014-11-08 01:22:23 &lt;gfid:81a8867c-f0ef-4390-ad84-a4b1b3393842&gt;<br />
2014-11-08 01:22:23 &lt;gfid:f7ed8fd8-f8bc-4c0c-8803-98a8e31ee46e&gt;<br />
2014-11-08 01:22:23 &lt;gfid:df451eec-e3e3-4e9a-9cb4-4991c68f0d62&gt;<br />
2014-11-08 01:22:23 &lt;gfid:4e759749-bf6c-4355-af48-17ca64c20428&gt;<br />
2014-11-08 01:22:23 &lt;gfid:72c5a979-3106-4130-b3a2-32a18cef7a39&gt;<br />
2014-11-08 01:22:23 &lt;gfid:15db8683-733c-4af4-ab97-e35af581c06f&gt;<br />
2014-11-08 01:22:23 &lt;gfid:ff86e3b4-b7ad-46a6-aa97-2437679a4c7f&gt;<br />
2014-11-08 01:22:23 &lt;gfid:574223c0-b705-4672-b387-6c5aa7f63d31&gt;<br />
2014-11-08 01:22:23 &lt;gfid:ca522f4f-3fc7-4dfa-823f-888e2269085e&gt;<br />
2014-11-08 01:22:23 &lt;gfid:56feab84-b4fa-414a-8173-1472913ed50c&gt;<br />
2014-11-08 01:22:23 &lt;gfid:c66bfc5e-8631-4422-aca4-c9f8f99c2ef2&gt;<br />
2014-11-08 01:22:23 &lt;gfid:69a20ce2-27dc-41fa-9883-83c1a2842ba8&gt;<br />
2014-11-08 01:22:23 &lt;gfid:1ab58d44-570e-4ac2-82b6-568dcfe9e530&gt;<br />
2014-11-08 01:22:23 &lt;gfid:face55f7-e8dc-48e9-a3fb-1aa126f0e829&gt;<br />
2014-11-08 01:22:23 &lt;gfid:a8fb721d-aaae-4bef-8fcc-d7da950a8c2f&gt;<br />
2014-11-08 01:22:23 &lt;gfid:45a35318-d208-4bb2-9826-3b37083ae4ab&gt;<br />
2014-11-08 01:22:23 &lt;gfid:d8174f82-15b2-4318-8953-2873c38bb628&gt;<br />
2014-11-08 01:22:23 &lt;gfid:689c26f7-2442-4c84-be98-e75a81d916ac&gt;<br />
2014-11-08 01:22:23 &lt;gfid:acd5e0b4-e12b-4af2-878e-1d197ef90061&gt;<br />
2014-11-08 01:22:23 &lt;gfid:90260d6f-cfe2-4949-a7e1-15c1cc3a914d&gt;<br />
2014-11-08 01:22:23 &lt;gfid:5bdd3c63-1873-4cfc-89c3-7ac21b9bb684&gt;<br />
2014-11-08 01:22:23 &lt;gfid:48b3f29b-fd3c-4147-b849-bac5ec3dd22b&gt;<br />
</div>


<p style="margin-top: 2.5em; margin-bottom: 1em; border-bottom: 1px solid #000"></p><pre class="k9mail"><hr /><br />Gluster-devel mailing list<br />Gluster-devel@gluster.org<br /><a href="http://supercolony.gluster.org/mailman/listinfo/gluster-devel">http://supercolony.gluster.org/mailman/listinfo/gluster-devel</a><br /></pre></blockquote></div><br>
-- <br>
Sent from my Android device with K-9 Mail. Please excuse my brevity.</body></html>