<div dir="ltr">Hi,<div><br></div><div>I had a 4 nodes in replication setup.</div><div style>After removing one of the nodes with:</div><div style><br></div><div style><div>gluster&gt; volume remove-brick images_1 replica 3  vmhost5:/exports/1</div>
<div>Removing brick(s) can result in data loss. Do you want to Continue? (y/n) y</div><div>Remove Brick commit force successful</div><div><br></div><div><br></div><div style>I started to see a high cpu usage on 2 of the remaining boxes, and this error in glustershd.log:</div>
<div style><br></div><div style><div>[2013-04-18 12:40:47.160559] E [afr-self-heald.c:685:_link_inode_update_loc] 0-images_1-replicate-0: inode link failed on the inode (00000000-0000-0000-0000-000000000000)</div><div>[2013-04-18 12:41:55.784510] I [afr-self-heald.c:1082:afr_dir_exclusive_crawl] 0-images_1-replicate-0: Another crawl is in progress for images_1-client-1</div>
<div><br></div><div style>any ideas?</div><div style><br></div></div></div></div>