<div dir="ltr">I am not seeing below message in any log files under /var/log/glusterfs directroy and its subdirectories.<div><br></div><div><pre class="" style="font-size:9pt;margin-top:0px;margin-bottom:0px;color:rgb(53,53,53)">health-check failed, going down</pre></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Oct 31, 2014 at 3:16 PM, Kiran Patil <span dir="ltr">&lt;<a href="mailto:kiran@fractalio.com" target="_blank">kiran@fractalio.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">I set zfs pool failmode to continue, which should disable only write and not read as explained below<div><br></div><div><div>failmode=wait | continue | panic</div><div><br></div><div>           Controls the system behavior in the event of catastrophic pool failure. This condition is typically a result of a loss of connec-</div><div>           tivity  to  the underlying storage device(s) or a failure of all devices within the pool. The behavior of such an event is deter-</div><div>           mined as follows:</div><div><br></div><div>           wait        Blocks all I/O access until the device connectivity is recovered and the errors are  cleared.  This  is  the  default</div><div>                       behavior.</div><div><br></div><div>           continue    Returns  EIO  to  any  new  write  I/O  requests  but allows reads to any of the remaining healthy devices. Any write</div><div>                       requests that have yet to be committed to disk would be blocked.</div><div><br></div><div>           panic       Prints out a message to the console and generates a system crash dump.</div></div><div><br></div><div><br></div><div>Now, I rebuilt the glusterfs master and tried to see if failed driver results in failed brick and in turn kill brick process and the brick is not going offline.<br></div><div><br></div><div><span class=""><div># gluster volume status</div><div>Status of volume: repvol</div><div>Gluster process<span style="white-space:pre-wrap">                                                </span>Port<span style="white-space:pre-wrap">        </span>Online<span style="white-space:pre-wrap">        </span>Pid</div><div>------------------------------------------------------------------------------</div></span><div>Brick 192.168.1.246:/zp1/brick1<span style="white-space:pre-wrap">                                </span>49152<span style="white-space:pre-wrap">        </span>Y<span style="white-space:pre-wrap">        </span>2400</div><div>Brick 192.168.1.246:/zp2/brick2<span style="white-space:pre-wrap">                                </span>49153<span style="white-space:pre-wrap">        </span>Y<span style="white-space:pre-wrap">        </span>2407</div><div>NFS Server on localhost<span style="white-space:pre-wrap">                                        </span>2049<span style="white-space:pre-wrap">        </span>Y<span style="white-space:pre-wrap">        </span>30488</div><div>Self-heal Daemon on localhost<span style="white-space:pre-wrap">                                </span>N/A<span style="white-space:pre-wrap">        </span>Y<span style="white-space:pre-wrap">        </span>30495</div><span class=""><div> </div><div>Task Status of Volume repvol</div><div>------------------------------------------------------------------------------</div><div>There are no active volume tasks</div></span></div><div><br></div><div><br></div><div>The /var/log/gluster/mnt.log output:</div><div><br></div><div><div>[2014-10-31 09:18:15.934700] W [rpc-clnt-ping.c:154:rpc_clnt_ping_cbk] 0-repvol-client-1: socket disconnected</div><div>[2014-10-31 09:18:15.934725] I [client.c:2215:client_rpc_notify] 0-repvol-client-1: disconnected from repvol-client-1. Client process will keep trying to connect to glusterd until brick&#39;s port is available</div><div>[2014-10-31 09:18:15.935238] I [rpc-clnt.c:1765:rpc_clnt_reconfig] 0-repvol-client-1: changing port to 49153 (from 0)</div></div><div><br></div><div>Now if I copy a file to /mnt it copied without any hang and brick still shows online.</div><div><br></div><div>Thanks,</div><div>Kiran.</div></div><div class="HOEnZb"><div class="h5"><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Oct 28, 2014 at 3:44 PM, Niels de Vos <span dir="ltr">&lt;<a href="mailto:ndevos@redhat.com" target="_blank">ndevos@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span>On Tue, Oct 28, 2014 at 02:08:32PM +0530, Kiran Patil wrote:<br>
&gt; The content of file zp2-brick2.log is at <a href="http://ur1.ca/iku0l" target="_blank">http://ur1.ca/iku0l</a> (<br>
&gt; <a href="http://fpaste.org/145714/44849041/" target="_blank">http://fpaste.org/145714/44849041/</a> )<br>
&gt;<br>
&gt; I can&#39;t open the file /zp2/brick2/.glusterfs/health_check since it hangs<br>
&gt; due to no disk present.<br>
&gt;<br>
&gt; Let me know the filename pattern, so that I can find it.<br>
<br>
</span>Hmm, if there is a hang while reading from the disk, it will not get<br>
detected in the current solution. We implemented failure detection on<br>
top of the detection that is done by the filesystem. Suspending a<br>
filesystem with fsfreeze or similar should probably not be seen as a<br>
failure.<br>
<br>
In your case, it seems that the filesystem suspends itself when the disk<br>
went away. I have no idea if it is possible to configure ZFS to not<br>
suspend, but return an error to the reading/writing application. Please<br>
check with such an option.<br>
<br>
If you find such an option, please update the wiki page and recommend<br>
enabling it:<br>
- <a href="http://gluster.org/community/documentation/index.php/GlusterOnZFS" target="_blank">http://gluster.org/community/documentation/index.php/GlusterOnZFS</a><br>
<br>
<br>
Thanks,<br>
Niels<br>
<div><div><br>
<br>
&gt;<br>
&gt; On Tue, Oct 28, 2014 at 1:42 PM, Niels de Vos &lt;<a href="mailto:ndevos@redhat.com" target="_blank">ndevos@redhat.com</a>&gt; wrote:<br>
&gt;<br>
&gt; &gt; On Tue, Oct 28, 2014 at 01:10:56PM +0530, Kiran Patil wrote:<br>
&gt; &gt; &gt; I applied the patches, compiled and installed the gluster.<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; # glusterfs --version<br>
&gt; &gt; &gt; glusterfs 3.7dev built on Oct 28 2014 12:03:10<br>
&gt; &gt; &gt; Repository revision: git://<a href="http://git.gluster.com/glusterfs.git" target="_blank">git.gluster.com/glusterfs.git</a><br>
&gt; &gt; &gt; Copyright (c) 2006-2013 Red Hat, Inc. &lt;<a href="http://www.redhat.com/" target="_blank">http://www.redhat.com/</a>&gt;<br>
&gt; &gt; &gt; GlusterFS comes with ABSOLUTELY NO WARRANTY.<br>
&gt; &gt; &gt; It is licensed to you under your choice of the GNU Lesser<br>
&gt; &gt; &gt; General Public License, version 3 or any later version (LGPLv3<br>
&gt; &gt; &gt; or later), or the GNU General Public License, version 2 (GPLv2),<br>
&gt; &gt; &gt; in all cases as published by the Free Software Foundation.<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; # git log<br>
&gt; &gt; &gt; commit 990ce16151c3af17e4cdaa94608b737940b60e4d<br>
&gt; &gt; &gt; Author: Lalatendu Mohanty &lt;<a href="mailto:lmohanty@redhat.com" target="_blank">lmohanty@redhat.com</a>&gt;<br>
&gt; &gt; &gt; Date:   Tue Jul 1 07:52:27 2014 -0400<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt;     Posix: Brick failure detection fix for ext4 filesystem<br>
&gt; &gt; &gt; ...<br>
&gt; &gt; &gt; ...<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; I see below messages<br>
&gt; &gt;<br>
&gt; &gt; Many thanks Kiran!<br>
&gt; &gt;<br>
&gt; &gt; Do you have the messages from the brick that uses the zp2 mountpoint?<br>
&gt; &gt;<br>
&gt; &gt; There also should be a file with a timestamp when the last check was<br>
&gt; &gt; done successfully. If the brick is still running, this timestamp should<br>
&gt; &gt; get updated every storage.health-check-interval seconds:<br>
&gt; &gt;     /zp2/brick2/.glusterfs/health_check<br>
&gt; &gt;<br>
&gt; &gt; Niels<br>
&gt; &gt;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; File /var/log/glusterfs/etc-glusterfs-glusterd.vol.log :<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; The message &quot;I [MSGID: 106005]<br>
&gt; &gt; &gt; [glusterd-handler.c:4142:__glusterd_brick_rpc_notify] 0-management: Brick<br>
&gt; &gt; &gt; 192.168.1.246:/zp2/brick2 has disconnected from glusterd.&quot; repeated 39<br>
&gt; &gt; &gt; times between [2014-10-28 05:58:09.209419] and [2014-10-28<br>
&gt; &gt; 06:00:06.226330]<br>
&gt; &gt; &gt; [2014-10-28 06:00:09.226507] W [socket.c:545:__socket_rwv] 0-management:<br>
&gt; &gt; &gt; readv on /var/run/6154ed2845b7f728a3acdce9d69e08ee.socket failed (Invalid<br>
&gt; &gt; &gt; argument)<br>
&gt; &gt; &gt; [2014-10-28 06:00:09.226712] I [MSGID: 106005]<br>
&gt; &gt; &gt; [glusterd-handler.c:4142:__glusterd_brick_rpc_notify] 0-management: Brick<br>
&gt; &gt; &gt; 192.168.1.246:/zp2/brick2 has disconnected from glusterd.<br>
&gt; &gt; &gt; [2014-10-28 06:00:12.226881] W [socket.c:545:__socket_rwv] 0-management:<br>
&gt; &gt; &gt; readv on /var/run/6154ed2845b7f728a3acdce9d69e08ee.socket failed (Invalid<br>
&gt; &gt; &gt; argument)<br>
&gt; &gt; &gt; [2014-10-28 06:00:15.227249] W [socket.c:545:__socket_rwv] 0-management:<br>
&gt; &gt; &gt; readv on /var/run/6154ed2845b7f728a3acdce9d69e08ee.socket failed (Invalid<br>
&gt; &gt; &gt; argument)<br>
&gt; &gt; &gt; [2014-10-28 06:00:18.227616] W [socket.c:545:__socket_rwv] 0-management:<br>
&gt; &gt; &gt; readv on /var/run/6154ed2845b7f728a3acdce9d69e08ee.socket failed (Invalid<br>
&gt; &gt; &gt; argument)<br>
&gt; &gt; &gt; [2014-10-28 06:00:21.227976] W [socket.c:545:__socket_rwv] 0-management:<br>
&gt; &gt; &gt; readv on<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; .....<br>
&gt; &gt; &gt; .....<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; [2014-10-28 06:19:15.142867] I<br>
&gt; &gt; &gt; [glusterd-handler.c:1280:__glusterd_handle_cli_get_volume] 0-glusterd:<br>
&gt; &gt; &gt; Received get vol req<br>
&gt; &gt; &gt; The message &quot;I [MSGID: 106005]<br>
&gt; &gt; &gt; [glusterd-handler.c:4142:__glusterd_brick_rpc_notify] 0-management: Brick<br>
&gt; &gt; &gt; 192.168.1.246:/zp2/brick2 has disconnected from glusterd.&quot; repeated 12<br>
&gt; &gt; &gt; times between [2014-10-28 06:18:09.368752] and [2014-10-28<br>
&gt; &gt; 06:18:45.373063]<br>
&gt; &gt; &gt; [2014-10-28 06:23:38.207649] W [glusterfsd.c:1194:cleanup_and_exit] (--&gt;<br>
&gt; &gt; &gt; 0-: received signum (15), shutting down<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; dmesg output:<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; SPLError: 7869:0:(spl-err.c:67:vcmn_err()) WARNING: Pool &#39;zp2&#39; has<br>
&gt; &gt; &gt; encountered an uncorrectable I/O failure and has been suspended.<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; SPLError: 7868:0:(spl-err.c:67:vcmn_err()) WARNING: Pool &#39;zp2&#39; has<br>
&gt; &gt; &gt; encountered an uncorrectable I/O failure and has been suspended.<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; SPLError: 7869:0:(spl-err.c:67:vcmn_err()) WARNING: Pool &#39;zp2&#39; has<br>
&gt; &gt; &gt; encountered an uncorrectable I/O failure and has been suspended.<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; The brick is still online.<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; # gluster volume status<br>
&gt; &gt; &gt; Status of volume: repvol<br>
&gt; &gt; &gt; Gluster process Port Online Pid<br>
&gt; &gt; &gt;<br>
&gt; &gt; ------------------------------------------------------------------------------<br>
&gt; &gt; &gt; Brick 192.168.1.246:/zp1/brick1 49152 Y 4067<br>
&gt; &gt; &gt; Brick 192.168.1.246:/zp2/brick2 49153 Y 4078<br>
&gt; &gt; &gt; NFS Server on localhost 2049 Y 4092<br>
&gt; &gt; &gt; Self-heal Daemon on localhost N/A Y 4097<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Task Status of Volume repvol<br>
&gt; &gt; &gt;<br>
&gt; &gt; ------------------------------------------------------------------------------<br>
&gt; &gt; &gt; There are no active volume tasks<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; # gluster volume info<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Volume Name: repvol<br>
&gt; &gt; &gt; Type: Replicate<br>
&gt; &gt; &gt; Volume ID: ba1e7c6d-1e1c-45cd-8132-5f4fa4d2d22b<br>
&gt; &gt; &gt; Status: Started<br>
&gt; &gt; &gt; Number of Bricks: 1 x 2 = 2<br>
&gt; &gt; &gt; Transport-type: tcp<br>
&gt; &gt; &gt; Bricks:<br>
&gt; &gt; &gt; Brick1: 192.168.1.246:/zp1/brick1<br>
&gt; &gt; &gt; Brick2: 192.168.1.246:/zp2/brick2<br>
&gt; &gt; &gt; Options Reconfigured:<br>
&gt; &gt; &gt; storage.health-check-interval: 30<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Let me know if you need further information.<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Thanks,<br>
&gt; &gt; &gt; Kiran.<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; On Tue, Oct 28, 2014 at 11:44 AM, Kiran Patil &lt;<a href="mailto:kiran@fractalio.com" target="_blank">kiran@fractalio.com</a>&gt;<br>
&gt; &gt; wrote:<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; I changed  git fetch git://<a href="http://review.gluster.org/glusterfs" target="_blank">review.gluster.org/glusterfs</a>  to git fetch<br>
&gt; &gt; &gt; &gt; <a href="http://review.gluster.org/glusterfs" target="_blank">http://review.gluster.org/glusterfs</a>  and now it works.<br>
&gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; Thanks,<br>
&gt; &gt; &gt; &gt; Kiran.<br>
&gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; On Tue, Oct 28, 2014 at 11:13 AM, Kiran Patil &lt;<a href="mailto:kiran@fractalio.com" target="_blank">kiran@fractalio.com</a>&gt;<br>
&gt; &gt; wrote:<br>
&gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt;&gt; Hi Niels,<br>
&gt; &gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt; &gt;&gt; I am getting &quot;fatal: Couldn&#39;t find remote ref refs/changes/13/8213/9&quot;<br>
&gt; &gt; &gt; &gt;&gt; error.<br>
&gt; &gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt; &gt;&gt; Steps to reproduce the issue.<br>
&gt; &gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt; &gt;&gt; 1) # git clone git://<a href="http://review.gluster.org/glusterfs" target="_blank">review.gluster.org/glusterfs</a><br>
&gt; &gt; &gt; &gt;&gt; Initialized empty Git repository in /root/gluster-3.6/glusterfs/.git/<br>
&gt; &gt; &gt; &gt;&gt; remote: Counting objects: 84921, done.<br>
&gt; &gt; &gt; &gt;&gt; remote: Compressing objects: 100% (48307/48307), done.<br>
&gt; &gt; &gt; &gt;&gt; remote: Total 84921 (delta 57264), reused 63233 (delta 36254)<br>
&gt; &gt; &gt; &gt;&gt; Receiving objects: 100% (84921/84921), 23.23 MiB | 192 KiB/s, done.<br>
&gt; &gt; &gt; &gt;&gt; Resolving deltas: 100% (57264/57264), done.<br>
&gt; &gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt; &gt;&gt; 2) # cd glusterfs<br>
&gt; &gt; &gt; &gt;&gt;     # git branch<br>
&gt; &gt; &gt; &gt;&gt;     * master<br>
&gt; &gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt; &gt;&gt; 3) # git fetch git://<a href="http://review.gluster.org/glusterfs" target="_blank">review.gluster.org/glusterfs</a><br>
&gt; &gt; refs/changes/13/8213/9<br>
&gt; &gt; &gt; &gt;&gt; &amp;&amp; git checkout FETCH_HEAD<br>
&gt; &gt; &gt; &gt;&gt; fatal: Couldn&#39;t find remote ref refs/changes/13/8213/9<br>
&gt; &gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt; &gt;&gt; Note: I also tried the above steps on git repo<br>
&gt; &gt; &gt; &gt;&gt; <a href="https://github.com/gluster/glusterfs" target="_blank">https://github.com/gluster/glusterfs</a> and the result is same as above.<br>
&gt; &gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt; &gt;&gt; Please let me know if I miss any steps.<br>
&gt; &gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt; &gt;&gt; Thanks,<br>
&gt; &gt; &gt; &gt;&gt; Kiran.<br>
&gt; &gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt; &gt;&gt; On Mon, Oct 27, 2014 at 5:53 PM, Niels de Vos &lt;<a href="mailto:ndevos@redhat.com" target="_blank">ndevos@redhat.com</a>&gt;<br>
&gt; &gt; wrote:<br>
&gt; &gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt; &gt;&gt;&gt; On Mon, Oct 27, 2014 at 05:19:13PM +0530, Kiran Patil wrote:<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; Hi,<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt;<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; I created replicated vol with two bricks on the same node and<br>
&gt; &gt; copied<br>
&gt; &gt; &gt; &gt;&gt;&gt; some<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; data to it.<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt;<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; Now removed the disk which has hosted one of the brick of the<br>
&gt; &gt; volume.<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt;<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; Storage.health-check-interval is set to 30 seconds.<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt;<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; I could see the disk is unavailable using zpool command of zfs on<br>
&gt; &gt; &gt; &gt;&gt;&gt; linux but<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; the gluster volume status still displays the brick process running<br>
&gt; &gt; &gt; &gt;&gt;&gt; which<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; should have been shutdown by this time.<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt;<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; Is this a bug in 3.6 since it is mentioned as feature &quot;<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt;<br>
&gt; &gt; &gt; &gt;&gt;&gt;<br>
&gt; &gt; <a href="https://github.com/gluster/glusterfs/blob/release-3.6/doc/features/brick-failure-detection.md" target="_blank">https://github.com/gluster/glusterfs/blob/release-3.6/doc/features/brick-failure-detection.md</a><br>
&gt; &gt; &gt; &gt;&gt;&gt; &quot;<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt;  or am I doing any mistakes here?<br>
&gt; &gt; &gt; &gt;&gt;&gt;<br>
&gt; &gt; &gt; &gt;&gt;&gt; The initial detection of brick failures did not work for all<br>
&gt; &gt; &gt; &gt;&gt;&gt; filesystems. It may not work for ZFS too. A fix has been posted, but<br>
&gt; &gt; it<br>
&gt; &gt; &gt; &gt;&gt;&gt; has not been merged into the master branch yet. When the change has<br>
&gt; &gt; been<br>
&gt; &gt; &gt; &gt;&gt;&gt; merged, it can get backported to 3.6 and 3.5.<br>
&gt; &gt; &gt; &gt;&gt;&gt;<br>
&gt; &gt; &gt; &gt;&gt;&gt; You may want to test with the patch applied, and add your &quot;+1<br>
&gt; &gt; Verified&quot;<br>
&gt; &gt; &gt; &gt;&gt;&gt; to the change in case it makes it functional for you:<br>
&gt; &gt; &gt; &gt;&gt;&gt; - <a href="http://review.gluster.org/8213" target="_blank">http://review.gluster.org/8213</a><br>
&gt; &gt; &gt; &gt;&gt;&gt;<br>
&gt; &gt; &gt; &gt;&gt;&gt; Cheers,<br>
&gt; &gt; &gt; &gt;&gt;&gt; Niels<br>
&gt; &gt; &gt; &gt;&gt;&gt;<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt;<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; [root@fractal-c92e gluster-3.6]# gluster volume status<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; Status of volume: repvol<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; Gluster process Port Online Pid<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt;<br>
&gt; &gt; &gt; &gt;&gt;&gt;<br>
&gt; &gt; ------------------------------------------------------------------------------<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; Brick 192.168.1.246:/zp1/brick1 49154 Y 17671<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; Brick 192.168.1.246:/zp2/brick2 49155 Y 17682<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; NFS Server on localhost 2049 Y 17696<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; Self-heal Daemon on localhost N/A Y 17701<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt;<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; Task Status of Volume repvol<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt;<br>
&gt; &gt; &gt; &gt;&gt;&gt;<br>
&gt; &gt; ------------------------------------------------------------------------------<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; There are no active volume tasks<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt;<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt;<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; [root@fractal-c92e gluster-3.6]# gluster volume info<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt;<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; Volume Name: repvol<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; Type: Replicate<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; Volume ID: d4f992b1-1393-43b8-9fda-2e2b6e3b5039<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; Status: Started<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; Number of Bricks: 1 x 2 = 2<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; Transport-type: tcp<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; Bricks:<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; Brick1: 192.168.1.246:/zp1/brick1<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; Brick2: 192.168.1.246:/zp2/brick2<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; Options Reconfigured:<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; storage.health-check-interval: 30<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt;<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; [root@fractal-c92e gluster-3.6]# zpool status zp2<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt;   pool: zp2<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt;  state: UNAVAIL<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; status: One or more devices are faulted in response to IO failures.<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; action: Make sure the affected devices are connected, then run<br>
&gt; &gt; &#39;zpool<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; clear&#39;.<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt;    see: <a href="http://zfsonlinux.org/msg/ZFS-8000-HC" target="_blank">http://zfsonlinux.org/msg/ZFS-8000-HC</a><br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt;   scan: none requested<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; config:<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt;<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; NAME        STATE     READ WRITE CKSUM<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; zp2         UNAVAIL      0     0     0  insufficient replicas<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt;   sdb       UNAVAIL      0     0     0<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt;<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; errors: 2 data errors, use &#39;-v&#39; for a list<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt;<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt;<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; Thanks,<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; Kiran.<br>
&gt; &gt; &gt; &gt;&gt;&gt;<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; _______________________________________________<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; Gluster-devel mailing list<br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; <a href="mailto:Gluster-devel@gluster.org" target="_blank">Gluster-devel@gluster.org</a><br>
&gt; &gt; &gt; &gt;&gt;&gt; &gt; <a href="http://supercolony.gluster.org/mailman/listinfo/gluster-devel" target="_blank">http://supercolony.gluster.org/mailman/listinfo/gluster-devel</a><br>
&gt; &gt; &gt; &gt;&gt;&gt;<br>
&gt; &gt; &gt; &gt;&gt;&gt;<br>
&gt; &gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt; &gt;<br>
&gt; &gt;<br>
</div></div></blockquote></div><br></div>
</div></div></blockquote></div><br></div>