<div dir="ltr">Hi Niels,<div><br></div><div>I am getting &quot;fatal: Couldn&#39;t find remote ref refs/changes/13/8213/9&quot; error.</div><div><br></div><div>Steps to reproduce the issue.</div><div><br></div><div>1) # git clone git://<a href="http://review.gluster.org/glusterfs">review.gluster.org/glusterfs</a></div><div>Initialized empty Git repository in /root/gluster-3.6/glusterfs/.git/</div><div>remote: Counting objects: 84921, done.</div><div>remote: Compressing objects: 100% (48307/48307), done.</div><div>remote: Total 84921 (delta 57264), reused 63233 (delta 36254)</div><div>Receiving objects: 100% (84921/84921), 23.23 MiB | 192 KiB/s, done.</div><div>Resolving deltas: 100% (57264/57264), done.</div><div><br></div><div>2) # cd glusterfs</div><div>    # git branch</div><div>    * master</div><div><br></div><div>3) # git fetch git://<a href="http://review.gluster.org/glusterfs">review.gluster.org/glusterfs</a> refs/changes/13/8213/9 &amp;&amp; git checkout FETCH_HEAD</div><div>fatal: Couldn&#39;t find remote ref refs/changes/13/8213/9</div><div><br></div><div>Note: I also tried the above steps on git repo <a href="https://github.com/gluster/glusterfs">https://github.com/gluster/glusterfs</a> and the result is same as above.</div><div><br></div><div>Please let me know if I miss any steps.</div><div><br></div><div>Thanks,</div><div>Kiran.</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Oct 27, 2014 at 5:53 PM, Niels de Vos <span dir="ltr">&lt;<a href="mailto:ndevos@redhat.com" target="_blank">ndevos@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">On Mon, Oct 27, 2014 at 05:19:13PM +0530, Kiran Patil wrote:<br>
&gt; Hi,<br>
&gt;<br>
&gt; I created replicated vol with two bricks on the same node and copied some<br>
&gt; data to it.<br>
&gt;<br>
&gt; Now removed the disk which has hosted one of the brick of the volume.<br>
&gt;<br>
&gt; Storage.health-check-interval is set to 30 seconds.<br>
&gt;<br>
&gt; I could see the disk is unavailable using zpool command of zfs on linux but<br>
&gt; the gluster volume status still displays the brick process running which<br>
&gt; should have been shutdown by this time.<br>
&gt;<br>
&gt; Is this a bug in 3.6 since it is mentioned as feature &quot;<br>
&gt; <a href="https://github.com/gluster/glusterfs/blob/release-3.6/doc/features/brick-failure-detection.md" target="_blank">https://github.com/gluster/glusterfs/blob/release-3.6/doc/features/brick-failure-detection.md</a>&quot;<br>
&gt;  or am I doing any mistakes here?<br>
<br>
</span>The initial detection of brick failures did not work for all<br>
filesystems. It may not work for ZFS too. A fix has been posted, but it<br>
has not been merged into the master branch yet. When the change has been<br>
merged, it can get backported to 3.6 and 3.5.<br>
<br>
You may want to test with the patch applied, and add your &quot;+1 Verified&quot;<br>
to the change in case it makes it functional for you:<br>
- <a href="http://review.gluster.org/8213" target="_blank">http://review.gluster.org/8213</a><br>
<br>
Cheers,<br>
Niels<br>
<div><div class="h5"><br>
&gt;<br>
&gt; [root@fractal-c92e gluster-3.6]# gluster volume status<br>
&gt; Status of volume: repvol<br>
&gt; Gluster process Port Online Pid<br>
&gt; ------------------------------------------------------------------------------<br>
&gt; Brick 192.168.1.246:/zp1/brick1 49154 Y 17671<br>
&gt; Brick 192.168.1.246:/zp2/brick2 49155 Y 17682<br>
&gt; NFS Server on localhost 2049 Y 17696<br>
&gt; Self-heal Daemon on localhost N/A Y 17701<br>
&gt;<br>
&gt; Task Status of Volume repvol<br>
&gt; ------------------------------------------------------------------------------<br>
&gt; There are no active volume tasks<br>
&gt;<br>
&gt;<br>
&gt; [root@fractal-c92e gluster-3.6]# gluster volume info<br>
&gt;<br>
&gt; Volume Name: repvol<br>
&gt; Type: Replicate<br>
&gt; Volume ID: d4f992b1-1393-43b8-9fda-2e2b6e3b5039<br>
&gt; Status: Started<br>
&gt; Number of Bricks: 1 x 2 = 2<br>
&gt; Transport-type: tcp<br>
&gt; Bricks:<br>
&gt; Brick1: 192.168.1.246:/zp1/brick1<br>
&gt; Brick2: 192.168.1.246:/zp2/brick2<br>
&gt; Options Reconfigured:<br>
&gt; storage.health-check-interval: 30<br>
&gt;<br>
&gt; [root@fractal-c92e gluster-3.6]# zpool status zp2<br>
&gt;   pool: zp2<br>
&gt;  state: UNAVAIL<br>
&gt; status: One or more devices are faulted in response to IO failures.<br>
&gt; action: Make sure the affected devices are connected, then run &#39;zpool<br>
&gt; clear&#39;.<br>
&gt;    see: <a href="http://zfsonlinux.org/msg/ZFS-8000-HC" target="_blank">http://zfsonlinux.org/msg/ZFS-8000-HC</a><br>
&gt;   scan: none requested<br>
&gt; config:<br>
&gt;<br>
&gt; NAME        STATE     READ WRITE CKSUM<br>
&gt; zp2         UNAVAIL      0     0     0  insufficient replicas<br>
&gt;   sdb       UNAVAIL      0     0     0<br>
&gt;<br>
&gt; errors: 2 data errors, use &#39;-v&#39; for a list<br>
&gt;<br>
&gt;<br>
&gt; Thanks,<br>
&gt; Kiran.<br>
<br>
</div></div>&gt; _______________________________________________<br>
&gt; Gluster-devel mailing list<br>
&gt; <a href="mailto:Gluster-devel@gluster.org">Gluster-devel@gluster.org</a><br>
&gt; <a href="http://supercolony.gluster.org/mailman/listinfo/gluster-devel" target="_blank">http://supercolony.gluster.org/mailman/listinfo/gluster-devel</a><br>
<br>
</blockquote></div><br></div>