<div dir="ltr">I&#39;m currently testing Gluster 3.5.1 in a two server QEMU/KVM environment.<div>Centos 6.5:</div><div>Two servers (KVM07 &amp; KVM08), Two brick (one brick per server) replicated volume</div><div><br></div>
<div>I&#39;ve tuned the volume per the documentation here: <a href="http://gluster.org/documentation/use_cases/Virt-store-usecase/">http://gluster.org/documentation/use_cases/Virt-store-usecase/</a></div><div><br></div><div>
I have the gluster volume fuse mounted on KVM07 and KVM08 and am using it to store raw disk images.  </div><div><br></div><div>KVM is using the fuse mounted volume as a &quot;dir: Filesystem Directory: storage pool.</div>
<div><br></div><div>With setting dynamic_ownership = 0 in /etc/libvirt/qemu.conf and chown-ing the files to qemu:qemu, live migration works great.</div><div><br></div><div>Problem:</div><div>If I need to take down one of these servers for maintenance, I live migrate the VMs to the other server. </div>
<div>service gluster stop</div><div>then kill all the remaining gluster and brick processes.</div><div><br></div><div>At this point, the VMs die.  The Fuse mount recovers and remains attached to the volume via the other server, but the VIRT disk images are not fully synced.</div>
<div><br></div><div>This causes the VMs to go into a read-only files system state, then kernel panic.  Reboots/restarts of the VMs just cause kernel panics.  This effectively brings down the two node cluster.  </div><div>
<br></div><div>Bringing back up the gluster node / bricks /etc, prompts a self-heal.  Once self-heal is completed, the VMs can boot normally.</div><div><br></div><div>Question: is there a better way to accomplish HA with live/running Virt images?  The goal is to be able to bring down any one server in the pair and perform maintenance without interrupting the VMs.</div>
<div><br></div><div>I assume my shutdown process is flawed but haven&#39;t been able to find a better process.</div><div><br></div><div>Any suggestions are welcome.</div><div><br clear="all"><div><br></div>-- <br>-Vince Loschiavo<br>

</div></div>