<div dir="ltr">Can someone help me?<div>I&#39;d like to restore my /export/brick1 on server1. Actually i have datas only on server2. </div><div>I think that right instructions are:</div><div>1) setfattr -n ... on server1 ( this is a bug. Here more info -&gt; <a href="http://www.joejulian.name/blog/replacing-a-brick-on-glusterfs-340/">http://www.joejulian.name/blog/replacing-a-brick-on-glusterfs-340/</a>   I have the same error in logs)</div><div>2) Now i think i can re-start volume, so i should see an automatic healing procedure</div><div>3) All datas are replicated on server1</div><div><br></div><div>Can i have a confirmation about this procedure? Other volumes are affected? Please, i cannot loose my data</div><div><br></div><div>Thanks</div></div><div class="gmail_extra"><br><div class="gmail_quote">2014-10-03 20:07 GMT+02:00 Marco Marino <span dir="ltr">&lt;<a href="mailto:marino.mrc@gmail.com" target="_blank">marino.mrc@gmail.com</a>&gt;</span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Hi,<div>I&#39;m trying to use glusterfs with my openstack private cloud for storing ephemeral disks. In this way, each compute node mount glusterfs in /nova and save instances on a remote glusterfs (shared between the compute nodes, so live migration is very fast).</div><div>I have 2 storage node (storage1 and storage2) with replica 2.</div><div>In a first configuration i&#39;ve used nfs on the clients. In /etc/fstab of the compute nodes i have:</div><div>storage1:/cloud_rootdisk /nova nfs mountproto=tcp,vers=3 0 0<br></div><div><br></div><div>This creates a single point of failure because if storage1 goes down, i have to remount manually on storage2. And this causes the complete disk corruption of all VMs that running on all the compute nodes. Really funny... </div><div><br></div><div>In a second configuration, i&#39;ve used the gluster native client with &quot;backupvolfile-server=storage2&quot;. i&#39;ve made few tests, but it seems to work.</div><div>What i&#39;ve tested:</div><div>on the compute node i have:</div><div>mount -t glusterfs -o backupvolfile-server=server2,fetch-attempts=2,log-level=WARNING,log-file=/var/log/gluster.log server1:/test-volume /gluster_mount<br></div><div><br></div><div>Then, I booted a vm and started to download a large file (1GB) from the vm (so, i&#39;m writing on the ephemeral disk stored via glusterfs). During this download, i rebooted storage1 and the VM seems to be not corrupted (so, the vm write only on storage2).</div><div>Can i have a confirmation about this? Is this the right way?</div><div><br></div><div>Next question:</div><div>When i rebooted storage1, it fails to start. it tells me that /dev/sdc1 (the partition that i&#39;m using for the test) is corrupted. It could be a normal behavior because the server goes down during a write. So, started the storage1 in single user mode and xfs_repair /dev/sdc1. This make me able to start storage1. (yuppy)</div><div>Glusterfs starts correctly, but now i have &quot;brick1 is not connected&quot;, where /export/brick1 is the brick that i&#39;m using on storage1 for the volume used for tests.</div><div>On storage2 all is ok, but i have a split brain condition. /export/brick1 on storage1 doesn&#39;t contain datas....</div><div>What can i have to do to restore /export/brick1 on storage1 ???</div><div><br></div><div><br></div><div>Thanks</div><span class="HOEnZb"><font color="#888888"><div>MM</div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div></font></span></div>
</blockquote></div><br></div>