<html><body><div style="color:#000; background-color:#fff; font-family:HelveticaNeue, Helvetica Neue, Helvetica, Arial, Lucida Grande, sans-serif;font-size:10pt"><span style="font-family: Courier New,courier,monaco,monospace,sans-serif;">Hi,<br><br>Gluster 3.4.2 on CentOS 6.5<br><br>I have a volume with 2 replica on two systems.&nbsp; The filesystem where a brick was created on system 2 was corrupted.&nbsp; Hardware issue was resolved.&nbsp; The filesystem is recreated and mounted at the same mount point. &nbsp; But I can't get the volume replicated.&nbsp; I'm missing some steps?<br><br># gluster volume status kvm1<br>Status of volume: kvm1<br>Gluster process&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; Port&nbsp;&nbsp;&nbsp; Online&nbsp;&nbsp;&nbsp; Pid<br>------------------------------------------------------------------------------<br>Brick
 uathost1:/data/glusterfs/kvm1/brick1/brick&nbsp;&nbsp;&nbsp; 49152&nbsp;&nbsp;&nbsp; Y&nbsp;&nbsp;&nbsp; 22548<br>Brick uathost2:/data/glusterfs/kvm1/brick1/brick&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp; N&nbsp;&nbsp;&nbsp; N/A&nbsp; &lt;--------????<br>NFS Server on localhost&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; 2049&nbsp;&nbsp;&nbsp; Y&nbsp;&nbsp;&nbsp; 4430<br>Self-heal Daemon on localhost&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp; Y&nbsp;&nbsp;&nbsp; 4438<br>NFS Server on 10.100.253.28&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; 2049&nbsp;&nbsp;&nbsp; Y&nbsp;&nbsp;&nbsp; 22869<br>Self-heal Daemon on 10.100.253.28&nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; &nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp; Y&nbsp;&nbsp;&nbsp; 22876<br>&nbsp;<br>There are no active volume tasks<br><br><br><br>uathost1 # gluster peer
 status<br>Number of Peers: 1<br><br>Hostname: uathost2<br>Uuid: c94520d2-99f1-471a-a3e6-04e64560f48d<br>State: Peer in Cluster (Connected)<br><br><br>uathost1# gluster volume info<br>&nbsp;<br>Volume Name: kvm1<br>Type: Replicate<br>Volume ID: 6a169bda-cf03-4c09-a8d9-50704f08dc1c<br>Status: Started<br>Number of Bricks: 1 x 2 = 2<br>Transport-type: tcp<br>Bricks:<br>Brick1: uathost1:/data/glusterfs/kvm1/brick1/brick<br>Brick2: uathost2:/data/glusterfs/kvm1/brick1/brick<br>Options Reconfigured:<br>storage.owner-uid: 36<br>storage.owner-gid: 36<br><br><br>On uathost2, I did<br># gluster volume sync uathost1 kvm1<br>Sync volume may make data inaccessible while the sync is in progress. Do you want to continue? (y/n) y<br>volume sync: success<br><br>&nbsp;When I check the directory uathost2:/data/glusterfs/kvm1/brick1/brick, it is blank.<br><br><br><br><br></span><div><br></div></div></body></html>