<html><head><style type='text/css'>p { margin: 0; }</style></head><body><div style='font-family: times new roman,new york,times,serif; font-size: 12pt; color: #000000'>Eric - was good to see you in San Diego. Glad to see you on the list.&nbsp;<div><br></div><div>I would recommend trying the IRC channel tomorrow morning. Should be someone there who can help you.&nbsp;</div><div><br></div><div>-JM</div><div><br><br><hr id="zwchr"><blockquote style="border-left:2px solid rgb(16, 16, 255);margin-left:5px;padding-left:5px;color:#000;font-weight:normal;font-style:normal;text-decoration:none;font-family:Helvetica,Arial,sans-serif;font-size:12pt;"><div style="color:#000; background-color:#fff; font-family:Courier New, courier, monaco, monospace, sans-serif;font-size:10pt">I've created a distributed replicated volume:<br><br><div style="color:;font-size:13.3333px;font-family:Courier New, courier, monaco, monospace, sans-serif;background-color:transparent;font-style:normal;">&gt; gluster&gt; volume info<br>&gt;&nbsp; <br>&gt; Volume Name: Repositories<br>&gt; Type: Distributed-Replicate<br>&gt; Volume ID: 926262ae-2aa6-4bf7-b19e-cf674431b06c<br>&gt; Status: Started<br>&gt; Number of Bricks: 2 x 2 = 4<br>&gt; Transport-type: tcp<br>&gt; Bricks:<br>&gt; Brick1: 192.168.1.1:/srv/sda7<br>&gt; Brick2: 192.168.1.2:/srv/sda7<br>&gt; Brick3: 192.168.1.1:/srv/sdb7<br>&gt; Brick4: 192.168.1.2:/srv/sdb7<br></div><br>...by allocating physical partitions on each HDD of each node for the volumes' bricks: e.g.,<br><div><br>&gt; [eric@sn1 srv]$ mount | grep xfs<br>&gt; /dev/sda7 on /srv/sda7
 type xfs (rw)<br>&gt; /dev/sdb7 on /srv/sdb7 type xfs (rw)<br>&gt; /dev/sda8 on /srv/sda8 type xfs (rw)<br>&gt; /dev/sdb8 on /srv/sdb8 type xfs (rw)<br>&gt; /dev/sda9 on /srv/sda9 type xfs (rw)<br>&gt; /dev/sdb9 on /srv/sdb9 type xfs (rw)<br>&gt; /dev/sda10 on /srv/sda10 type xfs (rw)<br>&gt; /dev/sdb10 on /srv/sdb10 type xfs (rw)<br><br>I plan to re-provision both nodes (e.g., convert them&nbsp; from CentOS -&gt; SLES) and need to preserve the data on the current bricks.<br><br>It seems to me that the procedure for this endeavor would be to: detach the node that will be re-provisioned; re-provision the node; add the node back to the trusted storage pool, and then; add the bricks back to the volume - *but* this plan fails at Step #1. i.e.,<br><br>&nbsp;* When attempting to  detach the second node from the volume, the Console Manager <br>&nbsp;&nbsp; complains "Brick(s) with the peer 192.168.1.2 exist in cluster".<br>&nbsp;* When attempting to remove the
 second node's bricks from the volume, the Console <br>&nbsp;&nbsp; Manager complains "Bricks not from same subvol for replica".<br><br>Is this even feasible? I've already verified that bricks can be *added* to the volume (by adding two additional local partitions to the volume) but I'm not sure where to begin preparing the nodes for re-provisioning.<br><br>Eric Pretorious<br>Truckee, CA<br></div></div><br>_______________________________________________<br>Gluster-users mailing list<br>Gluster-users@gluster.org<br>http://gluster.org/cgi-bin/mailman/listinfo/gluster-users<br></blockquote><br></div></div></body></html>