<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=us-ascii">
</head>
<body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; color: rgb(0, 0, 0); font-size: 14px; font-family: Calibri, sans-serif; ">
<div>Hello All,</div>
<div><br>
</div>
<div>I ran the rebalance on the second server while the first one is still in progress. &nbsp;The status is progressing on both, but on the second server after hours of rebalancing one of the bricks is still 100% full.</div>
<div>The first server has distributed the volumes much better.</div>
<div><br>
</div>
<div>Is this a wait and see scenario, or has something gone wrong?</div>
<div>Please advise,</div>
<div><br>
</div>
<div>Thank you.</div>
<div><br>
</div>
<span id="OLK_SRC_BODY_SECTION">
<div style="font-family:Calibri; font-size:11pt; text-align:left; color:black; BORDER-BOTTOM: medium none; BORDER-LEFT: medium none; PADDING-BOTTOM: 0in; PADDING-LEFT: 0in; PADDING-RIGHT: 0in; BORDER-TOP: #b5c4df 1pt solid; BORDER-RIGHT: medium none; PADDING-TOP: 3pt">
<span style="font-weight:bold">From: </span>Lysa Milch &lt;<a href="mailto:lysa.milch@blackboard.com">lysa.milch@blackboard.com</a>&gt;<br>
<span style="font-weight:bold">Date: </span>Monday, March 17, 2014 3:04 PM<br>
<span style="font-weight:bold">To: </span>Kaushal M &lt;<a href="mailto:kshlmster@gmail.com">kshlmster@gmail.com</a>&gt;<br>
<span style="font-weight:bold">Cc: </span>&quot;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&quot; &lt;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&gt;<br>
<span style="font-weight:bold">Subject: </span>Re: [Gluster-users] Out of space, rebalance and possibly split-brain issues<br>
</div>
<div><br>
</div>
<div>
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; color: rgb(0, 0, 0); font-size: 14px; font-family: Calibri, sans-serif; ">
<div>
<div>
<div>Great. &nbsp; Given this information, is it safe/recommended to run the rebalance on the second peer while the first one is still going?</div>
<div><br>
</div>
</div>
</div>
<span id="OLK_SRC_BODY_SECTION">
<div style="font-family:Calibri; font-size:11pt; text-align:left; color:black; BORDER-BOTTOM: medium none; BORDER-LEFT: medium none; PADDING-BOTTOM: 0in; PADDING-LEFT: 0in; PADDING-RIGHT: 0in; BORDER-TOP: #b5c4df 1pt solid; BORDER-RIGHT: medium none; PADDING-TOP: 3pt">
<span style="font-weight:bold">From: </span>Kaushal M &lt;<a href="mailto:kshlmster@gmail.com">kshlmster@gmail.com</a>&gt;<br>
<span style="font-weight:bold">Date: </span>Tue, 18 Mar 2014 00:05:52 &#43;0530<br>
<span style="font-weight:bold">To: </span>Chris Dixon &lt;<a href="mailto:lysa.milch@blackboard.com">lysa.milch@blackboard.com</a>&gt;<br>
<span style="font-weight:bold">Cc: </span>&quot;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&quot; &lt;<a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&gt;<br>
<span style="font-weight:bold">Subject: </span>Re: [Gluster-users] Out of space, rebalance and possibly split-brain issues<br>
</div>
<div><br>
</div>
<div>
<div>
<div>Rebalance in gluster-3.2 isn't distributed. The rebalance process is</div>
<div>started only on the peer where the rebalance start command was run.</div>
<div>This is unlike, gluster-3.3 and above where rebalance is distributed</div>
<div>and a rebalance process is started on all peers having bricks of a</div>
<div>volume.</div>
<div><br>
</div>
<div>~kaushal</div>
<div><br>
</div>
<div>On Mon, Mar 17, 2014 at 11:58 PM, Lysa Milch &lt;<a href="mailto:Lysa.Milch@blackboard.com">Lysa.Milch@blackboard.com</a>&gt; wrote:</div>
<blockquote id="MAC_OUTLOOK_ATTRIBUTION_BLOCKQUOTE" style="BORDER-LEFT: #b5c4df 5 solid; PADDING:0 0 0 5; MARGIN:0 0 0 5;">
<div>All,</div>
<div><br>
</div>
<div>This morning I noticed that although my gluster vol was only at 60%, two</div>
<div>individual bricks ( one on each replication server) were at 100%.&nbsp;&nbsp;I ran a</div>
<div>re-balance on the first server, and am seeing ( what I hope to be ) good</div>
<div>progress.</div>
<div><br>
</div>
<div>/dev/xvdc&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;1.0T&nbsp;&nbsp;399G&nbsp;&nbsp;626G&nbsp;&nbsp;39%</div>
<div>/brick1</div>
<div>/dev/xvdf&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;1.0T&nbsp;&nbsp;398G&nbsp;&nbsp;627G&nbsp;&nbsp;39%</div>
<div>/brick3</div>
<div>/dev/xvdg&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;1.0T&nbsp;&nbsp;299G&nbsp;&nbsp;726G&nbsp;&nbsp;30%</div>
<div>/brick5</div>
<div><br>
</div>
<div>brick5 was initially at 100%, so this is all well.</div>
<div><br>
</div>
<div>My question is, the 100% brick on my second gluster server is still at 100%</div>
<div>and if I run a:</div>
<div><br>
</div>
<div>volume rebalance myvol status</div>
<div><br>
</div>
<div>On the second box, no rebalance is running.</div>
<div><br>
</div>
<div>1)&nbsp;&nbsp;Is this normal, or do I have another problem I am not aware of?</div>
<div>2)&nbsp;&nbsp;Should I start a rebalance on the second box while the first is running,</div>
<div>or should I wait?</div>
<div><br>
</div>
<div>Thank you for any information you can share.</div>
<div>gluster --version</div>
<div>glusterfs 3.2.5 built on Jan 31 2012 07:39:59</div>
<div><br>
</div>
<div><br>
</div>
<div>gluster peer&nbsp;&nbsp;status</div>
<div>Number of Peers: 1</div>
<div><br>
</div>
<div>Hostname: myhost.domain.com</div>
<div>Uuid: 00000000-0000-0000-0000-000000000000</div>
<div>State: Establishing Connection (Connected)</div>
<div><br>
</div>
<div><br>
</div>
<div>gluster volume info</div>
<div><br>
</div>
<div>Volume Name: myvol</div>
<div>Type: Distributed-Replicate</div>
<div>Status: Started</div>
<div>Number of Bricks: 3 x 2 = 6</div>
<div>Transport-type: tcp</div>
<div>Bricks:</div>
<div>Brick1: host1.domain.com:/brick1</div>
<div>Brick2: host2.domain.com:/brick2</div>
<div>Brick3: host1.domain.com:/brick3</div>
<div>Brick2: host2.domain.com:/brick4</div>
<div>Brick1: host1.domain.com:/brick5</div>
<div>Brick2: host2.domain.com:/brick6</div>
<div><br>
</div>
<div><br>
</div>
<div>_______________________________________________</div>
<div>Gluster-users mailing list</div>
<div><a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a></div>
<div><a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a></div>
</blockquote>
<div><br>
</div>
</div>
</div>
</span><br>
</div>
</div>
</span>
<br clear="both">
This email and any attachments may contain confidential and proprietary information of Blackboard that is for the sole use of the intended recipient. If you are not the intended recipient, disclosure, copying, re-distribution or other use of any of this information is strictly prohibited. Please immediately notify the sender and delete this transmission if you received this email in error.<BR>
</body>
</html>