<html>
  <head>
    <meta content="text/html; charset=ISO-8859-1"
      http-equiv="Content-Type">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    Like Eric, I too use lvm to partition off bricks for different
    volumes. You can even specify which physical device a brick is on
    when you're creating your brick, ie. "lvcreate -n myvol_brick_a -l50
    vg_gluster /dev/sda1". This is handy if you have to replace the disk
    while the old one is still alive as you can just install the
    replacement and do a "pvmove".<br>
    <br>
    Each brick uses memory. I have 15 volumes, 4 disks per server, and
    one brick per volume per disk. 60 bricks would use a lot of memory.
    Rather than buy a bunch more memory that would usually sit idle, I
    set "performance.cache-size" to a number that would use up just
    enough memory. Do experiment with that setting. It appears that size
    limit is used for multiple caches so the actual memory used seems to
    be some multiple of what you set it to.<br>
    <br>
    When a server comes back after maintenance and the self-heals start,
    having multiple bricks healing simultaneously can put quite a load
    on your servers. Test that and see if it meets your satisfaction. I
    actually kill bricks for non-essential volumes while the essential
    volumes are healing, then use "volume start ... force" to start the
    bricks for the degraded volumes individually to manage that.<br>
    <br>
    <br>
    <div class="moz-cite-prefix">On 11/12/2013 08:21 AM, Eric Johnson
      wrote:<br>
    </div>
    <blockquote cite="mid:5282557E.8010505@corp.airmail.net" type="cite">
      <meta content="text/html; charset=ISO-8859-1"
        http-equiv="Content-Type">
      <div class="moz-cite-prefix">I would suggest using different
        partitions for each brick.&nbsp; We use LVM and start off with a
        relativity small amount allocated space, then grow the
        partitions as needed.&nbsp; If you were to place 2 bricks on the same
        partition then the free space is not going to show correctly.&nbsp;
        Example:<br>
        <br>
        1TB partition 2 bricks on this partition<br>
        <br>
        brick: vol-1-a&nbsp;&nbsp; using 200GB<br>
        brick: vol-2-a&nbsp;&nbsp; using 300GB.<br>
        <br>
        Both volumes would show that they have ~500GB free, but in
        reality there would be ~500GB that either could use.&nbsp; I don't
        know if there would be any other issues with putting 2 or more
        bricks on the same partition, but it doesn't seem like a good
        idea.&nbsp; I had gluster setup that way when I was first testing it,
        and it seemed to work other than the free space issue, but I
        quickly realized it would be better to separate out the bricks
        on to their own partition.&nbsp; Using LVM allows you to easily grow
        partitions as needed.<br>
        <br>
        my 2 cents.<br>
        <br>
        <br>
        On 11/12/13, 9:31 AM, David Gibbons wrote:<br>
      </div>
      <blockquote
cite="mid:CAJ9CW+67BKVVZJWzO0Cab9Ymv9FM+wqAoBOsLauYNNC61Pb_Eg@mail.gmail.com"
        type="cite">
        <div dir="ltr">Hi All,
          <div><br>
          </div>
          <div>I am interested in some feedback on putting multiple
            bricks on one physical disk. Each brick being assigned to a
            different volume. Here is the scenario:</div>
          <div><br>
          </div>
          <div>4 disks per server, 4 servers, 2x2 distribute/replicate</div>
          <div><br>
          </div>
          <div>I would prefer to have just one volume but need to do
            geo-replication on some of the data (but not all of it). My
            thought was to use two volumes, which would allow me to
            selectively geo-replicate just the data that I need to, by
            replicating only one volume.</div>
          <div><br>
          </div>
          <div>A couple of questions come to mind:</div>
          <div>1) Any implications of doing two bricks for different
            volumes on one physical disk?</div>
          <div>2) Will the "free space" across each volume still
            calculate correctly? IE, if one volume takes up 2/3 of the
            total physical disk space, will the second volume still
            reflect the correct amount of used space?</div>
          <div>3) Am I being stupid/missing something obvious?</div>
          <div><br>
            Cheers,</div>
          <div>Dave</div>
        </div>
        <br>
        <fieldset class="mimeAttachmentHeader"></fieldset>
        <br>
        <pre wrap="">_______________________________________________
Gluster-users mailing list
<a moz-do-not-send="true" class="moz-txt-link-abbreviated" href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a>
<a moz-do-not-send="true" class="moz-txt-link-freetext" href="http://supercolony.gluster.org/mailman/listinfo/gluster-users">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a></pre>
      </blockquote>
      <br>
      <br>
      <pre class="moz-signature" cols="72">-- 
Eric Johnson
713-968-2546
VP of MIS
Internet America
<a moz-do-not-send="true" class="moz-txt-link-abbreviated" href="http://www.internetamerica.com">www.internetamerica.com</a></pre>
      <br>
      <fieldset class="mimeAttachmentHeader"></fieldset>
      <br>
      <pre wrap="">_______________________________________________
Gluster-users mailing list
<a class="moz-txt-link-abbreviated" href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a>
<a class="moz-txt-link-freetext" href="http://supercolony.gluster.org/mailman/listinfo/gluster-users">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a></pre>
    </blockquote>
    <br>
  </body>
</html>