<html>
  <head>
    <meta content="text/html; charset=ISO-8859-1"
      http-equiv="Content-Type">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    <div class="moz-cite-prefix">There is a big difference with working
      with small files (around 16kb) and big files (2mb). Performance is
      much better with big files. Witch is too bad for me ;(<br>
      <br>
      On 8/11/12 2:15 AM, Gandalf Corvotempesta wrote:<br>
    </div>
    <blockquote
cite="mid:CAJH6TXircS=hUs9wON9HogcNxUaOWi+0uEqBV_DCFL1O2Yh8=w@mail.gmail.com"
      type="cite">What do you mean with "small files"? 16k ? 160k? 16mb?
      <div>Do you know any workaround or any other software for this?<br>
        <br>
        Mee too i'm trying to create a clustered storage for many</div>
      <div>small file<br>
        <br>
        <div class="gmail_quote">2012/8/10 Philip Poten <span dir="ltr">&lt;<a
              moz-do-not-send="true"
              href="mailto:philip.poten@gmail.com" target="_blank">philip.poten@gmail.com</a>&gt;</span><br>
          <blockquote class="gmail_quote" style="margin:0 0 0
            .8ex;border-left:1px #ccc solid;padding-left:1ex">
            Hi Ivan,<br>
            <br>
            that's because Gluster has really bad "many small files"
            performance<br>
            due to it's architecture.<br>
            <br>
            On all stat() calls (which rsync is doing plenty of), all
            replicas are<br>
            being checked for integrity.<br>
            <br>
            regards,<br>
            Philip<br>
            <br>
            2012/8/10 Ivan Dimitrov &lt;<a moz-do-not-send="true"
              href="mailto:dobber@amln.net">dobber@amln.net</a>&gt;:<br>
            &gt; So I stopped a node to check the BIOS and after it went
            up, the rebalance<br>
            &gt; kicked in. I was looking for those kind of speeds on a
            normal write. The<br>
            &gt; rebalance is much faster than my rsync/cp.<br>
            &gt;<br>
            &gt; <a moz-do-not-send="true"
href="https://dl.dropbox.com/u/282332/Screen%20Shot%202012-08-10%20at%202.04.09%20PM.png"
              target="_blank">https://dl.dropbox.com/u/282332/Screen%20Shot%202012-08-10%20at%202.04.09%20PM.png</a><br>
            &gt;<br>
            &gt; Best Regards<br>
            &gt; Ivan Dimitrov<br>
            &gt;<br>
            &gt;<br>
            &gt; On 8/10/12 1:23 PM, Ivan Dimitrov wrote:<br>
            &gt;&gt;<br>
            &gt;&gt; Hello<br>
            &gt;&gt; What am I doing wrong?!?<br>
            &gt;&gt;<br>
            &gt;&gt; I have a test setup with 4 identical servers with 2
            disks each in<br>
            &gt;&gt; distribute-replicate 2. All servers are connected
            to a GB switch.<br>
            &gt;&gt;<br>
            &gt;&gt; I am experiencing really slow speeds at anything I
            do. Slow write, slow<br>
            &gt;&gt; read, not to mention random write/reads.<br>
            &gt;&gt;<br>
            &gt;&gt; Here is an example:<br>
            &gt;&gt; random-files is a directory with 32768 files with
            average size 16kb.<br>
            &gt;&gt; [root@gltclient]:~# rsync -a
            /root/speedtest/random-files/<br>
            &gt;&gt; /home/gltvolume/<br>
            &gt;&gt; ^^ This will take more than 3 hours.<br>
            &gt;&gt;<br>
            &gt;&gt; On any of the servers if I do "iostat" the disks
            are not loaded at all:<br>
            &gt;&gt;<br>
            &gt;&gt; <a moz-do-not-send="true"
href="https://dl.dropbox.com/u/282332/Screen%20Shot%202012-08-10%20at%201.08.54%20PM.png"
              target="_blank">https://dl.dropbox.com/u/282332/Screen%20Shot%202012-08-10%20at%201.08.54%20PM.png</a><br>
            &gt;&gt;<br>
            &gt;&gt; This is similar result for all servers.<br>
            &gt;&gt;<br>
            &gt;&gt; Here is an example of simple "ls" command on the
            content.<br>
            &gt;&gt; [root@gltclient]:~# unalias ls<br>
            &gt;&gt; [root@gltclient]:~# /usr/bin/time -f "%e seconds"
            ls /home/gltvolume/ | wc<br>
            &gt;&gt; -l<br>
            &gt;&gt; 2.81 seconds<br>
            &gt;&gt; 5393<br>
            &gt;&gt;<br>
            &gt;&gt; almost 3 seconds to display 5000 files?!?! When
            they are 32,000, the ls<br>
            &gt;&gt; will take around 35-45 seconds.<br>
            &gt;&gt;<br>
            &gt;&gt; This directory is on local disk:<br>
            &gt;&gt; [root@gltclient]:~# /usr/bin/time -f "%e seconds"
            ls<br>
            &gt;&gt; /root/speedtest/random-files/ | wc -l<br>
            &gt;&gt; 1.45 seconds<br>
            &gt;&gt; 32768<br>
            &gt;&gt;<br>
            &gt;&gt; [root@gltclient]:~# /usr/bin/time -f "%e seconds"
            cat /home/gltvolume/*<br>
            &gt;&gt; &gt;/dev/null<br>
            &gt;&gt; 190.50 seconds<br>
            &gt;&gt;<br>
            &gt;&gt; [root@gltclient]:~# /usr/bin/time -f "%e seconds"
            du -sh /home/gltvolume/<br>
            &gt;&gt; 126M &nbsp; &nbsp;/home/gltvolume/<br>
            &gt;&gt; 75.23 seconds<br>
            &gt;&gt;<br>
            &gt;&gt;<br>
            &gt;&gt; Here is the volume information.<br>
            &gt;&gt;<br>
            &gt;&gt; [root@glt1]:~# gluster volume info<br>
            &gt;&gt;<br>
            &gt;&gt; Volume Name: gltvolume<br>
            &gt;&gt; Type: Distributed-Replicate<br>
            &gt;&gt; Volume ID: 16edd852-8d23-41da-924d-710b753bb374<br>
            &gt;&gt; Status: Started<br>
            &gt;&gt; Number of Bricks: 4 x 2 = 8<br>
            &gt;&gt; Transport-type: tcp<br>
            &gt;&gt; Bricks:<br>
            &gt;&gt; Brick1: 1.1.74.246:/home/sda3<br>
            &gt;&gt; Brick2: glt2.network.net:/home/sda3<br>
            &gt;&gt; Brick3: 1.1.74.246:/home/sdb1<br>
            &gt;&gt; Brick4: glt2.network.net:/home/sdb1<br>
            &gt;&gt; Brick5: glt3.network.net:/home/sda3<br>
            &gt;&gt; Brick6: gltclient.network.net:/home/sda3<br>
            &gt;&gt; Brick7: glt3.network.net:/home/sdb1<br>
            &gt;&gt; Brick8: gltclient.network.net:/home/sdb1<br>
            &gt;&gt; Options Reconfigured:<br>
            &gt;&gt; performance.io-thread-count: 32<br>
            &gt;&gt; performance.cache-size: 256MB<br>
            &gt;&gt; cluster.self-heal-daemon: on<br>
            &gt;&gt;<br>
            &gt;&gt;<br>
            &gt;&gt; [root@glt1]:~# gluster volume status all detail<br>
            &gt;&gt; Status of volume: gltvolume<br>
            &gt;&gt;<br>
            &gt;&gt;
------------------------------------------------------------------------------<br>
            &gt;&gt; Brick &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: Brick 1.1.74.246:/home/sda3<br>
            &gt;&gt; Port &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : 24009<br>
            &gt;&gt; Online &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : Y<br>
            &gt;&gt; Pid &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: 1479<br>
            &gt;&gt; File System &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: ext4<br>
            &gt;&gt; Device &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : /dev/sda3<br>
            &gt;&gt; Mount Options &nbsp; &nbsp; &nbsp; &nbsp;: rw,noatime<br>
            &gt;&gt; Inode Size &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : 256<br>
            &gt;&gt; Disk Space Free &nbsp; &nbsp; &nbsp;: 179.3GB<br>
            &gt;&gt; Total Disk Space &nbsp; &nbsp; : 179.7GB<br>
            &gt;&gt; Inode Count &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: 11968512<br>
            &gt;&gt; Free Inodes &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: 11901550<br>
            &gt;&gt;<br>
            &gt;&gt;
------------------------------------------------------------------------------<br>
            &gt;&gt; Brick &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: Brick
            glt2.network.net:/home/sda3<br>
            &gt;&gt; Port &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : 24009<br>
            &gt;&gt; Online &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : Y<br>
            &gt;&gt; Pid &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: 1589<br>
            &gt;&gt; File System &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: ext4<br>
            &gt;&gt; Device &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : /dev/sda3<br>
            &gt;&gt; Mount Options &nbsp; &nbsp; &nbsp; &nbsp;: rw,noatime<br>
            &gt;&gt; Inode Size &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : 256<br>
            &gt;&gt; Disk Space Free &nbsp; &nbsp; &nbsp;: 179.3GB<br>
            &gt;&gt; Total Disk Space &nbsp; &nbsp; : 179.7GB<br>
            &gt;&gt; Inode Count &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: 11968512<br>
            &gt;&gt; Free Inodes &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: 11901550<br>
            &gt;&gt;<br>
            &gt;&gt;
------------------------------------------------------------------------------<br>
            &gt;&gt; Brick &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: Brick 1.1.74.246:/home/sdb1<br>
            &gt;&gt; Port &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : 24010<br>
            &gt;&gt; Online &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : Y<br>
            &gt;&gt; Pid &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: 1485<br>
            &gt;&gt; File System &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: ext4<br>
            &gt;&gt; Device &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : /dev/sdb1<br>
            &gt;&gt; Mount Options &nbsp; &nbsp; &nbsp; &nbsp;: rw,noatime<br>
            &gt;&gt; Inode Size &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : 256<br>
            &gt;&gt; Disk Space Free &nbsp; &nbsp; &nbsp;: 228.8GB<br>
            &gt;&gt; Total Disk Space &nbsp; &nbsp; : 229.2GB<br>
            &gt;&gt; Inode Count &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: 15269888<br>
            &gt;&gt; Free Inodes &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: 15202933<br>
            &gt;&gt;<br>
            &gt;&gt;
------------------------------------------------------------------------------<br>
            &gt;&gt; Brick &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: Brick
            glt2.network.net:/home/sdb1<br>
            &gt;&gt; Port &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : 24010<br>
            &gt;&gt; Online &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : Y<br>
            &gt;&gt; Pid &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: 1595<br>
            &gt;&gt; File System &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: ext4<br>
            &gt;&gt; Device &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : /dev/sdb1<br>
            &gt;&gt; Mount Options &nbsp; &nbsp; &nbsp; &nbsp;: rw,noatime<br>
            &gt;&gt; Inode Size &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : 256<br>
            &gt;&gt; Disk Space Free &nbsp; &nbsp; &nbsp;: 228.8GB<br>
            &gt;&gt; Total Disk Space &nbsp; &nbsp; : 229.2GB<br>
            &gt;&gt; Inode Count &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: 15269888<br>
            &gt;&gt; Free Inodes &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: 15202933<br>
            &gt;&gt;<br>
            &gt;&gt;
------------------------------------------------------------------------------<br>
            &gt;&gt; Brick &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: Brick
            glt3.network.net:/home/sda3<br>
            &gt;&gt; Port &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : 24009<br>
            &gt;&gt; Online &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : Y<br>
            &gt;&gt; Pid &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: 28963<br>
            &gt;&gt; File System &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: ext4<br>
            &gt;&gt; Device &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : /dev/sda3<br>
            &gt;&gt; Mount Options &nbsp; &nbsp; &nbsp; &nbsp;: rw,noatime<br>
            &gt;&gt; Inode Size &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : 256<br>
            &gt;&gt; Disk Space Free &nbsp; &nbsp; &nbsp;: 179.3GB<br>
            &gt;&gt; Total Disk Space &nbsp; &nbsp; : 179.7GB<br>
            &gt;&gt; Inode Count &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: 11968512<br>
            &gt;&gt; Free Inodes &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: 11906058<br>
            &gt;&gt;<br>
            &gt;&gt;
------------------------------------------------------------------------------<br>
            &gt;&gt; Brick &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: Brick
            gltclient.network.net:/home/sda3<br>
            &gt;&gt; Port &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : 24009<br>
            &gt;&gt; Online &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : Y<br>
            &gt;&gt; Pid &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: 3145<br>
            &gt;&gt; File System &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: ext4<br>
            &gt;&gt; Device &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : /dev/sda3<br>
            &gt;&gt; Mount Options &nbsp; &nbsp; &nbsp; &nbsp;: rw,noatime<br>
            &gt;&gt; Inode Size &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : 256<br>
            &gt;&gt; Disk Space Free &nbsp; &nbsp; &nbsp;: 179.3GB<br>
            &gt;&gt; Total Disk Space &nbsp; &nbsp; : 179.7GB<br>
            &gt;&gt; Inode Count &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: 11968512<br>
            &gt;&gt; Free Inodes &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: 11906058<br>
            &gt;&gt;<br>
            &gt;&gt;
------------------------------------------------------------------------------<br>
            &gt;&gt; Brick &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: Brick
            glt3.network.net:/home/sdb1<br>
            &gt;&gt; Port &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : 24010<br>
            &gt;&gt; Online &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : Y<br>
            &gt;&gt; Pid &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: 28969<br>
            &gt;&gt; File System &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: ext4<br>
            &gt;&gt; Device &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : /dev/sdb1<br>
            &gt;&gt; Mount Options &nbsp; &nbsp; &nbsp; &nbsp;: rw,noatime<br>
            &gt;&gt; Inode Size &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : 256<br>
            &gt;&gt; Disk Space Free &nbsp; &nbsp; &nbsp;: 228.8GB<br>
            &gt;&gt; Total Disk Space &nbsp; &nbsp; : 229.2GB<br>
            &gt;&gt; Inode Count &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: 15269888<br>
            &gt;&gt; Free Inodes &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: 15207375<br>
            &gt;&gt;<br>
            &gt;&gt;
------------------------------------------------------------------------------<br>
            &gt;&gt; Brick &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: Brick
            gltclient.network.net:/home/sdb1<br>
            &gt;&gt; Port &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : 24010<br>
            &gt;&gt; Online &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : Y<br>
            &gt;&gt; Pid &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: 3151<br>
            &gt;&gt; File System &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: ext4<br>
            &gt;&gt; Device &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : /dev/sdb1<br>
            &gt;&gt; Mount Options &nbsp; &nbsp; &nbsp; &nbsp;: rw,noatime<br>
            &gt;&gt; Inode Size &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; : 256<br>
            &gt;&gt; Disk Space Free &nbsp; &nbsp; &nbsp;: 228.8GB<br>
            &gt;&gt; Total Disk Space &nbsp; &nbsp; : 229.2GB<br>
            &gt;&gt; Inode Count &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: 15269888<br>
            &gt;&gt; Free Inodes &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;: 15207375<br>
            &gt;&gt; _______________________________________________<br>
            &gt;&gt; Gluster-users mailing list<br>
            &gt;&gt; <a moz-do-not-send="true"
              href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
            &gt;&gt; <a moz-do-not-send="true"
              href="http://gluster.org/cgi-bin/mailman/listinfo/gluster-users"
              target="_blank">http://gluster.org/cgi-bin/mailman/listinfo/gluster-users</a><br>
            &gt;&gt;<br>
            &gt;<br>
            &gt; _______________________________________________<br>
            &gt; Gluster-users mailing list<br>
            &gt; <a moz-do-not-send="true"
              href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
            &gt; <a moz-do-not-send="true"
              href="http://gluster.org/cgi-bin/mailman/listinfo/gluster-users"
              target="_blank">http://gluster.org/cgi-bin/mailman/listinfo/gluster-users</a><br>
            _______________________________________________<br>
            Gluster-users mailing list<br>
            <a moz-do-not-send="true"
              href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
            <a moz-do-not-send="true"
              href="http://gluster.org/cgi-bin/mailman/listinfo/gluster-users"
              target="_blank">http://gluster.org/cgi-bin/mailman/listinfo/gluster-users</a><br>
          </blockquote>
        </div>
        <br>
      </div>
    </blockquote>
    <br>
  </body>
</html>