What do you mean with &quot;small files&quot;? 16k ? 160k? 16mb?<div>Do you know any workaround or any other software for this?<br><br>Mee too i&#39;m trying to create a clustered storage for many</div><div>small file<br><br>
<div class="gmail_quote">2012/8/10 Philip Poten <span dir="ltr">&lt;<a href="mailto:philip.poten@gmail.com" target="_blank">philip.poten@gmail.com</a>&gt;</span><br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hi Ivan,<br>
<br>
that&#39;s because Gluster has really bad &quot;many small files&quot; performance<br>
due to it&#39;s architecture.<br>
<br>
On all stat() calls (which rsync is doing plenty of), all replicas are<br>
being checked for integrity.<br>
<br>
regards,<br>
Philip<br>
<br>
2012/8/10 Ivan Dimitrov &lt;<a href="mailto:dobber@amln.net">dobber@amln.net</a>&gt;:<br>
&gt; So I stopped a node to check the BIOS and after it went up, the rebalance<br>
&gt; kicked in. I was looking for those kind of speeds on a normal write. The<br>
&gt; rebalance is much faster than my rsync/cp.<br>
&gt;<br>
&gt; <a href="https://dl.dropbox.com/u/282332/Screen%20Shot%202012-08-10%20at%202.04.09%20PM.png" target="_blank">https://dl.dropbox.com/u/282332/Screen%20Shot%202012-08-10%20at%202.04.09%20PM.png</a><br>
&gt;<br>
&gt; Best Regards<br>
&gt; Ivan Dimitrov<br>
&gt;<br>
&gt;<br>
&gt; On 8/10/12 1:23 PM, Ivan Dimitrov wrote:<br>
&gt;&gt;<br>
&gt;&gt; Hello<br>
&gt;&gt; What am I doing wrong?!?<br>
&gt;&gt;<br>
&gt;&gt; I have a test setup with 4 identical servers with 2 disks each in<br>
&gt;&gt; distribute-replicate 2. All servers are connected to a GB switch.<br>
&gt;&gt;<br>
&gt;&gt; I am experiencing really slow speeds at anything I do. Slow write, slow<br>
&gt;&gt; read, not to mention random write/reads.<br>
&gt;&gt;<br>
&gt;&gt; Here is an example:<br>
&gt;&gt; random-files is a directory with 32768 files with average size 16kb.<br>
&gt;&gt; [root@gltclient]:~# rsync -a /root/speedtest/random-files/<br>
&gt;&gt; /home/gltvolume/<br>
&gt;&gt; ^^ This will take more than 3 hours.<br>
&gt;&gt;<br>
&gt;&gt; On any of the servers if I do &quot;iostat&quot; the disks are not loaded at all:<br>
&gt;&gt;<br>
&gt;&gt; <a href="https://dl.dropbox.com/u/282332/Screen%20Shot%202012-08-10%20at%201.08.54%20PM.png" target="_blank">https://dl.dropbox.com/u/282332/Screen%20Shot%202012-08-10%20at%201.08.54%20PM.png</a><br>
&gt;&gt;<br>
&gt;&gt; This is similar result for all servers.<br>
&gt;&gt;<br>
&gt;&gt; Here is an example of simple &quot;ls&quot; command on the content.<br>
&gt;&gt; [root@gltclient]:~# unalias ls<br>
&gt;&gt; [root@gltclient]:~# /usr/bin/time -f &quot;%e seconds&quot; ls /home/gltvolume/ | wc<br>
&gt;&gt; -l<br>
&gt;&gt; 2.81 seconds<br>
&gt;&gt; 5393<br>
&gt;&gt;<br>
&gt;&gt; almost 3 seconds to display 5000 files?!?! When they are 32,000, the ls<br>
&gt;&gt; will take around 35-45 seconds.<br>
&gt;&gt;<br>
&gt;&gt; This directory is on local disk:<br>
&gt;&gt; [root@gltclient]:~# /usr/bin/time -f &quot;%e seconds&quot; ls<br>
&gt;&gt; /root/speedtest/random-files/ | wc -l<br>
&gt;&gt; 1.45 seconds<br>
&gt;&gt; 32768<br>
&gt;&gt;<br>
&gt;&gt; [root@gltclient]:~# /usr/bin/time -f &quot;%e seconds&quot; cat /home/gltvolume/*<br>
&gt;&gt; &gt;/dev/null<br>
&gt;&gt; 190.50 seconds<br>
&gt;&gt;<br>
&gt;&gt; [root@gltclient]:~# /usr/bin/time -f &quot;%e seconds&quot; du -sh /home/gltvolume/<br>
&gt;&gt; 126M    /home/gltvolume/<br>
&gt;&gt; 75.23 seconds<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; Here is the volume information.<br>
&gt;&gt;<br>
&gt;&gt; [root@glt1]:~# gluster volume info<br>
&gt;&gt;<br>
&gt;&gt; Volume Name: gltvolume<br>
&gt;&gt; Type: Distributed-Replicate<br>
&gt;&gt; Volume ID: 16edd852-8d23-41da-924d-710b753bb374<br>
&gt;&gt; Status: Started<br>
&gt;&gt; Number of Bricks: 4 x 2 = 8<br>
&gt;&gt; Transport-type: tcp<br>
&gt;&gt; Bricks:<br>
&gt;&gt; Brick1: 1.1.74.246:/home/sda3<br>
&gt;&gt; Brick2: glt2.network.net:/home/sda3<br>
&gt;&gt; Brick3: 1.1.74.246:/home/sdb1<br>
&gt;&gt; Brick4: glt2.network.net:/home/sdb1<br>
&gt;&gt; Brick5: glt3.network.net:/home/sda3<br>
&gt;&gt; Brick6: gltclient.network.net:/home/sda3<br>
&gt;&gt; Brick7: glt3.network.net:/home/sdb1<br>
&gt;&gt; Brick8: gltclient.network.net:/home/sdb1<br>
&gt;&gt; Options Reconfigured:<br>
&gt;&gt; performance.io-thread-count: 32<br>
&gt;&gt; performance.cache-size: 256MB<br>
&gt;&gt; cluster.self-heal-daemon: on<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; [root@glt1]:~# gluster volume status all detail<br>
&gt;&gt; Status of volume: gltvolume<br>
&gt;&gt;<br>
&gt;&gt; ------------------------------------------------------------------------------<br>
&gt;&gt; Brick                : Brick 1.1.74.246:/home/sda3<br>
&gt;&gt; Port                 : 24009<br>
&gt;&gt; Online               : Y<br>
&gt;&gt; Pid                  : 1479<br>
&gt;&gt; File System          : ext4<br>
&gt;&gt; Device               : /dev/sda3<br>
&gt;&gt; Mount Options        : rw,noatime<br>
&gt;&gt; Inode Size           : 256<br>
&gt;&gt; Disk Space Free      : 179.3GB<br>
&gt;&gt; Total Disk Space     : 179.7GB<br>
&gt;&gt; Inode Count          : 11968512<br>
&gt;&gt; Free Inodes          : 11901550<br>
&gt;&gt;<br>
&gt;&gt; ------------------------------------------------------------------------------<br>
&gt;&gt; Brick                : Brick glt2.network.net:/home/sda3<br>
&gt;&gt; Port                 : 24009<br>
&gt;&gt; Online               : Y<br>
&gt;&gt; Pid                  : 1589<br>
&gt;&gt; File System          : ext4<br>
&gt;&gt; Device               : /dev/sda3<br>
&gt;&gt; Mount Options        : rw,noatime<br>
&gt;&gt; Inode Size           : 256<br>
&gt;&gt; Disk Space Free      : 179.3GB<br>
&gt;&gt; Total Disk Space     : 179.7GB<br>
&gt;&gt; Inode Count          : 11968512<br>
&gt;&gt; Free Inodes          : 11901550<br>
&gt;&gt;<br>
&gt;&gt; ------------------------------------------------------------------------------<br>
&gt;&gt; Brick                : Brick 1.1.74.246:/home/sdb1<br>
&gt;&gt; Port                 : 24010<br>
&gt;&gt; Online               : Y<br>
&gt;&gt; Pid                  : 1485<br>
&gt;&gt; File System          : ext4<br>
&gt;&gt; Device               : /dev/sdb1<br>
&gt;&gt; Mount Options        : rw,noatime<br>
&gt;&gt; Inode Size           : 256<br>
&gt;&gt; Disk Space Free      : 228.8GB<br>
&gt;&gt; Total Disk Space     : 229.2GB<br>
&gt;&gt; Inode Count          : 15269888<br>
&gt;&gt; Free Inodes          : 15202933<br>
&gt;&gt;<br>
&gt;&gt; ------------------------------------------------------------------------------<br>
&gt;&gt; Brick                : Brick glt2.network.net:/home/sdb1<br>
&gt;&gt; Port                 : 24010<br>
&gt;&gt; Online               : Y<br>
&gt;&gt; Pid                  : 1595<br>
&gt;&gt; File System          : ext4<br>
&gt;&gt; Device               : /dev/sdb1<br>
&gt;&gt; Mount Options        : rw,noatime<br>
&gt;&gt; Inode Size           : 256<br>
&gt;&gt; Disk Space Free      : 228.8GB<br>
&gt;&gt; Total Disk Space     : 229.2GB<br>
&gt;&gt; Inode Count          : 15269888<br>
&gt;&gt; Free Inodes          : 15202933<br>
&gt;&gt;<br>
&gt;&gt; ------------------------------------------------------------------------------<br>
&gt;&gt; Brick                : Brick glt3.network.net:/home/sda3<br>
&gt;&gt; Port                 : 24009<br>
&gt;&gt; Online               : Y<br>
&gt;&gt; Pid                  : 28963<br>
&gt;&gt; File System          : ext4<br>
&gt;&gt; Device               : /dev/sda3<br>
&gt;&gt; Mount Options        : rw,noatime<br>
&gt;&gt; Inode Size           : 256<br>
&gt;&gt; Disk Space Free      : 179.3GB<br>
&gt;&gt; Total Disk Space     : 179.7GB<br>
&gt;&gt; Inode Count          : 11968512<br>
&gt;&gt; Free Inodes          : 11906058<br>
&gt;&gt;<br>
&gt;&gt; ------------------------------------------------------------------------------<br>
&gt;&gt; Brick                : Brick gltclient.network.net:/home/sda3<br>
&gt;&gt; Port                 : 24009<br>
&gt;&gt; Online               : Y<br>
&gt;&gt; Pid                  : 3145<br>
&gt;&gt; File System          : ext4<br>
&gt;&gt; Device               : /dev/sda3<br>
&gt;&gt; Mount Options        : rw,noatime<br>
&gt;&gt; Inode Size           : 256<br>
&gt;&gt; Disk Space Free      : 179.3GB<br>
&gt;&gt; Total Disk Space     : 179.7GB<br>
&gt;&gt; Inode Count          : 11968512<br>
&gt;&gt; Free Inodes          : 11906058<br>
&gt;&gt;<br>
&gt;&gt; ------------------------------------------------------------------------------<br>
&gt;&gt; Brick                : Brick glt3.network.net:/home/sdb1<br>
&gt;&gt; Port                 : 24010<br>
&gt;&gt; Online               : Y<br>
&gt;&gt; Pid                  : 28969<br>
&gt;&gt; File System          : ext4<br>
&gt;&gt; Device               : /dev/sdb1<br>
&gt;&gt; Mount Options        : rw,noatime<br>
&gt;&gt; Inode Size           : 256<br>
&gt;&gt; Disk Space Free      : 228.8GB<br>
&gt;&gt; Total Disk Space     : 229.2GB<br>
&gt;&gt; Inode Count          : 15269888<br>
&gt;&gt; Free Inodes          : 15207375<br>
&gt;&gt;<br>
&gt;&gt; ------------------------------------------------------------------------------<br>
&gt;&gt; Brick                : Brick gltclient.network.net:/home/sdb1<br>
&gt;&gt; Port                 : 24010<br>
&gt;&gt; Online               : Y<br>
&gt;&gt; Pid                  : 3151<br>
&gt;&gt; File System          : ext4<br>
&gt;&gt; Device               : /dev/sdb1<br>
&gt;&gt; Mount Options        : rw,noatime<br>
&gt;&gt; Inode Size           : 256<br>
&gt;&gt; Disk Space Free      : 228.8GB<br>
&gt;&gt; Total Disk Space     : 229.2GB<br>
&gt;&gt; Inode Count          : 15269888<br>
&gt;&gt; Free Inodes          : 15207375<br>
&gt;&gt; _______________________________________________<br>
&gt;&gt; Gluster-users mailing list<br>
&gt;&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt;&gt; <a href="http://gluster.org/cgi-bin/mailman/listinfo/gluster-users" target="_blank">http://gluster.org/cgi-bin/mailman/listinfo/gluster-users</a><br>
&gt;&gt;<br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; Gluster-users mailing list<br>
&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt; <a href="http://gluster.org/cgi-bin/mailman/listinfo/gluster-users" target="_blank">http://gluster.org/cgi-bin/mailman/listinfo/gluster-users</a><br>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://gluster.org/cgi-bin/mailman/listinfo/gluster-users" target="_blank">http://gluster.org/cgi-bin/mailman/listinfo/gluster-users</a><br>
</blockquote></div><br></div>