Dear All,<br><br>we are currently using NFS to meet data sharing requirements.Now we are facing&nbsp; some performance and scalability problem ,so this form does not meet the requirements of our network(performance).So we are finding the possible solutions to increase the performance and scalability .To give very strong solution to NFS issue I have analysed two File System one is GlusterFS and another one is Red Hat GFS.we conclude that GlusterFS will increase the performance and scalability ,It has all the features we are looking .For the testing purpose I am benchmarking NFS and GlusterFS to get better performance .My benchmark result shows that GlusterFS give better performance ,but i am getting some unacceptable read performance . I am not able to understand how exactly the read operation performs NFS and GlusterFS .even I don&#39;t know anything i am doing wrong.here i am showing the benchmark result to get better idea of my read performance issuee .i have attached the result of NFS and GlusterFS read&nbsp; values .any one can please go thro this and give me some valuable guide .It will make my benchmarking very effective .&nbsp; <br>
<br>This my server and client Hardware and software :<br><br>HARDWARE CONFIG:<br><br>Processor core speed&nbsp; : Intel(R) Celeron(R) CPU 1.70GHz<br><br>Number of cores&nbsp; : Single Core (not dual-core)<br><br>RAM size&nbsp; : 384MB(128MB+256MB)<br>
<br>RAM type&nbsp; : DDR<br><br>RAM Speed&nbsp; : 266 MHz (3.8 ns)<br><br>Swap&nbsp; : 1027MB<br><br>Storage controller&nbsp; : ATA device<br><br>Disk model/size&nbsp; : SAMSUNG SV4012H /40 GB,2 MB Cache,<br><br>Storage speed&nbsp; : 52.4 MB/sec<br><br>
Spindle Speed&nbsp; : 5400 rpm(Revolution per Minute)<br><br>NIC Type&nbsp; : VIA Rhine III chipset IRQ 18<br><br>NIC Speed&nbsp; : 100 Mbps/Full-Duplex Card <br><br>SOFTWARE:<br><br>Operation System : Fedora Core 9 GNU/Linux<br><br>Linux version&nbsp; : 2.6.9-42<br>
<br>Local FS&nbsp; : Ext3<br><br>NFS version&nbsp; : 1.1.2<br><br>GlusterFS version: glusterfs 1.3.8 built on Feb 3 2008<br><br>Iozone&nbsp; : iozone-3-5.fc9.i386 (File System Benchmark Tool)<br><br>ttcp&nbsp; : ttcp-1.12-18.fc9.i386(RAW throughput measurement Tool) <br>
<br>This is the server and client vol files i am using the benchmarking <br><br>#GlusterFS Server Volume Specification <br><br>volume brick<br>&nbsp; type storage/posix&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; # POSIX FS translator<br>&nbsp; option directory /bench&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; # /bench dir contains 25,000 files with size 10 KB 15KB<br>
end-volume<br><br>volume iot<br>&nbsp; type performance/io-threads<br>&nbsp; option thread-count 4&nbsp; <br>&nbsp; option cache-size 8MB<br>&nbsp; subvolumes brick<br>end-volume<br><br>volume server<br>&nbsp; type protocol/server<br>&nbsp; option transport-type tcp/server&nbsp;&nbsp;&nbsp;&nbsp; <br>
&nbsp; subvolumes iot<br>&nbsp; option auth.ip.brick.allow * # Allow access to &quot;brick&quot; volume<br>end-volume<br><br><br><br># GlusterFS Client Volume Specification&nbsp; <br><br>volume client<br>&nbsp; type protocol/client<br>&nbsp; option transport-type tcp/client&nbsp;&nbsp;&nbsp;&nbsp; <br>
&nbsp; option remote-host 192.xxx.x.xxx&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; <br>&nbsp; option remote-subvolume brick&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; <br>end-volume<br><br>volume readahead<br>&nbsp; type performance/read-ahead<br>&nbsp; option page-size 128KB&nbsp;&nbsp;&nbsp;&nbsp; # 256KB is the default option<br>
&nbsp; option page-count 4&nbsp;&nbsp;&nbsp;&nbsp; # cache per file&nbsp; = (page-count x page-size)&nbsp; 2 is default option<br>&nbsp; subvolumes client<br>end-volume<br><br>volume iocache<br>&nbsp; type performance/io-cache<br>&nbsp; #option page-size 128KB&nbsp;&nbsp; ## default is 32MB<br>
&nbsp; option cache-size 256MB&nbsp; #128KB is default option<br>&nbsp; option page-count 4&nbsp; <br>&nbsp; subvolumes readahead<br>end-volume<br><br>volume writeback<br>&nbsp; type performance/write-behind<br>&nbsp; option aggregate-size 128KB<br>&nbsp; option flush-behind on<br>
&nbsp; subvolumes iocache&nbsp;&nbsp; <br>end-volume<br><br><br>I am confusing this result .I don&#39;t have idea how to trace and get good comparable result is read performance .I think I am miss understanding the buffer cache concepts .<br>
<br>From attached NFS read result , I understand that I have 348MB RAM&nbsp; and I am doing the benchmark file size rage 128KB to 1GB .So up to file size 256MB I am getting&nbsp; buffer cache performance and file size 512MB ,1GB I am getting with in&nbsp; link speed .But in case of GlusterFS I not able to understand what is happening .&nbsp; <br>
<br>Please any one can help me .<br><br><br><br>Thanks for your time<br>Mohan<br><br>