many thanks for sharing guys.  an informative read indeed!<div><br></div><div>i&#39;ve 4x dells - each running 12 drives on PERC 600.  was dissapointed to hear they&#39;re so bad!  we never got round to doing intensive tests this in depth.  12x2T WD RE4 (sata) is giving me ~600Mb/s write on the bare filesystem.  joe, does that tally with your expectations for 12 SATA drives running RAID6?  (i&#39;d put more faith in your gut reaction than our last tests...)  ;)</div>

<div><br></div><div>-p</div><div><br><br><div class="gmail_quote">On 20 April 2011 21:02, Mohit Anchlia <span dir="ltr">&lt;<a href="mailto:mohitanchlia@gmail.com">mohitanchlia@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">

Thanks a lot for taking time and effort. I will try raw performance<br>
first but that will only be going to one disk instead of 4. But I<br>
think it definitely makes sense as the first step.<br>
<div><div></div><div class="h5"><br>
On Wed, Apr 20, 2011 at 12:53 PM, Joe Landman<br>
&lt;<a href="mailto:landman@scalableinformatics.com">landman@scalableinformatics.com</a>&gt; wrote:<br>
&gt; On 04/20/2011 03:43 PM, Mohit Anchlia wrote:<br>
&gt;&gt;<br>
&gt;&gt; Thanks! Is there any recommended configuration you want me to use when<br>
&gt;&gt; using mdadm?<br>
&gt;&gt;<br>
&gt;&gt; I got this link:<br>
&gt;&gt;<br>
&gt;&gt; <a href="http://tldp.org/HOWTO/Software-RAID-HOWTO-5.html#ss5.1" target="_blank">http://tldp.org/HOWTO/Software-RAID-HOWTO-5.html#ss5.1</a><br>
&gt;<br>
&gt; First things first, break the RAID0, and then lets measure performance per<br>
&gt; disk, to make sure nothing else bad is going on.<br>
&gt;<br>
&gt;        dd if=/dev/zero of=/dev/DISK bs=128k count=80k oflag=direct<br>
&gt;        dd of=/dev/null if=/dev/DISK bs=128k count=80k iflag=direct<br>
&gt;<br>
&gt; for /dev/DISK being one of the drives in your existing RAID0.  Once we know<br>
&gt; the raw performance, I&#39;d suggest something like this<br>
&gt;<br>
&gt;        mdadm --create /dev/md0 --metadata=1.2 --chunk=512 \<br>
&gt;                --raid-devices=4 /dev/DISK1 /dev/DISK2     \<br>
&gt;                                 /dev/DISK3 /dev/DISK4<br>
&gt;        mdadm --examine --scan | grep &quot;md\/0&quot; &gt;&gt; /etc/mdadm.conf<br>
&gt;<br>
&gt; then<br>
&gt;<br>
&gt;        dd if=/dev/zero of=/dev/md0 bs=128k count=80k oflag=direct<br>
&gt;        dd of=/dev/null if=/dev/md0 bs=128k count=80k iflag=direct<br>
&gt;<br>
&gt; and lets see how it behaves.  If these are good, then<br>
&gt;<br>
&gt;        mkfs.xfs -l version=2 -d su=512k,sw=4,agcount=32 /dev/md0<br>
&gt;<br>
&gt; (yeah, I know, gluster folk have a preference for ext* ... we generally<br>
&gt; don&#39;t recommend ext* for anything other than OS drives ... you might need to<br>
&gt; install xfsprogs and the xfs kernel module ... which kernel are you using<br>
&gt; BTW?)<br>
&gt;<br>
&gt; then<br>
&gt;<br>
&gt;        mount -o logbufs=4,logbsize=64k /dev/md0 /data<br>
&gt;        mkdir stress<br>
&gt;<br>
&gt;<br>
&gt;        dd if=/dev/zero of=/data/big.file bs=128k count=80k oflag=direct<br>
&gt;        dd of=/dev/null if=/data/big.file bs=128k count=80k iflag=direct<br>
&gt;<br>
&gt; and see how it handles things.<br>
&gt;<br>
&gt; When btrfs finally stabilizes enough to be used, it should be a reasonable<br>
&gt; replacement for xfs, but this is likely to be a few years.<br>
&gt;<br>
&gt; --<br>
&gt; Joseph Landman, Ph.D<br>
&gt; Founder and CEO<br>
&gt; Scalable Informatics Inc.<br>
&gt; email: <a href="mailto:landman@scalableinformatics.com">landman@scalableinformatics.com</a><br>
&gt; web  : <a href="http://scalableinformatics.com" target="_blank">http://scalableinformatics.com</a><br>
&gt;       <a href="http://scalableinformatics.com/sicluster" target="_blank">http://scalableinformatics.com/sicluster</a><br>
&gt; phone: +1 734 786 8423 x121<br>
&gt; fax  : +1 866 888 3112<br>
&gt; cell : +1 734 612 4615<br>
&gt;<br>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://gluster.org/cgi-bin/mailman/listinfo/gluster-users" target="_blank">http://gluster.org/cgi-bin/mailman/listinfo/gluster-users</a><br>
</div></div></blockquote></div><br></div>