<html><head/><body><html><head></head><body>That&#39;s impressive, thanks. <br>
<br>
To be clear, that follows the second suggestion which requires the library in the 3.4 qa release, right? <br><br><div class="gmail_quote">Bharata B Rao &lt;bharata.rao@gmail.com&gt; wrote:<blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;">
<pre style="white-space: pre-wrap; word-wrap:break-word; font-family: sans-serif; margin-top: 0px">Joe,<br /><br />On Sun, Jan 13, 2013 at 8:41 PM, Joe Julian &lt;joe@julianfamily.org&gt; wrote:<br /><br /><blockquote class="gmail_quote" style="margin: 0pt 0pt 1ex 0.8ex; border-left: 1px solid #729fcf; padding-left: 1ex;">You have two options:<br />1. Mount the GlusterFS volume from within the VM and host the data you're<br />operating on there. This avoids all the additional overhead of managing a<br />filesystem on top of FUSE.</blockquote><br />In my very limited testing, I have found that using the gluster data<br />drive as a 2nd gluster drive (1st being the VM image itself) to QEMU<br />gives better performance than mounting the gluster volume directly<br />from guest.<br /><br />Here are some numbers from FIO read and write:<br />Env: Dual core x86_64 system with F17 running 3.6.10-2.fc17.x86_64<br />kernel for host and F18 3.6.6-3.fc18.x86_74 for guest.<br /><br />Case 1:
Mount a gluster volume (test) from inside guest and run FIO<br />read and writes into the mounted gluster drive.<br />[host]# qemu -drive  file=gluster://bharata/rep/F18,if=virtio,cache=none<br />[guest]# glusterfs -s bharata --volfile-id=test /mnt<br /><br />Case 2: Specify gluster volume (test) as a drive to QEMU itself.<br />[host]# qemu -drive<br />file=gluster://bharata/rep/F18,if=virtio,cache=none -drive<br />file=gluster://bharata/test/F17,if=virtio,cache=none.<br />[guest]# mount /dev/vdb3 /mnt<br /><br />In both the above cases, the VM image(F18) resides on GlusterFS volume<br />(rep). And FIO read and writes are performed to /mnt/data1 in both<br />cases.<br /><br />FIO aggregated bandwidth (kB/s) (Avg of 5 runs)<br />Case1    Case 2<br />read  28740     52309<br />Write 27578     48765<br /><br />FIO load file is as follows:<br />[global]<br />ioengine=libaio<br />direct=1<br />rw=read # rw=write for write test<br />bs=128k<br />size=512m<br />directory=/mnt/data1<br
/>[file1]<br />iodepth=4<br />[file2]<br />iodepth=32<br />[file3]<br />iodepth=8<br />[file4]<br />iodepth=16<br /><br />Of course this is just one case, I wonder if you have seen better<br />numbers for guest FUSE mount case for any of the benchmarks you use ?<br /><br /><blockquote class="gmail_quote" style="margin: 0pt 0pt 1ex 0.8ex; border-left: 1px solid #729fcf; padding-left: 1ex;">2. Try the 3.4 qa release and native GlusterFS support in the latest<br />qemu-kvm.</blockquote><br />Regards,<br />Bharata.</pre></blockquote></div></body></html></body></html>