<html><head><meta http-equiv="Content-Type" content="text/html; charset=UTF-8"><title></title><style type="text/css">.felamimail-body-blockquote {margin: 5px 10px 0 3px;padding-left: 10px;border-left: 2px solid #000088;} </style></head><body><font face="tahoma, arial, helvetica, sans-serif">I would strongly recommend to restart fresh with gluster 3.2.4 from&nbsp;<span id="felamimail-body-signature"></span></font><div><font face="tahoma, arial, helvetica, sans-serif">http://download.gluster.org/pub/gluster/glusterfs/3.4/</font></div><div><span style="font-family: tahoma, arial, helvetica, sans-serif;">It works totally fine for me.</span></div><div><span style="font-family: tahoma, arial, helvetica, sans-serif;">(</span><span style="font-family: tahoma, arial, helvetica, sans-serif;">reinstall the vms as slim as possible if you can.)</span></div><div><br></div><div><font face="tahoma, arial, helvetica, sans-serif">As a quick howto consider this:</font></div><div><font face="tahoma, arial, helvetica, sans-serif"><br></font></div><div><div>- We have 2 Hardware machines (just desktop machines for dev-env)</div><div>- both running zol</div><div>- create a zpool and zfs filesystem</div><div>- create a gluster replica 2 volume between hostA and hostB</div><div>- installe 3 VM vmachine0{4,5,6}</div><div>- vmachine0{4,5} each have a 100GB diskimage file as /dev/vdb which also resides on the glustervolume</div><div>- create ext3 filesystem on vmachine0{4,5}:/dev/vdb1</div><div>- create gluster replica 2 between vmachine04 and vmachine05 as shown below</div><div><br></div><div><div>(!!!obviously nobody would do that in any serious environment,</div><div>just to show that even a setup like that _would_ be possible!!!)</div></div><div><br></div><div>- run some benchmarks on that volume and compare the results to other&nbsp;</div><div><br></div><div>So:</div><div><br></div><div>root@vmachine04[/0]:~ # mkdir -p /srv/vdb1/gf_brick</div><div>root@vmachine04[/0]:~ # mount /dev/vdb1 /srv/vdb1/</div><div>root@vmachine04[/0]:~ # gluster peer probe vmachine05</div><div>peer probe: success</div><div><br></div><div># now switch over to vmachine05 and do</div><div><br></div><div>root@vmachine05[/1]:~ # mkdir -p /srv/vdb1/gf_brick</div><div>root@vmachine05[/1]:~ # mount /dev/vdb1 /srv/vdb1/</div><div>root@vmachine05[/1]:~ # gluster peer probe vmachine04</div><div>peer probe: success</div><div>root@vmachine05[/1]:~ # gluster peer probe vmachine04</div><div>peer probe: success: host vmachine04 port 24007 already in peer list</div><div><br></div><div># the peer probe from BOTH sides ist often forgotten&nbsp;</div><div># switch back to vmachine04 and continue with</div><div><br></div><div>root@vmachine04[/0]:~ # gluster peer status</div><div>Number of Peers: 1</div><div><br></div><div>Hostname: vmachine05</div><div>Port: 24007</div><div>Uuid: 085a1489-dabf-40bb-90c1-fbfe66539953</div><div>State: Peer in Cluster (Connected)</div><div>root@vmachine04[/0]:~ # gluster volume info layer_cake_volume</div><div><br></div><div>Volume Name: layer_cake_volume</div><div>Type: Replicate</div><div>Volume ID: ef5299db-2896-4631-a2a8-d0082c1b25be</div><div>Status: Started</div><div>Number of Bricks: 1 x 2 = 2</div><div>Transport-type: tcp</div><div>Bricks:</div><div>Brick1: vmachine04:/srv/vdb1/gf_brick</div><div>Brick2: vmachine05:/srv/vdb1/gf_brick</div><div>root@vmachine04[/0]:~ # gluster volume status layer_cake_volume</div><div>Status of volume: layer_cake_volume</div><div>Gluster process &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Port &nbsp; &nbsp;Online &nbsp;Pid</div><div>------------------------------------------------------------------------------</div><div>Brick vmachine04:/srv/vdb1/gf_brick &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 49152 &nbsp; Y &nbsp; &nbsp; &nbsp; 12778</div><div>Brick vmachine05:/srv/vdb1/gf_brick &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 49152 &nbsp; Y &nbsp; &nbsp; &nbsp; 16307</div><div>NFS Server on localhost &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 2049 &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 12790</div><div>Self-heal Daemon on localhost &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; N/A &nbsp; &nbsp; Y &nbsp; &nbsp; &nbsp; 12791</div><div>NFS Server on vmachine05 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;2049 &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 16320</div><div>Self-heal Daemon on vmachine05 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;N/A &nbsp; &nbsp; Y &nbsp; &nbsp; &nbsp; 16319</div><div><br></div><div>There are no active volume tasks</div><div><br></div><div># set any option you might like</div><div><br></div><div>root@vmachine04[/1]:~ # gluster volume set layer_cake_volume network.remote-dio enable</div><div>volume set: success</div><div><br></div><div># go to vmachine06 and mount the volume</div><div>root@vmachine06[/1]:~ # mkdir /srv/layer_cake</div><div>root@vmachine06[/1]:~ # mount -t glusterfs -o backupvolfile-server=vmachine05 vmachine04:/layer_cake_volume /srv/layer_cake</div><div>root@vmachine06[/1]:~ # mount</div><div>vmachine04:/layer_cake_volume on /srv/layer_cake type fuse.glusterfs (rw,default_permissions,allow_other,max_read=131072)</div><div>root@vmachine06[/1]:~ # df -h</div><div>Filesystem &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Size &nbsp;Used Avail Use% Mounted on</div><div>...</div><div>vmachine04:/layer_cake_volume &nbsp; 97G &nbsp;188M &nbsp; 92G &nbsp; 1% /srv/layer_cake</div><div><br></div><div>All fine and stable</div><div><br></div><div><br></div><div><br></div><div># now let's see how it tastes</div><div># note this is postmark on &nbsp;/ NOT on the glustermounted layer_cake_volume!</div><div># that postmark results might be available tomorrow ;-)))</div><div>root@vmachine06[/1]:~ # postmark</div><div>PostMark v1.51 : 8/14/01</div><div>pm&gt;set transactions 500000</div><div>pm&gt;set number 200000</div><div>pm&gt;set subdirectories 10000</div><div>pm&gt;run</div><div>Creating subdirectories...Done</div><div>Creating files...Done</div><div>Performing transactions..........Done</div><div>Deleting files...Done</div><div>Deleting subdirectories...Done</div><div>Time:</div><div>&nbsp; &nbsp; &nbsp; &nbsp; 2314 seconds total</div><div>&nbsp; &nbsp; &nbsp; &nbsp; 2214 seconds of transactions (225 per second)</div></div><div><div>Files:</div><div>&nbsp; &nbsp; &nbsp; &nbsp; 450096 created (194 per second)</div><div>&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Creation alone: 200000 files (4166 per second)</div><div>&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Mixed with transactions: 250096 files (112 per second)</div><div>&nbsp; &nbsp; &nbsp; &nbsp; 249584 read (112 per second)</div><div>&nbsp; &nbsp; &nbsp; &nbsp; 250081 appended (112 per second)</div><div>&nbsp; &nbsp; &nbsp; &nbsp; 450096 deleted (194 per second)</div><div>&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Deletion alone: 200192 files (3849 per second)</div><div>&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Mixed with transactions: 249904 files (112 per second)</div><div><br></div><div>Data:</div><div>&nbsp; &nbsp; &nbsp; &nbsp; 1456.29 megabytes read (644.44 kilobytes per second)</div><div>&nbsp; &nbsp; &nbsp; &nbsp; 2715.89 megabytes written (1.17 megabytes per second)</div><div><br></div><div># reference</div><div># running postmark on the hardware machine directly on zfs</div><div>#</div><div># &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; /test # postmark</div><div># &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; PostMark v1.51 : 8/14/01</div><div># &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; pm&gt;set transactions 500000</div><div># &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; pm&gt;set number 200000</div><div># &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; pm&gt;set subdirectories 10000</div><div># &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; pm&gt;run</div><div># &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Creating subdirectories...Done</div><div># &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Creating files...Done</div><div># &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Performing transactions..........Done</div><div># &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Deleting files...Done</div><div># &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Deleting subdirectories...Done</div><div># &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Time:</div><div># &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 605 seconds total</div><div># &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 549 seconds of transactions (910 per second)</div><div>#</div><div># &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Files:</div><div># &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 450096 created (743 per second)</div><div># &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Creation alone: 200000 files (4255 per second)</div><div># &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Mixed with transactions: 250096 files (455 per second)</div><div># &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 249584 read (454 per second)</div><div># &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 250081 appended (455 per second)</div><div># &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 450096 deleted (743 per second)</div><div># &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Deletion alone: 200192 files (22243 per second)</div><div># &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Mixed with transactions: 249904 files (455 per second)</div><div>#</div><div># &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Data:</div><div># &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 1456.29 megabytes read (2.41 megabytes per second)</div><div># &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 2715.89 megabytes written (4.49 megabytes per second)</div><div><br></div><div>dbench -D /srv/layer_cake 5</div><div><br></div><div>&nbsp;Operation &nbsp; &nbsp; &nbsp;Count &nbsp; &nbsp;AvgLat &nbsp; &nbsp;MaxLat</div><div>&nbsp;----------------------------------------</div><div>&nbsp;NTCreateX &nbsp; &nbsp; 195815 &nbsp; &nbsp; 5.159 &nbsp; 333.296</div><div>&nbsp;Close &nbsp; &nbsp; &nbsp; &nbsp; 143870 &nbsp; &nbsp; 0.793 &nbsp; &nbsp;93.619</div><div>&nbsp;Rename &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;8310 &nbsp; &nbsp;10.922 &nbsp; 123.096</div><div>&nbsp;Unlink &nbsp; &nbsp; &nbsp; &nbsp; 39525 &nbsp; &nbsp; 2.428 &nbsp; 203.753</div><div>&nbsp;Qpathinfo &nbsp; &nbsp; 177736 &nbsp; &nbsp; 2.551 &nbsp; 220.605</div><div>&nbsp;Qfileinfo &nbsp; &nbsp; &nbsp;31030 &nbsp; &nbsp; 2.057 &nbsp; 175.565</div><div>&nbsp;Qfsinfo &nbsp; &nbsp; &nbsp; &nbsp;32545 &nbsp; &nbsp; 1.393 &nbsp; 174.045</div><div>&nbsp;Sfileinfo &nbsp; &nbsp; &nbsp;15967 &nbsp; &nbsp; 2.691 &nbsp; 129.028</div><div>&nbsp;Find &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 68664 &nbsp; &nbsp; 9.629 &nbsp; 185.739</div><div>&nbsp;WriteX &nbsp; &nbsp; &nbsp; &nbsp; 96860 &nbsp; &nbsp; 0.841 &nbsp; 108.863</div><div>&nbsp;ReadX &nbsp; &nbsp; &nbsp; &nbsp; 307834 &nbsp; &nbsp; 0.511 &nbsp; 213.602</div><div>&nbsp;LockX &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;642 &nbsp; &nbsp; 1.511 &nbsp; &nbsp;10.578</div><div>&nbsp;UnlockX &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;642 &nbsp; &nbsp; 1.541 &nbsp; &nbsp;10.137</div><div>&nbsp;Flush &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;13712 &nbsp; &nbsp;12.853 &nbsp; 405.383</div><div><br></div><div>Throughput 10.1832 MB/sec &nbsp;5 clients &nbsp;5 procs &nbsp;max_latency=405.405 ms</div><div><br></div><div><br></div><div># reference</div><div>dbench -D /tmp 5</div></div><div><div># reference</div><div>dbench -D /tmp 5</div><div><br></div><div>&nbsp;Operation &nbsp; &nbsp; &nbsp;Count &nbsp; &nbsp;AvgLat &nbsp; &nbsp;MaxLat</div><div>&nbsp;----------------------------------------</div><div>&nbsp;NTCreateX &nbsp; &nbsp;3817455 &nbsp; &nbsp; 0.119 &nbsp; 499.847</div><div>&nbsp;Close &nbsp; &nbsp; &nbsp; &nbsp;2804160 &nbsp; &nbsp; 0.005 &nbsp; &nbsp;16.000</div><div>&nbsp;Rename &nbsp; &nbsp; &nbsp; &nbsp;161655 &nbsp; &nbsp; 0.322 &nbsp; 459.790</div><div>&nbsp;Unlink &nbsp; &nbsp; &nbsp; &nbsp;770906 &nbsp; &nbsp; 0.556 &nbsp; 762.314</div><div>&nbsp;Deltree &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 92 &nbsp; &nbsp;20.647 &nbsp; &nbsp;81.619</div><div>&nbsp;Mkdir &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 46 &nbsp; &nbsp; 0.003 &nbsp; &nbsp; 0.012</div><div>&nbsp;Qpathinfo &nbsp; &nbsp;3460227 &nbsp; &nbsp; 0.017 &nbsp; &nbsp;18.388</div><div>&nbsp;Qfileinfo &nbsp; &nbsp; 606258 &nbsp; &nbsp; 0.003 &nbsp; &nbsp;11.652</div><div>&nbsp;Qfsinfo &nbsp; &nbsp; &nbsp; 634444 &nbsp; &nbsp; 0.006 &nbsp; &nbsp;14.976</div><div>&nbsp;Sfileinfo &nbsp; &nbsp; 310990 &nbsp; &nbsp; 0.155 &nbsp; 604.585</div><div>&nbsp;Find &nbsp; &nbsp; &nbsp; &nbsp; 1337732 &nbsp; &nbsp; 0.056 &nbsp; &nbsp;18.466</div><div>&nbsp;WriteX &nbsp; &nbsp; &nbsp; 1902611 &nbsp; &nbsp; 0.245 &nbsp; 503.604</div><div>&nbsp;ReadX &nbsp; &nbsp; &nbsp; &nbsp;5984135 &nbsp; &nbsp; 0.008 &nbsp; &nbsp;16.154</div><div>&nbsp;LockX &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;12430 &nbsp; &nbsp; 0.008 &nbsp; &nbsp; 9.111</div><div>&nbsp;UnlockX &nbsp; &nbsp; &nbsp; &nbsp;12430 &nbsp; &nbsp; 0.004 &nbsp; &nbsp; 4.551</div><div>&nbsp;Flush &nbsp; &nbsp; &nbsp; &nbsp; 267557 &nbsp; &nbsp; 4.505 &nbsp; 902.093</div><div><br></div><div>Throughput 199.664 MB/sec &nbsp;5 clients &nbsp;5 procs &nbsp;max_latency=902.099 ms</div></div><div><br></div></body></html>