Hi Roland,<br><br>What are the applications you are using on glusterfs? In particular, what is the i/o pattern of applications? As a general guideline, you can try enabling/disabling each of the performance translators and observe the gain/loss of performance and tune the configuration accordingly.<br>
<br>regards,<br><div class="gmail_quote">On Wed, Mar 17, 2010 at 9:05 PM, Roland Fischer <span dir="ltr">&lt;<a href="mailto:roland.fischer@xidras.com">roland.fischer@xidras.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
Hi Community,<br>
<br>
i need your help. i have performance problems with glusterfs 3.0.0 and domUs (xen)<br>
<br>
i use 2 ident glusterfs-server (physikal HW) and two xen-server (physikal)<br>
<br>
currently i use client side replication - which is awful slow. i use a monitoring tool and see in domUs that there is a lot of cpu waiting. (before i switch to glusterfs there was no wait CPU)<br>
<br>
is server-side-replication faster and failsave. i mean if one glusterfs server goes down, does the other take over the domUs?<br>
<br>
is there anything in volfiles which i can tune?!? should i use server-side-replication?!?<br>
<br>
should i use the --disable-direct-io-mode? if yes on server side or client-side or both  -  and how to add in fstab (with --disable-direct-io-mode)?????<br>
<br>
Thank you for your help!!!<br>
<br>
servervolfile:<br>
cat /etc/glusterfs/export-domU-images-client_repl.vol<br>
#############<br>
volume posix<br>
  type storage/posix<br>
  option directory /GFS/domU-images<br>
end-volume<br>
<br>
volume locks<br>
  type features/locks<br>
  subvolumes posix<br>
end-volume<br>
<br>
volume domU-images<br>
  type performance/io-threads<br>
  option thread-count 8 # default is 16<br>
  subvolumes locks<br>
end-volume<br>
<br>
volume server<br>
  type protocol/server<br>
  option transport-type tcp<br>
  option auth.addr.domU-images.allow 192.*.*.*,127.0.0.1<br>
  option transport.socket.listen-port 6997<br>
  subvolumes domU-images<br>
end-volume<br>
######################<br>
<br>
clientvolfiles:<br>
<br>
cat /etc/glusterfs/mount-domU-images-client_repl.vol<br>
volume gfs-01-01<br>
  type protocol/client<br>
  option transport-type tcp<br>
  option remote-host hostname<br>
  option transport.socket.nodelay on<br>
  option remote-port 6997<br>
  option remote-subvolume domU-images<br>
  option ping-timeout 5<br>
end-volume<br>
<br>
volume gfs-01-02<br>
  type protocol/client<br>
  option transport-type tcp<br>
  option remote-host hostname<br>
  option transport.socket.nodelay on<br>
  option remote-port 6997<br>
  option remote-subvolume domU-images<br>
  option ping-timeout 5<br>
end-volume<br>
<br>
volume gfs-replicate<br>
  type cluster/replicate<br>
  subvolumes gfs-01-01 gfs-01-02<br>
end-volume<br>
<br>
volume writebehind<br>
  type performance/write-behind<br>
  option cache-size 4MB   #default 16<br>
  subvolumes gfs-replicate<br>
end-volume<br>
<br>
volume readahead<br>
  type performance/read-ahead<br>
  option page-count 8              # cache per file  = (page-count x page-size)<br>
  subvolumes writebehind<br>
end-volume<br>
<br>
volume iocache<br>
  type performance/io-cache<br>
  option cache-size 1GB   #new 1GB supported<br>
  option cache-timeout 1<br>
  subvolumes readahead<br>
end-volume<br>
<br>
volume statprefetch<br>
    type performance/stat-prefetch<br>
    subvolumes iocache<br>
end-volume<br>
<br>
#################################################<br>
<br>
<br>
Best regards,<br>
Roland<br>
<br>
<br>
<br>
_______________________________________________<br>
Gluster-devel mailing list<br>
<a href="mailto:Gluster-devel@nongnu.org" target="_blank">Gluster-devel@nongnu.org</a><br>
<a href="http://lists.nongnu.org/mailman/listinfo/gluster-devel" target="_blank">http://lists.nongnu.org/mailman/listinfo/gluster-devel</a><br>
</blockquote></div><br><br clear="all"><br>-- <br>Raghavendra G<br><br>