<html>
<head>
<style><!--
.hmmessage P
{
margin:0px;
padding:0px
}
body.hmmessage
{
font-size: 10pt;
font-family:Tahoma
}
--></style>
</head>
<body class='hmmessage'><div dir='ltr'>
I found the problem this morning !<br>It's because TCP connection are not reseted on Master Server and when the client come back on master, they enter both in a "TCP DUP ACK" storm. Need to kill all gluster process when Master comes up.<br>More info : <a href="https://bugzilla.redhat.com/show_bug.cgi?id=369991#c31">https://bugzilla.redhat.com/show_bug.cgi?id=369991#c31</a><br><br>Anthony<br><br><br><div>&gt; From: mueller@tropenklinik.de<br>&gt; To: sokar6012@hotmail.com; whit.gluster@transpect.com<br>&gt; CC: gluster-users@gluster.org<br>&gt; Subject: AW: [Gluster-users] UCARP with NFS<br>&gt; Date: Thu, 8 Sep 2011 16:13:24 +0200<br>&gt; <br>&gt; Cmd on slave : <br>&gt; usr/sbin/ucarp -z -B -M -b 1 -i bond0:0<br>&gt; <br>&gt; Did you try "-b 7" at your cmd start. This solved for me the things in<br>&gt; another configuration<br>&gt; <br>&gt; <br>&gt; <br>&gt; <br>&gt; EDV Daniel Müller<br>&gt; <br>&gt; Leitung EDV<br>&gt; Tropenklinik Paul-Lechler-Krankenhaus<br>&gt; Paul-Lechler-Str. 24<br>&gt; 72076 Tübingen <br>&gt; Tel.: 07071/206-463, Fax: 07071/206-499<br>&gt; eMail: mueller@tropenklinik.de<br>&gt; Internet: www.tropenklinik.de <br>&gt; <br>&gt; Von: gluster-users-bounces@gluster.org<br>&gt; [mailto:gluster-users-bounces@gluster.org] Im Auftrag von anthony garnier<br>&gt; Gesendet: Donnerstag, 8. September 2011 15:55<br>&gt; An: whit.gluster@transpect.com<br>&gt; Cc: gluster-users@gluster.org<br>&gt; Betreff: Re: [Gluster-users] UCARP with NFS<br>&gt; <br>&gt; Whit,<br>&gt; <br>&gt; Here is my conf file : <br>&gt; #<br>&gt; # Location of the ucarp pid file<br>&gt; UCARP_PIDFILE=/var/run/ucarp0.pid<br>&gt; <br>&gt; # Define if this host is the prefered MASTER ( this aadd or remove the -P<br>&gt; option)<br>&gt; UCARP_MASTER="yes"<br>&gt; <br>&gt; #<br>&gt; # ucarp base, Interval monitoring time <br>&gt; #lower number will be perfered master<br>&gt; # set to same to have master stay alive as long as possible<br>&gt; UCARP_BASE=1<br>&gt; <br>&gt; #Priority [0-255]<br>&gt; #lower number will be perfered master<br>&gt; ADVSKEW=0<br>&gt; <br>&gt; <br>&gt; #<br>&gt; # Interface for Ipaddress<br>&gt; INTERFACE=bond0:0<br>&gt; <br>&gt; #<br>&gt; # Instance id<br>&gt; # any number from 1 to 255<br>&gt; # Master and Backup need to be the same<br>&gt; INSTANCE_ID=42<br>&gt; <br>&gt; #<br>&gt; # Password so servers can trust who they are talking to<br>&gt; PASSWORD=glusterfs<br>&gt; <br>&gt; #<br>&gt; # The Application Address that will failover<br>&gt; VIRTUAL_ADDRESS=10.68.217.3<br>&gt; VIRTUAL_BROADCAST=10.68.217.255<br>&gt; VIRTUAL_NETMASK=255.255.255.0<br>&gt; #<br>&gt; <br>&gt; #Script for configuring interface<br>&gt; UPSCRIPT=/etc/ucarp/script/vip-up.sh<br>&gt; DOWNSCRIPT=/etc/ucarp/script/vip-down.sh<br>&gt; <br>&gt; # The Maintanence Address of the local machine<br>&gt; SOURCE_ADDRESS=10.68.217.85<br>&gt; <br>&gt; <br>&gt; Cmd on master : <br>&gt; /usr/sbin/ucarp -z -B -P -b 1 -i bond0:0 -v 42 -p glusterfs -k 0 -a<br>&gt; 10.68.217.3 -s 10.68.217.85 --upscript=/etc/ucarp/script/vip-up.sh<br>&gt; --downscript=/etc/ucarp/script/vip-down.sh<br>&gt; <br>&gt; Cmd on slave : <br>&gt; usr/sbin/ucarp -z -B -M -b 1 -i bond0:0 \ -v 42 -p glusterfs -k 50 -a<br>&gt; 10.68.217.3 -s 10.68.217.86 --upscript=/etc/ucarp/script/vip-up.sh<br>&gt; --downscript=/etc/ucarp/script/vip-down.sh<br>&gt; <br>&gt; <br>&gt; To me, to have a prefered master is necessary because I'm using RR DNS and I<br>&gt; want to do a kind of "active/active" failover.I'll explain the whole idea : <br>&gt; <br>&gt; SERVER 1&lt;---------------&gt; SERVER 2<br>&gt; VIP1&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; VIP2<br>&gt; <br>&gt; When I access the URL glusterfs.preprod.inetpsa.com, RRDNS gives me one of<br>&gt; the VIP(load balancing). The main problem here&nbsp; is if I use only RRDNS, if a<br>&gt; server goes down the client currently binded on this server will fail to. So<br>&gt; to avoid that I need a VIP failover. <br>&gt; By this way, If a server goes down, all the client on this server will be<br>&gt; binded on the other one. Because I want loadbalacing, I need a prefered<br>&gt; master, so by default need that VIP 1 stay on server 1 and VIP 2 stay on<br>&gt; server 2.<br>&gt; Currently I trying to make it works with one VIP only.<br>&gt; <br>&gt; <br>&gt; Anthony<br>&gt; <br>&gt; &gt; Date: Thu, 8 Sep 2011 09:32:59 -0400<br>&gt; &gt; From: whit.gluster@transpect.com<br>&gt; &gt; To: sokar6012@hotmail.com<br>&gt; &gt; CC: gluster-users@gluster.org<br>&gt; &gt; Subject: Re: [Gluster-users] UCARP with NFS<br>&gt; &gt; <br>&gt; &gt; On Thu, Sep 08, 2011 at 01:02:41PM +0000, anthony garnier wrote:<br>&gt; &gt; <br>&gt; &gt; &gt; I got a client mounted on the VIP, when the Master fall, the client<br>&gt; switch<br>&gt; &gt; &gt; automaticaly on the Slave with almost no delay, it works like a charm.<br>&gt; But when<br>&gt; &gt; &gt; the Master come back up, the mount point on the client freeze.<br>&gt; &gt; &gt; I've done a monitoring with tcpdump, when the master came up, the client<br>&gt; send<br>&gt; &gt; &gt; paquets on the master but the master seems to not establish the TCP<br>&gt; connection.<br>&gt; &gt; <br>&gt; &gt; Anthony,<br>&gt; &gt; <br>&gt; &gt; Your UCARP command line choices and scripts would be worth looking at<br>&gt; here.<br>&gt; &gt; There are different UCARP behavior options for when the master comes back<br>&gt; &gt; up. If the initial failover works fine, it may be that you'll have better<br>&gt; &gt; results if you don't have a preferred master. That is, you can either have<br>&gt; &gt; UCARP set so that the slave relinquishes the IP back to the master when<br>&gt; the<br>&gt; &gt; master comes back up, or you can have UCARP set so that the slave becomes<br>&gt; &gt; the new master, until such time as the new master goes down, in which case<br>&gt; &gt; the former master becomes master again.<br>&gt; &gt; <br>&gt; &gt; If you're doing it the first way, there may be a brief overlap, where both<br>&gt; &gt; systems claim the VIP. That may be where your mount is failing. By doing<br>&gt; it<br>&gt; &gt; the second way, where the VIP is held by whichever system has it until<br>&gt; that<br>&gt; &gt; system actually goes down, there's no overlap. There shouldn't be a<br>&gt; reason,<br>&gt; &gt; in the Gluster context, to care which system is master, is there?<br>&gt; &gt; <br>&gt; &gt; Whit<br>&gt; <br></div>                                               </div></body>
</html>