<html>
<head>
<style><!--
.hmmessage P
{
margin:0px;
padding:0px
}
body.hmmessage
{
font-size: 10pt;
font-family:Tahoma
}
--></style>
</head>
<body class='hmmessage'><div dir='ltr'>
I already have those options enabled. <br>But thx anyway<br><br><div>&gt; From: mueller@tropenklinik.de<br>&gt; To: sokar6012@hotmail.com; gluster-users@gluster.org<br>&gt; Subject: AW: [Gluster-users] UCARP with NFS<br>&gt; Date: Thu, 8 Sep 2011 15:25:18 +0200<br>&gt; <br>&gt; Yes,<br>&gt; working for me on centos 5.6 samba/glusterfs/ext3.<br>&gt; Seems to me ucarp is not configured to work master/slave:<br>&gt; Master:<br>&gt; <br>&gt; ID=1<br>&gt; BIND_INTERFACE=eth1<br>&gt; #Real IP<br>&gt; SOURCE_ADDRESS=xxx.xxx.xxx.xxx<br>&gt; #slaveconfig,OPTIONS="--shutdown --preempt  -b 1 -k 50"<br>&gt; OPTIONS="--shutdown --preempt  -b 1"<br>&gt; #Virtual IP used by ucarp<br>&gt; VIP_ADDRESS="zzz.zzz.zzz.zzz"<br>&gt; #Ucarp Password<br>&gt; PASSWORD=yyyyyyyy<br>&gt; <br>&gt; On you slave you need: OPTIONS="--shutdown --preempt  -b 1 -k 50"<br>&gt; <br>&gt; Good luck<br>&gt; Daniel<br>&gt; <br>&gt; <br>&gt; <br>&gt; EDV Daniel Müller<br>&gt; <br>&gt; Leitung EDV<br>&gt; Tropenklinik Paul-Lechler-Krankenhaus<br>&gt; Paul-Lechler-Str. 24<br>&gt; 72076 Tübingen <br>&gt; Tel.: 07071/206-463, Fax: 07071/206-499<br>&gt; eMail: mueller@tropenklinik.de<br>&gt; Internet: www.tropenklinik.de <br>&gt; <br>&gt; Von: gluster-users-bounces@gluster.org<br>&gt; [mailto:gluster-users-bounces@gluster.org] Im Auftrag von anthony garnier<br>&gt; Gesendet: Donnerstag, 8. September 2011 15:03<br>&gt; An: gluster-users@gluster.org<br>&gt; Betreff: [Gluster-users] UCARP with NFS<br>&gt; <br>&gt; Hi all,<br>&gt; <br>&gt; I'm currently trying to deploy ucarp with GlusterFS, especially with nfs<br>&gt; access.<br>&gt; Ucarp works well when I ping the VIP and i shutdown Master (and then when<br>&gt; the Master came back up),but I face of a problem with NFS connections.<br>&gt; <br>&gt; I got a client mounted on the VIP, when the Master fall, the client switch<br>&gt; automaticaly on the Slave with almost no delay, it works like a charm. But<br>&gt; when the Master come back up, the mount point on the client freeze.<br>&gt; I've done a monitoring with tcpdump, when the master came up, the client<br>&gt; send paquets on the master but the master seems to not establish the TCP<br>&gt; connection.<br>&gt; <br>&gt; <br>&gt; My&nbsp; volume config : <br>&gt; <br>&gt; Volume Name: hermes<br>&gt; Type: Replicate<br>&gt; Status: Started<br>&gt; Number of Bricks: 2<br>&gt; Transport-type: tcp<br>&gt; Bricks:<br>&gt; Brick1: ylal2950:/users/export<br>&gt; Brick2: ylal2960:/users/export<br>&gt; Options Reconfigured:<br>&gt; performance.cache-size: 1GB<br>&gt; performance.cache-refresh-timeout: 60<br>&gt; network.ping-timeout: 25<br>&gt; nfs.port: 2049<br>&gt; <br>&gt; As Craig wrote previously, I well probed hosts and created the volume with<br>&gt; their real IP, I only used the VIP with the client.<br>&gt; <br>&gt; Does anyone got experience with UCARP and GlusterFS ?<br>&gt; <br>&gt; Anthony <br>&gt; <br></div>                                               </div></body>
</html>