Dan - please file a bug re: the NFS issue. <div><br></div><div>Also, older builds were sacrificed when the older download server was lost. I&#39;ll contact our main packager about doing 3.0 builds.</div><div><br></div><div>

The builds on <a href="http://bits.gluster.org">bits.gluster.org</a> are strictly for testing purposes only - they don&#39;t upgrade cleanly to other builds. I would use them sparingly and only for PoC&#39;s.</div><div><br>

</div><div>-JM</div><div><br><br><div class="gmail_quote">On Mon, Oct 22, 2012 at 9:42 AM, Dan Bretherton <span dir="ltr">&lt;<a href="mailto:d.a.bretherton@reading.ac.uk" target="_blank">d.a.bretherton@reading.ac.uk</a>&gt;</span> wrote:<br>

<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Dear All-<br>
I upgraded from 3.3.0 to 3.3.1 from the epel-glusterfs repository a few days ago, but I discovered that NFS in the new version does not work with virtual IP addresses managed by CARP.  NFS crashed as soon as an NFS client made an attempt to mount a volume using a virtual IP address, but mounting from a server&#39;s fixed IP address did not cause any problems.  The following errors appeared in nfs.log every time NFS crashed.<br>


<br>
[2012-10-18 23:26:49.493953] E [nfs3.c:1409:nfs3_lookup] 0-nfs-nfsv3: Volume is disabled: odin<br>
pending frames:<br>
<br>
patchset: git://<a href="http://git.gluster.com/glusterfs.git" target="_blank">git.gluster.com/<u></u>glusterfs.git</a><br>
signal received: 6<br>
time of crash: 2012-10-18 23:26:49<br>
configuration details:<br>
argp 1<br>
backtrace 1<br>
dlfcn 1<br>
fdatasync 1<br>
libpthread 1<br>
llistxattr 1<br>
setfsid 1<br>
spinlock 1<br>
epoll.h 1<br>
xattr.h 1<br>
st_atim.tv_nsec 1<br>
package-string: glusterfs 3.3.1<br>
/lib64/libc.so.6[0x3b5a8302d0]<br>
/lib64/libc.so.6(gsignal+0x35)<u></u>[0x3b5a830265]<br>
/lib64/libc.so.6(abort+0x110)[<u></u>0x3b5a831d10]<br>
/lib64/libc.so.6[0x3b5a86a99b]<br>
/lib64/libc.so.6(__stack_chk_<u></u>fail+0x2f)[0x3b5a8e969f]<br>
/usr/lib64/glusterfs/3.3.1/<u></u>xlator/nfs/server.so[<u></u>0x2aaaaba23f24]<br>
/usr/lib64/libgfrpc.so.0(<u></u>rpcsvc_handle_rpc_call+0x2bb)[<u></u>0x2aef5ef0b22b]<br>
/usr/lib64/libgfrpc.so.0(<u></u>rpcsvc_notify+0x16c)[<u></u>0x2aef5ef0b42c]<br>
/usr/lib64/libgfrpc.so.0(rpc_<u></u>transport_notify+0x27)[<u></u>0x2aef5ef0ce17]<br>
/usr/lib64/glusterfs/3.3.1/<u></u>rpc-transport/socket.so(<u></u>socket_event_poll_in+0x3f)[<u></u>0x2aaaaaab6c5f]<br>
/usr/lib64/glusterfs/3.3.1/<u></u>rpc-transport/socket.so(<u></u>socket_event_handler+0x188)[<u></u>0x2aaaaaab6e08]<br>
/usr/lib64/libglusterfs.so.0[<u></u>0x2aef5ecba781]<br>
/usr/sbin/glusterfs(main+<u></u>0x502)[0x406712]<br>
/lib64/libc.so.6(__libc_start_<u></u>main+0xf4)[0x3b5a81d994]<br>
/usr/sbin/glusterfs[0x404439]<br>
---------<br>
<br>
A large core dump was also produced each time, usually about 800MB in size. If anyone would be interested in looking at one of these I will make it available for download from our web server.<br>
<br>
I don&#39;t know if this can be called a bug since CARP is not a standard GlusterFS feature, but I really would prefer to retain the measure of resiliency that CARP provides.  Any suggestions would be much appreciated.  I ended up rolling back to version 3.3.0 to get things working again.<br>


<br>
Incidentally, when I decided to downgrade 3.3.0 I discovered that those RPMs aren&#39;t available for download from <a href="http://download.glusterfs.org" target="_blank">http://download.glusterfs.org</a>  or <a href="http://repos.fedorapeople.org/repos/kkeithle/glusterfs" target="_blank">http://repos.fedorapeople.org/<u></u>repos/kkeithle/glusterfs</a> (epel-glusterfs) any more.  I managed to find RPMs for version 3.3.0 by Googling for the file names and found them here: <a href="http://bits.gluster.com/gluster/glusterfs/3.3.0/x86_64/" target="_blank">http://bits.gluster.com/<u></u>gluster/glusterfs/3.3.0/x86_<u></u>64/</a>.  I don&#39;t know if this is an official download site, but it might be worth putting a link to it from the Gluster community web site in case anyone else needs to downgrade.<br>


<br>
-Dan.<br>
<br>
______________________________<u></u>_________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://supercolony.gluster.<u></u>org/mailman/listinfo/gluster-<u></u>users</a><br>
</blockquote></div><br></div>