<font size=2 face="sans-serif">web client</font><br><a href=http://fpaste.org/105784/14014066/><font size=2 face="sans-serif">http://fpaste.org/105784/14014066/</font></a><br><br><font size=2 face="sans-serif">gluster storage server</font><br><a href=http://fpaste.org/105786/40140677/><font size=2 face="sans-serif">http://fpaste.org/105786/40140677/</font></a><br><br><font size=2 face="sans-serif">Please find the above fpaste a situation
I have experienced twice where my 8-node gluster 2x4 distributed-replication
was doing the connect/disconnect game.</font><br><font size=2 face="sans-serif">My servers are rhel 6.4 on glusterfs3.4.2
.</font><br><br><font size=2 face="sans-serif">Volume Name: prodstatic</font><br><font size=2 face="sans-serif">Type: Distributed-Replicate</font><br><font size=2 face="sans-serif">Volume ID: 187c241d-0eeb-4405-80f2-c704ea44bc36</font><br><font size=2 face="sans-serif">Status: Started</font><br><font size=2 face="sans-serif">Number of Bricks: 2 x 4 = 8</font><br><font size=2 face="sans-serif">Transport-type: tcp</font><br><font size=2 face="sans-serif">Bricks:</font><br><font size=2 face="sans-serif">Brick1: omhq1140:/export/content/static</font><br><font size=2 face="sans-serif">Brick2: omdx1c5d:/export/content/static</font><br><font size=2 face="sans-serif">Brick3: omhq11ad:/export/content/static</font><br><font size=2 face="sans-serif">Brick4: omdx1781:/export/content/static</font><br><font size=2 face="sans-serif">Brick5: omhq1c56:/export/content/static</font><br><font size=2 face="sans-serif">Brick6: omdx1c58:/export/content/static</font><br><font size=2 face="sans-serif">Brick7: omhq1c57:/export/content/static</font><br><font size=2 face="sans-serif">Brick8: omdx1c59:/export/content/static</font><br><font size=2 face="sans-serif">Options Reconfigured:</font><br><font size=2 face="sans-serif">server.statedump-path: /debug</font><br><font size=2 face="sans-serif">features.quota: on</font><br><font size=2 face="sans-serif">server.allow-insecure: on</font><br><font size=2 face="sans-serif">network.ping-timeout: 10</font><br><br><font size=2 face="sans-serif">My question is why the frequent disconnect/connects
? &nbsp;It was very sporadic in my environment across multiple clients/storage
nodes. &nbsp;The chaos lasted about 10:20-12:00. &nbsp;My network admins
are looking at the network while i'm trying to make sense of my storage
logs.</font><br><br><font size=2 face="sans-serif">30 mins prior, i made a config change
'gluster volume profile prodstatic stop'. &nbsp;I couldn't imagine that
issuing that command could drop my storage/clients like flies, can it ?
&nbsp;From the client logs it appears to establish an rpc connection, but
immediately drops it? &nbsp;Are the logs lying? &nbsp;Is my understanding
of network.ping-timeout too low? &nbsp;I wanted the clients to act if the
storage is not responding drop him, and move on to the next available replica.
&nbsp;If that is not the intention then a higher network.ping-timeout would
mean a longer stall which is not my desire.</font><br><br><font size=2 face="sans-serif">All my storage disks are fine, I never
once got an alert for an offline server/client. &nbsp;During this duration
the mounted fuse filesystems were crawling! &nbsp;No rebalance was done.</font><br><br><font size=2 face="sans-serif">Any bugzilla's or threads is much appreciated.<br><br>Khoi<br><br></font><BR>
**<BR>
<BR>
This email and any attachments may contain information that is confidential and/or privileged for the sole use of the intended recipient.  Any use, review, disclosure, copying, distribution or reliance by others, and any forwarding of this email or its contents, without the express permission of the sender is strictly prohibited by law.  If you are not the intended recipient, please contact the sender immediately, delete the e-mail and destroy all copies.<BR>
**<BR>