<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=us-ascii">
<style>
<!--
.EmailQuote
        {margin-left:1pt;
        padding-left:4pt;
        border-left:#800000 2px solid}
-->
</style>
</head>
<body>
<div>
<p dir="ltr">Have you run out of inodes on the underlying&nbsp; filesystems?</p>
<div class="x_quote">On 18 Jan 2014 05:41, Pat Haley &lt;phaley@MIT.EDU&gt; wrote:<br type="attribution">
</div>
</div>
<font size="2"><span style="font-size:10pt">
<div class="PlainText"><br>
Latest updates:<br>
<br>
no error messages were found on the log files of the bricks.<br>
<br>
The error messages appear on the client log files.&nbsp; Writing<br>
from a second client also has the same errors.<br>
<br>
Note that if I try to write a directory with 480 6Mb files<br>
to /projects, over 3/4 of the files are written.&nbsp; It is<br>
random which files are not written (i.e. it is not the<br>
last 1/4 of the files which fail)<br>
<br>
&gt; <br>
&gt; Hi,<br>
&gt; <br>
&gt; Some additional data<br>
&gt; <br>
&gt; <br>
&gt; [root@mseas-data save]# gluster volume info<br>
&gt; <br>
&gt; Volume Name: gdata<br>
&gt; Type: Distribute<br>
&gt; Volume ID: eccc3a90-212d-4563-ae8d-10a77758738d<br>
&gt; Status: Started<br>
&gt; Number of Bricks: 3<br>
&gt; Transport-type: tcp<br>
&gt; Bricks:<br>
&gt; Brick1: gluster-0-0:/mseas-data-0-0<br>
&gt; Brick2: gluster-0-1:/mseas-data-0-1<br>
&gt; Brick3: gluster-data:/data<br>
&gt; <br>
&gt; <br>
&gt; <br>
&gt; [root@mseas-data save]# gluster volume status<br>
&gt; Status of volume: gdata<br>
&gt; Gluster process&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Port&nbsp;&nbsp;&nbsp; Online&nbsp; Pid<br>
&gt; ------------------------------------------------------------------------------ <br>
&gt; <br>
&gt; Brick gluster-0-0:/mseas-data-0-0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 24009&nbsp;&nbsp; Y 27006<br>
&gt; Brick gluster-0-1:/mseas-data-0-1&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 24009&nbsp;&nbsp; Y&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; <br>
&gt; 7063<br>
&gt; Brick gluster-data:/data&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 24010&nbsp;&nbsp; N&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; <br>
&gt; 8007<br>
&gt; NFS Server on localhost&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 38467&nbsp;&nbsp; Y&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; <br>
&gt; 8013<br>
&gt; NFS Server on gluster-0-1&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 38467&nbsp;&nbsp; Y 10228<br>
&gt; NFS Server on 10.1.1.10&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 38467&nbsp;&nbsp; Y&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; <br>
&gt; 3867<br>
&gt; <br>
&gt; <br>
&gt; Noticing that the brick gluster-data:/data was appearing as N<br>
&gt; in the &quot;online&quot; column, I tried (1) detaching gluster-data (using<br>
&gt; gluster peer detach gluster-data issued from gluster-0-0), (2) removing<br>
&gt; /var/lib/glusterd, (3) restarting glusterd on gluster-data,<br>
&gt; (4) reattaching /gluster-data (using gluster peer probe gluster-data<br>
&gt; issued from gluster-0-0) then (5) restart glusterd one more time on all<br>
&gt; 3 bricks.&nbsp; The brick gluster-data:/data still appears as N in the Online<br>
&gt; column.<br>
&gt; <br>
&gt; [root@mseas-data save]# gluster peer status<br>
&gt; Number of Peers: 2<br>
&gt; <br>
&gt; Hostname: gluster-0-1<br>
&gt; Uuid: 393fc4a6-1573-4564-971e-1b1aec434167<br>
&gt; State: Peer in Cluster (Connected)<br>
&gt; <br>
&gt; Hostname: 10.1.1.10<br>
&gt; Uuid: 3619440a-4ca3-4151-b62e-d4d6bf2e0c03<br>
&gt; State: Peer in Cluster (Connected)<br>
&gt; <br>
&gt; (similarly from the other bricks)<br>
&gt; <br>
&gt; Ping works between all bricks too.<br>
&gt; <br>
&gt;&gt;<br>
&gt;&gt; Hi,<br>
&gt;&gt;<br>
&gt;&gt; We are using gluster to present 3 bricks as a single name space.<br>
&gt;&gt; We appear to have a situation in which gluster thinks there<br>
&gt;&gt; is no disk space when there is actually plenty. I have restarted<br>
&gt;&gt; the glusterd deamons on all three bricks and I still get the<br>
&gt;&gt; following message<br>
&gt;&gt;<br>
&gt;&gt; /bin/cp: cannot create regular file <br>
&gt;&gt; `./Bottom_Gravity_Current_25/344.mat': No space left on device<br>
&gt;&gt;<br>
&gt;&gt; This is a 6Mbyte file.&nbsp; The total space available on<br>
&gt;&gt; gluster is 3.6T<br>
&gt;&gt;<br>
&gt;&gt; Filesystem&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Size&nbsp; Used Avail Use% Mounted on<br>
&gt;&gt; mseas-data:/gdata&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 55T&nbsp;&nbsp; 51T&nbsp; 3.6T&nbsp; 94% /gdata<br>
&gt;&gt;<br>
&gt;&gt; Also, no single brick is full:<br>
&gt;&gt;<br>
&gt;&gt; Filesystem&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Size&nbsp; Used Avail Use% Mounted on<br>
&gt;&gt; /dev/mapper/the_raid-lv_data<br>
&gt;&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 15T&nbsp;&nbsp; 14T&nbsp; 804G&nbsp; 95% /data<br>
&gt;&gt;<br>
&gt;&gt; Filesystem&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Size&nbsp; Used Avail Use% Mounted on<br>
&gt;&gt; /dev/sdb1&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 21T&nbsp;&nbsp; 18T&nbsp; 2.1T&nbsp; 90% /mseas-data-0-0<br>
&gt;&gt;<br>
&gt;&gt; Filesystem&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Size&nbsp; Used Avail Use% Mounted on<br>
&gt;&gt; /dev/sdb1&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 21T&nbsp;&nbsp; 20T&nbsp; 784G&nbsp; 97% /mseas-data-0-1<br>
&gt;&gt;<br>
&gt;&gt; What should we do to fix this problem or look at to diagnose<br>
&gt;&gt; this problem?<br>
&gt;&gt;<br>
&gt;&gt; Thanks.<br>
&gt;&gt;<br>
&gt;&gt; -=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-<br>
&gt;&gt; Pat Haley&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Email:&nbsp; phaley@mit.edu<br>
&gt;&gt; Center for Ocean Engineering&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Phone:&nbsp; (617) 253-6824<br>
&gt;&gt; Dept. of Mechanical Engineering&nbsp;&nbsp;&nbsp; Fax:&nbsp;&nbsp;&nbsp; (617) 253-8125<br>
&gt;&gt; MIT, Room 5-213&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; <a href="http://web.mit.edu/phaley/www/">http://web.mit.edu/phaley/www/</a><br>
&gt;&gt; 77 Massachusetts Avenue<br>
&gt;&gt; Cambridge, MA&nbsp; 02139-4301<br>
&gt;&gt; _______________________________________________<br>
&gt;&gt; Gluster-users mailing list<br>
&gt;&gt; Gluster-users@gluster.org<br>
&gt;&gt; <a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt; <br>
&gt; <br>
<br>
<br>
-- <br>
<br>
-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-<br>
Pat Haley&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Email:&nbsp; phaley@mit.edu<br>
Center for Ocean Engineering&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Phone:&nbsp; (617) 253-6824<br>
Dept. of Mechanical Engineering&nbsp;&nbsp;&nbsp; Fax:&nbsp;&nbsp;&nbsp; (617) 253-8125<br>
MIT, Room 5-213&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; <a href="http://web.mit.edu/phaley/www/">http://web.mit.edu/phaley/www/</a><br>
77 Massachusetts Avenue<br>
Cambridge, MA&nbsp; 02139-4301<br>
_______________________________________________<br>
Gluster-users mailing list<br>
Gluster-users@gluster.org<br>
<a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a><br>
</div>
</span></font><br>
<hr>
<font face="Arial" color="Gray" size="1"><br>
<br>
This email and any files transmitted with it are confidential and are intended solely for the use of the individual or entity to whom they are addressed. If you are not the original recipient or the person responsible for delivering the email to the intended
 recipient, be advised that you have received this email in error, and that any use, dissemination, forwarding, printing, or copying of this email is strictly prohibited. If you received this email in error, please immediately notify the sender and delete the
 original.<br>
<br>
</font>
</body>
</html>