<html><head></head><body>That is about as far removed from anything useful for troubleshooting as possible. You&#39;re reporting a symptom from within a virtualized environment. It&#39;s the real systems that have the useful logs. Any errors on the client or brick logs? Libvirt logs? dmesg on the server? Is either cpu bound? In swap? <br>
<br><br><div class="gmail_quote">On September 4, 2014 9:12:16 PM PDT, &quot;Miloš Kozák&quot; &lt;milos.kozak@lejmr.com&gt; wrote:<blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;">
<pre class="k9mail">Hi,<br /><br />I ran few more tests. I moved a file which is an VM image onto GlusterFS <br />mount and along the load I got this on console of running VM:<br /><br />lost page write due to I/O error on vda1<br />Buffer I/O error on device vda1, logical block 1049638<br />lost page write due to I/O error on vda1<br />Buffer I/O error on device vda1, logical block 1049646<br />lost page write due to I/O error on vda1<br />Buffer I/O error on device vda1, logical block 1049647<br />lost page write due to I/O error on vda1<br />Buffer I/O error on device vda1, logical block 1049649<br />lost page write due to I/O error on vda1<br />end_request: I/O error, dev vda, sector 8399688<br />end_request: I/O error, dev vda, sector 8399728<br />end_request: I/O error, dev vda, sector 8399736<br />end_request: I/O error, dev vda, sector 8399776<br />end_request: I/O error, dev vda, sector 8399792<br />__ratelimit: 5 callbacks suppressed<br />EXT4-fs error (device vda1):
ext4_find_entry: reading directory #398064 <br />offset 0<br />EXT4-fs error (device vda1): ext4_find_entry: reading directory #398064 <br />offset 0<br />EXT4-fs error (device vda1): ext4_find_entry: reading directory #132029 <br />offset 0<br /><br />Do you think it is related to options which are set to the volume?<br /><br />     storage.owner-gid: 498<br />     storage.owner-uid: 498<br />     network.ping-timeout: 2<br />     <a href="http://performance.io">performance.io</a>-thread-count: 3<br />     cluster.server-quorum-type: server<br />     network.remote-dio: enable<br />     cluster.eager-lock: enable<br />     performance.stat-prefetch: off<br />     <a href="http://performance.io">performance.io</a>-cache: off<br />     performance.read-ahead: off<br />     performance.quick-read: off<br /><br />Thanks Milos<br /><br /><br />Dne 14-09-03 v 04:01 PM Milos Kozak napsal(a):<br /><blockquote class="gmail_quote" style="margin: 0pt 0pt 1ex 0.8ex; border-left: 1px solid
#729fcf; padding-left: 1ex;"> I have just tried to copy an VM image (raw) and causes the same problem.<br /><br /> I have GlusterFS 3.5.2<br /><br /><br /><br /> On 9/3/2014 9:14 AM, Roman wrote:<br /><blockquote class="gmail_quote" style="margin: 0pt 0pt 1ex 0.8ex; border-left: 1px solid #ad7fa8; padding-left: 1ex;"> Hi,<br /><br /> I had some issues with files generated from /dev/zero also. try real<br /> files or /dev/urandom :)<br /> I don't know, if there is a real issue/bug with files generated from<br /> /dev/zero ? Devs should check them out  /me thinks.<br /><br /><br /> 2014-09-03 16:11 GMT+03:00 Milos Kozak &lt;milos.kozak@lejmr.com<br /> &lt;mailto:milos.kozak@lejmr.com&gt;&gt;:<br /><br />     Hi,<br /><br />     I am facing a quite strange problem when I do have two servers with<br />     the same configuration and the same hardware. Servers are connected<br />     by bonded 1GE. I have one volume:<br /><br />     [root@nodef02i 103]# gluster volume info<br /><br />   
 Volume Name: ph-fs-0<br />     Type: Replicate<br />     Volume ID: f8f569ea-e30c-43d0-bb94-__b2f1164a7c9a<br />     Status: Started<br />     Number of Bricks: 1 x 2 = 2<br />     Transport-type: tcp<br />     Bricks:<br />     Brick1: <a href="http://10.11.100.1">10.11.100.1</a>:/gfs/s3-sata-10k/__fs<br />     Brick2: <a href="http://10.11.100.2">10.11.100.2</a>:/gfs/s3-sata-10k/__fs<br />     Options Reconfigured:<br />     storage.owner-gid: 498<br />     storage.owner-uid: 498<br />     network.ping-timeout: 2<br />     <a href="http://performance.io">performance.io</a>-thread-count: 3<br />     cluster.server-quorum-type: server<br />     network.remote-dio: enable<br />     cluster.eager-lock: enable<br />     performance.stat-prefetch: off<br />     <a href="http://performance.io">performance.io</a>-cache: off<br />     performance.read-ahead: off<br />     performance.quick-read: off<br /><br />     Intended to host virtual servers (KVM), the configuration is<br />    
according to the gluster blog.<br /><br /><br />     Currently I have got only one virtual server deployed on top of this<br />     volume in order to see effects of my stress tests. During the tests<br />     I write to the volume mounted through FUSE by dd (currently on one<br />     writing at a moment):<br /><br />     dd if=/dev/zero of=test2.img bs=1M count=20000 conv=fdatasync<br /><br /><br />     Test 1) I run dd on nodef02i. Load on  nodef02i is max 1erl but on<br />     the nodef01i around 14erl (I do have 12threads CPU). After the write<br />     is done the load on nodef02i goes down, but the load goes up to<br />     28erl on nodef01i. 20minutes it stays the same. In the mean time I<br />     can see:<br /><br />     [root@nodef01i 103]# gluster volume heal ph-fs-0 info<br />     Volume ph-fs-0 is not started (Or) All the bricks are not running.<br />     Volume heal failed<br /><br />     [root@nodef02i 103]# gluster volume heal ph-fs-0 info<br />     Brick
nodef01i.czprg:/gfs/s3-sata-__10k/fs/<br />     /__3706a2cb0bb27ba5787b3c12388f4e__bb - Possibly undergoing heal<br />     /test.img - Possibly undergoing heal<br />     Number of entries: 2<br /><br />     Brick nodef02i.czprg:/gfs/s3-sata-__10k/fs/<br />     /__3706a2cb0bb27ba5787b3c12388f4e__bb - Possibly undergoing heal<br />     /test.img - Possibly undergoing heal<br />     Number of entries: 2<br /><br /><br />     [root@nodef01i 103]# gluster volume status<br />     Status of volume: ph-fs-0<br />     Gluster process                                         Port <br /> Online  Pid<br /><hr /><br />     Brick <a href="http://10.11.100.1">10.11.100.1</a>:/gfs/s3-sata-10k/__fs 49152 Y<br />         56631<br />     Brick <a href="http://10.11.100.2">10.11.100.2</a>:/gfs/s3-sata-10k/__fs 49152 Y<br />         3372<br />     NFS Server on localhost                                 2049 Y<br />       56645<br />     Self-heal Daemon on localhost                           N/A Y<br /> 
     56649<br />     NFS Server on <a href="http://10.11.100.2">10.11.100.2</a>                               2049 Y<br />       3386<br />     Self-heal Daemon on <a href="http://10.11.100.2">10.11.100.2</a>                         N/A <br /> Y       3387<br /><br />     Task Status of Volume ph-fs-0<br /><hr /><br />     There are no active volume tasks<br /><br />     This very high load takes another 20-30minutes. During the first<br />     test I restarted glusterd service after 10minutes because everything<br />     seemed to me that the service does not work, but I could see very<br />     high load on the nodef01i.<br />     Consequently, the virtual server yields errors about problems with<br />     EXT4 filesystem - MySQL stops.<br /><br /><br /><br />     When the load culminated I tried to run the same test but from<br />     opposite direction. I wrote (dd) from nodef01i - test2. Happened<br />     more or less the same. I gained extremely high load on nodef01i and<br
/>     minimal load on nodef02i. Outputs from heal were more or less the <br /> same..<br /><br /><br />     I would like to tweak this but I don´t know what I should focus on.<br />     Thank you for help.<br /><br />     Milos<br /><br /><br /><br /><hr /><br />     Gluster-users mailing list<br /> Gluster-users@gluster.org &lt;mailto:Gluster-users@gluster.org&gt;<br /> <a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a><br /><br /><br /><br /><br /> -- <br /> Best regards,<br /> Roman.<br /></blockquote><hr /><br /> Gluster-users mailing list<br /> Gluster-users@gluster.org<br /> <a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a><br /></blockquote><br /><hr /><br />Gluster-users mailing list<br />Gluster-users@gluster.org<br /><a
href="http://supercolony.gluster.org/mailman/listinfo/gluster-users">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a></pre></blockquote></div><br>
-- <br>
Sent from my Android device with K-9 Mail. Please excuse my brevity.</body></html>