<html><head><style type='text/css'>p { margin: 0; }</style></head><body><div style='font-family: Times New Roman; font-size: 12pt; color: #000000'>See response below from Ben England. Also, note that this question should probably go in gluster-users.<br><br>-JM<br><br><br>----- Forwarded Message -----<br>From: "Ben England" &lt;bengland@redhat.com&gt;<br>To: "John Mark Walker" &lt;johnmark@redhat.com&gt;<br>Sent: Wednesday, May 16, 2012 8:23:30 AM<br>Subject: Re: [Gluster-devel] Asking about Gluster Performance Factors<br><br>JM, see comments marked with ben&gt;&gt;&gt; below. <br><br><br><hr id="zwchr" style="color: rgb(0, 0, 0); "><br><br>From: "박은준" &lt;ej1515.park@samsung.com&gt;<br>To: gluster-devel@nongnu.org<br>Sent: Wednesday, May 16, 2012 5:23:12 AM<br>Subject: [Gluster-devel] Asking about Gluster Performance Factors<br><br>Samsung Enterprise Portal mySingle<br><br><br><br>May 16, 2012<br><br><br><br>Dear Gluster Dev Team :<br><br><br><br>I'm Ethan, Assistant engineer in Samsung electronics. Reviewing your paper, I have some questions of performance factors in gluster.<br><br><br><br>First, what does it mean the option "performance.cache-*"? Does it mean read cache? If does, what's difference between the options "prformance.cache-max-file-size" and "performance.cache-size" ?<br><br>I read your another paper("performance in a gluster system, versions 3.1.x") and it says as below on Page 12,<br><br>(Gluster Native protocol does not implement write caching, as we believe that the modest performance improvements from rite caching do not justify the risk of cache coherency issues.)<br><br><font color="#cc0000">ben&gt;&gt;&gt; While gluster processes do not implement write caching internally, there are at least 3 ways to improve write performance in a Gluster system. <br>- If you use a RAID controller with a non-volatile writeback cache, the RAID controller can buffer writes on behalf of the Gluster server and thereby reduce latency.<br>- XFS or any other local filesystem used within the server "bricks" can do "write-thru" caching, meaning that the writes can be aggregated and can be kept in the Linux buffer cache so that subsequent read requests can be satisfied from this cache, transparent to Gluster processes.<br>- there is a "write-behind" translator in the native client that will aggregate small sequential write requests at the FUSE layer into larger network-level write requests. If the smallest possible application I/O size is a requirement, sequential writes can also be efficiently aggregated by an NFS client.</font><br><br><br><br>Second, how much is the read throughput improved as configuring 2-way replication? we need any statistics or something like that.<br><br>("performance in a gluster system, versions 3.1.x") and it says as below on Page 12,<br><br>(However, read throughput is generally improved by replication, as reads can be delivered from either storage node)<br><br><font color="#cc0000">ben&gt;&gt;&gt; Yes, reads can be satisfied by either server in a replication pair. &nbsp;Since the gluster native client only reads one of the two replicas, read performance should be approximately the same for 2-replica file system as it would be for a 1-replica file system. &nbsp;The difference in performance is with writes, as you would expect.</font><br><br><br><br><br><br>Sincerely yours,<br><br><br><br><br><br><br><br>Ethan Eunjun Park<br><br><br><br>Assistant Engineer,<br><br>Solution Development Team, Media Solution Center<br><br>416, Maetan 3-dong, Yeongtong-gu, Suwon-si, Gyeonggi-do 443-742, Korea<br><br>Mobile : 010-8609-9532<br><br>E-mail : ej1515.park@samsung.com<br><br>http://www.samsung.com/sec<br><br><br><br><br><br><br><br>_______________________________________________<br>Gluster-devel mailing list<br>Gluster-devel@nongnu.org<br>https://lists.nongnu.org/mailman/listinfo/gluster-devel<br><br></div></body></html>