<div dir="ltr"><br><br><div class="gmail_quote">On Tue, Oct 21, 2008 at 1:40 AM, Keith Freedman <span dir="ltr">&lt;<a href="mailto:freedman@freeformit.com">freedman@freeformit.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<div class="Ih2E3d">At 12:12 PM 10/20/2008, Stas Oskin wrote:<br>
&gt;Hi.<br>
&gt;<br>
&gt;Thanks for all the answers.<br>
&gt;<br>
&gt;I should say that indeed &nbsp;especially the metaserver-less (P2P?)<br>
&gt;approach of GlusterFS makes it a very attractive option, as it<br>
&gt;basically cancels any single points of failure.<br>
<br>
</div>I think it&#39;s important that people understand the tradeoffs.<br>
Having a central metaserver insures the integrity of the data.<br>
With Gluster, by not having a meta server, they introduce different<br>
problems (and different solutions).<br>
With AFR, you can get into a split brain situation. &nbsp;So examining<br>
glusters split brain resolution would be necessary and you&#39;d have to<br>
determine if you&#39;re comfortable with the tradeoffs. &nbsp;In my view, it&#39;s<br>
a good workable solution but it may not work for everyone.<br>
<br>
The other issue is the namespace brick on the unify translator. &nbsp;this<br>
is effectively a meta-data like thing. &nbsp;you can afr the namespace<br>
brick to provide additional availability, but if your namespace brick<br>
is unavailable then you have a similar problem as you have with a<br>
metadata server outage in another solution.</blockquote><div><br>new DHT translator scheduled for 1.4.0 release provides similar functionality as unify (file scheduling) and does not use a namespace brick. thus DHT completely avoids meta-data server concept from glusterfs.<br>
&nbsp;<br></div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><br>
<br>
So, while I personally think gluster is one of the &quot;best&quot; solutions<br>
out there, it&#39;s because the numbers for my situation point in that<br>
direction but it wont for everyone.<br>
<div class="Ih2E3d"><br>
&gt;My largest concert over GlusterFs is really the luck of central<br>
&gt;administration tool. Modifying the configuration files on every<br>
&gt;server/client with every topology change becomes a hurdle on 10<br>
&gt;servers already, and probably impossbile beyond 100.<br>
<br>
</div>in most cases, your client configurations are pretty much identical,<br>
so maintaining these is relatively simple. &nbsp;If your server topology<br>
changes often then it can be inconvenient, partly because you have to<br>
deal with IP addresses.<br>
It&#39;s also not good for certain grid operating systems which use<br>
internal IP&#39;s and the IP&#39;s change randomly, or if you for some reason<br>
have servers using dhcp.<br>
<div class="Ih2E3d"><br>
&gt;Hence, I&#39;m happy to hear version 1.4 will have some kind of a web<br>
&gt;interface. The only questions are:<br>
&gt;<br>
&gt;1) Will it support a central management of all serves/clients,<br>
&gt;including the global AFR settings?<br>
&gt;<br>
&gt;2) When it comes out? :)<br>
&gt;<br>
&gt;Regards.<br>
&gt;<br>
</div>&gt;2008/10/20 Vikas Gorur &lt;&lt;mailto:<a href="mailto:vikasgp@gmail.com">vikasgp@gmail.com</a>&gt;<a href="mailto:vikasgp@gmail.com">vikasgp@gmail.com</a>&gt;<br>
&gt;2008/10/18 Stas Oskin &lt;&lt;mailto:<a href="mailto:stas.oskin@gmail.com">stas.oskin@gmail.com</a>&gt;<a href="mailto:stas.oskin@gmail.com">stas.oskin@gmail.com</a>&gt;:<br>
<div class="Ih2E3d">&gt; &gt; Hi.<br>
&gt; &gt;<br>
&gt; &gt; I&#39;m evaluating GlusterFS for our DFS implementation, and wondered how it<br>
&gt; &gt; compares to KFS/CloudStore?<br>
&gt; &gt;<br>
&gt; &gt; These features here look especially nice<br>
&gt; &gt;<br>
</div>&gt; (&lt;<a href="http://kosmosfs.sourceforge.net/features.html" target="_blank">http://kosmosfs.sourceforge.net/features.html</a>&gt;<a href="http://kosmosfs.sourceforge.net/features.html" target="_blank">http://kosmosfs.sourceforge.net/features.html</a>).<br>

<div><div></div><div class="Wj3C7c">&gt; Any idea what of them exist<br>
&gt; &gt; in GlusterFS as well?<br>
&gt;<br>
&gt;Stas,<br>
&gt;<br>
&gt;Here&#39;s how GlusterFS compares to KFS, feature by feature:<br>
&gt;<br>
&gt; &gt; Incremental scalability:<br>
&gt;<br>
&gt;Currently adding new storage nodes requires a change in the config<br>
&gt;file and restarting servers and clients. However, there is no need to<br>
&gt;move/copy data or perform any other maintenance steps. &quot;Hot add&quot;<br>
&gt;capability is planned for the 1.5 release.<br>
&gt;<br>
&gt; &gt; Availability<br>
&gt;<br>
&gt;GlusterFS supports n-way data replication through the AFR translator.<br>
&gt;<br>
&gt; &gt; Per file degree of replication<br>
&gt;<br>
&gt;GlusterFS used to have this feature, but it was dropped due to lack<br>
&gt;of interest. It would not be too hard to bring it back.<br>
&gt;<br>
&gt; &gt; Re-balancing<br>
&gt;<br>
&gt;The DHT and unify translators have extensive support for distributing<br>
&gt;data across nodes. One can use unify schedulers to define file creation<br>
&gt;policies such as:<br>
&gt;<br>
&gt;* ALU - Adaptively (based on disk space utilization, disk speed, etc.)<br>
&gt;schedule file creation.<br>
&gt;<br>
&gt;* Round robin<br>
&gt;<br>
&gt;* Non uniform (NUFA) - prefer a local volume for file creation and use remote<br>
&gt;ones only when there is no space on the local volume.<br>
&gt;<br>
&gt; &gt; Data integrity<br>
&gt;<br>
&gt;GlusterFS arguably provides better data integrity since it runs over<br>
&gt;an existing filesystem, and does not access disks at the block level.<br>
&gt;Thus in the worst case (which shouldn&#39;t happen), even if GlusterFS<br>
&gt;crashes, your data will still be readable with normal tools.<br>
&gt;<br>
&gt; &gt; Rack-aware data placement<br>
&gt;<br>
&gt;None of our users have mentioned this need until now, thus GlusterFS<br>
&gt;has no rack awareness. One could incorporate this intelligence into<br>
&gt;our cluster translators (unify, afr, stripe) quite easily.<br>
&gt;<br>
&gt; &gt; File writes and caching<br>
&gt;<br>
&gt;GlusterFS provides a POSIX-compliant filesystem interface. GlusterFS<br>
&gt;has fine-tunable caching translators, such as read-ahead (to read ahead),<br>
&gt;write-behind (to reduce write latency), and io-cache (caching file data).<br>
&gt;<br>
&gt; &gt; Language support<br>
&gt;<br>
&gt;This is irrelevant to GlusterFS since it is mounted and accessed as a normal<br>
&gt;filesystem, through FUSE. This means all your applications can run<br>
&gt;on GlusterFS<br>
&gt;without any modifications.<br>
&gt;<br>
&gt; &gt; Deploy scripts<br>
&gt;<br>
&gt;Users have found GlusterFS to be so simple to setup compared to other<br>
&gt;cluster filesystems that there isn&#39;t really a need for deploy scripts. ;)<br>
&gt;<br>
&gt; &gt; Local read optimization<br>
&gt;<br>
&gt;As mentioned earlier, if your data access patterns justify it (that<br>
&gt;is, if users generally access local data and only occassionly want<br>
&gt;remote data), you can configure &#39;unify&#39; with the NUFA scheduler to achieve<br>
&gt;this.<br>
&gt;<br>
&gt;In addition, I&#39;d like to mention two particular strengths of GlusterFS.<br>
&gt;<br>
&gt;1) GlusterFS has no notion of a &#39;meta-server&#39;. I have not looked through<br>
&gt;KFS&#39; design in detail, but the mention of a &#39;meta-server&#39; leads me to<br>
&gt;believe that failure of the meta-server will take the entire cluster offline.<br>
&gt;Please correct me if the impression is wrong.<br>
&gt;<br>
&gt;GlusterFS on the other hand has no single point of failure such as central<br>
&gt;meta server.<br>
&gt;<br>
&gt;2) GlusterFS 1.4 will have a web-based interface which will allow<br>
&gt;you to start/stop GlusterFS, monitor logs and performance, and do<br>
&gt;other admin activities.<br>
&gt;<br>
&gt;<br>
&gt;Please contact us if you need further clarifications or details.<br>
&gt;<br>
&gt;Vikas Gorur<br>
&gt;Engineer - Z Research<br>
&gt;<br>
</div></div><div><div></div><div class="Wj3C7c">&gt;_______________________________________________<br>
&gt;Gluster-users mailing list<br>
&gt;<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt;<a href="http://zresearch.com/cgi-bin/mailman/listinfo/gluster-users" target="_blank">http://zresearch.com/cgi-bin/mailman/listinfo/gluster-users</a><br>
<br>
<br>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://zresearch.com/cgi-bin/mailman/listinfo/gluster-users" target="_blank">http://zresearch.com/cgi-bin/mailman/listinfo/gluster-users</a><br>
</div></div></blockquote></div><br><br clear="all"><br>-- <br>hard work often pays off after time, but laziness always pays off now<br>
</div>