<html><head/><body><html><head><meta content="text/html; charset=ISO-8859-1" http-equiv="Content-Type" /></head><body text="#000000" bgcolor="#FFFFFF">I just discovered yesterday that the systemd configs (in the fedora rpms)  do, indeed, stop the bricks. I think I know how to fix that and will test that and submit a bug report today and a patch.<br><br><div class="gmail_quote">Patrick Irvine &lt;pirv@cybersites.ca&gt; wrote:<blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;">

  
    
  
  
    <div class="moz-cite-prefix">Hey,<br />
      <br />
      stopping the glusterd instance does not stop any of the other
      spawned daemons.&nbsp; I know this for a fact as I start and stop
      glusterd all the time with out it affecting any of the other
      daemons.<br />
      <br />
      As for stopping the spawned daemons, Craig Carl ??&nbsp; ( I think
      that's right)&nbsp; years ago when glusterd first came out said to just
      kill &lt;pid&gt; each of the others.&nbsp; To restart them your just
      stop and restart the glusterd process and it will respawn any it
      finds are not already running.<br />
      <br />
      Hope this helps,<br />
      <br />
      Pat.<br />
      <br />
      On 10/04/2013 9:54 AM, Jay Vyas wrote:<br />
    </div>
    <blockquote cite="mid:CAAu13zF49=NA4xNM_BZ4-VFrE-r9ERT5DnAMTBGwRK-GNa+84g@mail.gmail.com" type="cite">
      <div dir="ltr">This is a great question, something I've been
        wondering. <br />
        <br />
        Reposting some details from jeff darcy's email regarding a
        similar question which i asked could help shed some light on
        this:&nbsp; <br />
        <div>
          <br />
        </div>
        <div>1) The daemons that run in gluster are: <br />
          <br />
        </div>
        <div>
          &nbsp; &nbsp; &nbsp; &nbsp; <span class="">glusterd</span> = management daemon<br />
          &nbsp; &nbsp; &nbsp; &nbsp; glusterfsd = per-brick daemon<br />
          &nbsp; &nbsp; &nbsp; &nbsp; glustershd = self-heal daemon<br />
          &nbsp; &nbsp; &nbsp; &nbsp; <span class="">glusterfs</span> = usually
          client-side, but also NFS on servers<br />
          <br />
          2) The lifecycle of the daemons: <br />
          *** The others are all started from <span class="">glusterd</span>,
          in response to volume start and stop commands *** <br />
          *** They're actually all the same executable with different
          translators *** <br />
        </div>
        <div>*** glusterfs-server = the server side gluster
          implementation, which needs to be instaled for serving gluster
          data ***<br />
        </div>
        <div><br />
          3) When <span class="">glusterd</span> starts up: It spawns
          any daemons that "should" be running (according to which
          volumes are started, which have NFS or replication enabled,
          etc.) and seem to be missing.<br />
          <br />
          <br />
          So... <br />
          <br />
          If thats the case then I would say that ***stopping
          glusterd*** should invert the "starting" of the above
          processes ... right? <br />
        </div>
        <div>But I would leave it to the gluster vets to answer this
          definitively... <br />
        </div>
        <div><br />
        </div>
        <div><br />
        </div>
      </div>
      <div class="gmail_extra"><br />
        <br />
        <div class="gmail_quote">On Wed, Apr 10, 2013 at 11:51 AM, Guido
          De Rosa <span dir="ltr">&lt;<a moz-do-not-send="true" href="mailto:guido.derosa@vemarsas.it" target="_blank">guido.derosa@vemarsas.it</a>&gt;</span>
          wrote:<br />
          <blockquote class="gmail_quote" style="margin:0 0 0
            .8ex;border-left:1px #ccc solid;padding-left:1ex">Hello
            list,<br />
            <br />
            I've installed GlusterFS via Debian experimental packages,
            version<br />
            3.4.0~qa9realyalpha2-1.<br />
            <br />
            ( For the records, the reason I use an alpha release is that
            I want<br />
            this feature: <a moz-do-not-send="true" href="http://raobharata.wordpress.com/2012/10/29/qemu-glusterfs-native-integration/" target="_blank">http://raobharata.wordpress.com/2012/10/29/qemu-glusterfs-native-integration/</a><br />
            )<br />
            <br />
            I've also followed the Quick Start Guide and now I have a
            cluster of 2<br />
            virtual machines, each contributing to a Gluster volume with
            one brick<br />
            each.<br />
            <br />
            Now my issue:<br />
            <br />
            Let's assume no machine has actually mounted the Gluster
            volume.<br />
            <br />
            If I do:<br />
            <br />
            &nbsp; &nbsp; ps aux | grep gluster<br />
            <br />
            I get a couple of daemons: glusterd, glusterfsd, glusterfs.<br />
            <br />
            If I do:<br />
            <br />
            &nbsp; &nbsp; /etc/init.d/glusterfs-server stop<br />
            <br />
            I find (re-issuing ps) that glusterd has been terminated BUT
            the other<br />
            processes (glusterfs and glusterfsd instances) *are still
            running*.<br />
            <br />
            (The same happens if I manually kill the glusterd process).<br />
            <br />
            Is this normal? Doesn't this leave the system in an
            inconsistent<br />
            state? (For example on system shutdown).<br />
            <br />
            Should the init script be fixed? (maybe including "gluster
            volume<br />
            stop" or something)?<br />
            <br />
            What's the best practice to terminate *all* Gluster related
            process<br />
            (especially on system shutdown/reboot)?<br />
            <br />
            Thanks,<br />
            Guido<br />
            _______________________________________________<br />
            Gluster-users mailing list<br />
            <a moz-do-not-send="true" href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br />
            <a moz-do-not-send="true" href="http://supercolony.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a><br />
          </blockquote>
        </div>
        <br />
        <br clear="all" />
        <br />
        -- <br />
        Jay Vyas<br />
        <a moz-do-not-send="true" href="http://jayunit100.blogspot.com" target="_blank">http://jayunit100.blogspot.com</a>
      </div>
      <br />
      <fieldset class="mimeAttachmentHeader"></fieldset>
      <br />
      <pre wrap="">_______________________________________________
Gluster-users mailing list
<a class="moz-txt-link-abbreviated" href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a>
<a class="moz-txt-link-freetext" href="http://supercolony.gluster.org/mailman/listinfo/gluster-users">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a></pre>
    </blockquote>
    <br />
  

<p style="margin-top: 2.5em; margin-bottom: 1em; border-bottom: 1px solid #000"></p><pre style="white-space: pre-wrap; word-wrap:break-word; font-family: sans-serif; margin-top: 0px"><hr /><br />Gluster-users mailing list<br />Gluster-users@gluster.org<br /><a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a></pre></blockquote></div></body></html></body></html>