hi<br><br>  I took 4 servers for glusterfs, sev1 and sev 2 were used for replicate1, sev3 and sev4 were usered for<br>replicate2, replicate1 and replicate2 were combined for nufa, there is server.vol in every server:<br><br>
server.vol<br><br>volume posix<br>  type storage/posix<br>  option directory /mnt/data1<br>end-volume<br><br>volume locks<br>  type features/locks<br>  subvolumes posix<br>end-volume<br><br>volume brick<br>  type performance/io-threads<br>
  option thread-count 8<br>  subvolumes locks<br>end-volume<br><br>volume server<br>  type protocol/server<br>  option transport-type tcp<br>  option auth.addr.brick.allow *<br>  subvolumes brick<br>end-volume<br><br><br>
client.vol in sev1<br>volume  sev1<br>  type protocol/client<br>  option transport-type tcp<br>  option remote-host sev1<br>  option remote-subvolume brick<br>end-volume<br><br>volume  sev2<br> type protocol/client<br> option transport-type tcp<br>
 option remote-host sev2<br> option remote-subvolume brick<br>end-volume<br><br>volume  sev3<br> type protocol/client<br> option transport-type tcp<br> option remote-host sev3<br> option remote-subvolume brick<br>end-volume<br>
<br>volume  sev4<br> type protocol/client<br> option transport-type tcp<br> option remote-host sev4<br> option remote-subvolume brick<br>end-volume<br><br>volume replicate1<br>  type cluster/replicate<br>  subvolumes sev1 sev2<br>
end-volume<br><br>volume replicate2<br>  type cluster/replicate<br>  subvolumes sev3 sev4<br>end-volume<br><br>volume nufa<br> type cluster/nufa<br> option local-volume-name replicate1<br> subvolumes replicate1 replicate3<br>
end-volume<br><br>volume writebehind<br>  type performance/write-behind<br>  option page-size 128KB<br>  option cache-size 1MB<br>  subvolumes nufa<br>end-volume<br><br>volume cache<br>  type performance/io-cache<br>  option cache-size 512MB<br>
  subvolumes writebehind<br>end-volume<br><br>every server has a disk mounted on /mnt/data1, the disk has a capability with 40GB, <br>so the glusterfs&#39;s total capbility is 80GB, <br><br>client is in sev1, and mount the glusterfs on /mnt/data<br>
<br>now the problem is that: when the replicate1 is nearly fullfilled, for expample when the <br>replicate1 is 50MB free, i copy a file A bigger than 50MB into /mnt/data, file A will be <br>created on replicate1, while the replicate1 is fullfiled, the rest of file A can not be <br>
write on replicate2,and the log in sev1 or sev2 is that: <br><br>[posix.c:1736:posix_writev] posix: writev failed: No space left on device<br><br>anybody can help me??? thanks very much<br>