Dae Anderson,

Sobre o GFS, utilizo ele em meu cluster (ativo-ativo) de email. O meu diretorio /home onde estao as caixas de email dos usuarios utiliza esse filesystem.
Notei que varios processos imap de usuarios diferentes comecaram a ficar presos, com o status D (IO).
Depois de muito stress e testes, resolvi desmotar a particao, e efetuar os procedimentos basicos, executando o fsck nela...
Apos isso, os problemas nao ocorreram mais.

e em relacao ao ocfs, legal, legal! quero testa-lo em breve, para ver se vale a pena utiliza-lo.

Abracao

Em 28 de outubro de 2011 08:36, Anderson J. Dominitini <ajdominitini@gmail.com> escreveu:
Legal

Giovanni uma questão que acordei pensando, você rodou o fsck no seu headnode certo? Vc desmontou o storage pra que o fsck não limpasse ele certo? Ou mandou rodar com os GFS levantando seu file system?

O OCFS2 é excelente na questão de performance, mas tem um limitantes. So podemos haver cerca de 32 mil pastas dentro de cada ponto de montagem. Se passar disto você vai ter travamentos totais do acesso. Se quiser brincar com ele recomendo quebrar seu storage em mais pontos de montagens, de acordo com sua necessidade.  Tenho dois pontos de montagens e no final do ano vou formatar em mais pontos.

Em 27-10-2011 20:43, Giovanni Mantelli escreveu:
Opa Anderson...

No meu caso, o fsck no GFS resolvou os problemas com processos "D" em meu cluster de e-mail.
Em relacao ao GFS, nota-se uma queda na performance em relacao aos outros sistemas de arquivos, como voce deve saber...

Mas no mais, he um sistema bom.
Ja ouvi falar bem do OCFS2.
O que voce me diz dele?


Em 27 de outubro de 2011 17:14, Anderson J. Dominitini <ajdominitini@gmail.com> escreveu:
Giovanni.

    Não existe problemas que peça um FSCK. Pelo menos não aparentemente. Pelo que li hoje devo atualizar o Firmware e acabe de fazer isto das controladoras. Chequei a integridade dos discos também e está tudo OK.

    Vou rodar um teste aqui.

    Uma pergunta OFF: Vc usa o GFS? Está satisfeito? Eu uso o OCFS2.

[]'s

Em 27-10-2011 16:35, Giovanni Mantelli escreveu:
Anderson,

Recentemente tive um problema assim com meu servidor de e-mail plugado no Storage, utilizando o filesystem GFS.
Muitos processos Imap começaram a ficar presos.

Rodei o fsck na partição, e o problema foi resolvido.

Conforme comentaram acima, são processos que estão esperando / aguardando por IO.

Abraços



Em 27 de outubro de 2011 13:43, Anderson J. Dominitini <ajdominitini@gmail.com> escreveu:
Bom já tenho um fio pra puxar.

O processo recebe este status quando está aguardando que algum I/O de disco ou outro qualquer seja completado!

O que me estranha é que os mesmo processos estão sendo rodados do mesmo jeito. Então tenho que monitorar o que está causando esta lentidão de resposta de I?o.

[]'s

Em 27-10-2011 13:35, Anderson J. Dominitini escreveu:
OK.

Mas o que está causando isto? Porque vários processos diferente estão assumindo este status? Como resolver isto?

Estou procurando material sobre isto!

[]'s

Em 27-10-2011 12:04, João Neto escreveu:
   PROCESS STATE CODES
       D   uninterruptible sleep (usually IO)
       R   runnable (on run queue)
       S   sleeping
       T   traced or stopped
       Z   a defunct ("zombie") process
Atenciosamente,

João Gomes Neto
Software Engineer | ZCE | Coordenador COMSOLiD
Skype: joao.gsneto
Gtalk: joao.gsneto[at]gmail.com





Em 27 de outubro de 2011 10:44, Anderson J. Dominitini <ajdominitini@gmail.com> escreveu:
Pessoal

   Estou com um problema bem novo pra mim. Tenho um headnode e sempre
que coloco ele pra trabalhar, muitos processos recebem este status D,
segue exemplo. Mas de antemão já informo que a cada existem outros
processos que recebem o mesmo tratamento!

Warning: bad syntax, perhaps a bogus '-'? See
/usr/share/doc/procps-3.2.7/FAQ
root 6182 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6183 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6184 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6185 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6186 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6187 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6188 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6189 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6190 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6191 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6192 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6193 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6194 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6195 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6196 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6197 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6198 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6199 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6200 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6201 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6202 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6203 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6204 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6205 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6206 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6207 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6208 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6209 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6210 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6211 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6212 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6213 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6214 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6215 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6216 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6217 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6218 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6219 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6220 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6221 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6222 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6223 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6224 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6225 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6226 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6227 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6228 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6229 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6230 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6231 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6232 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6233 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6234 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6235 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6236 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6237 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6238 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6239 0.0 0.0 0 0 ? D Oct26 0:01 [nfsd]
root 6240 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6241 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6242 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6243 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6244 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 6245 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
root 14666 0.0 0.0 66256 1712 ? D 09:36 0:00 -bash
munin 21464 0.0 0.0 8728 256 ? D 11:20 0:00 /bin/sh /usr/bin/munin-cron
munin 23347 0.0 0.0 8728 260 ? D 11:25 0:00 /bin/sh /usr/bin/munin-cron
root 25224 0.0 0.0 8720 332 ? D 11:30 0:00 /bin/bash -c
/storage/Data/share/bin/NodeClean.sh >> /var/log/NodeClean 2>&1
munin 25227 0.0 0.0 8728 260 ? D 11:30 0:00 /bin/sh /usr/bin/munin-cron
eric 26534 0.0 0.0 61232 796 pts/1 S+ 11:34 0:00 grep D


Não sei exatamente o que pode ser. Alguém tem uma luz! Estou enviando
aqui antes de pesquisar por necessidade de resolver logo. Enviando este
e-mail vou buscar solução pra isto!

[]'s


_______________________________________________
CentOS-pt-br mailing list
CentOS-pt-br@centos.org
http://lists.centos.org/mailman/listinfo/centos-pt-br



_______________________________________________
CentOS-pt-br mailing list
CentOS-pt-br@centos.org
http://lists.centos.org/mailman/listinfo/centos-pt-br

_______________________________________________
CentOS-pt-br mailing list
CentOS-pt-br@centos.org
http://lists.centos.org/mailman/listinfo/centos-pt-br




--
----------------------------------
Giovanni A. Mantelli
Administrador de Redes / SO Linux
Florianópolis - SC - Brasil
gamantelli@gmail.com


----------------------------------




_______________________________________________
CentOS-pt-br mailing list
CentOS-pt-br@centos.org
http://lists.centos.org/mailman/listinfo/centos-pt-br

_______________________________________________
CentOS-pt-br mailing list
CentOS-pt-br@centos.org
http://lists.centos.org/mailman/listinfo/centos-pt-br




--
----------------------------------
Giovanni A. Mantelli
Administrador de Redes / SO Linux
Florianópolis - SC - Brasil
gamantelli@gmail.com


----------------------------------




_______________________________________________
CentOS-pt-br mailing list
CentOS-pt-br@centos.org
http://lists.centos.org/mailman/listinfo/centos-pt-br

_______________________________________________
CentOS-pt-br mailing list
CentOS-pt-br@centos.org
http://lists.centos.org/mailman/listinfo/centos-pt-br




--
----------------------------------
Giovanni A. Mantelli
Administrador de Redes / SO Linux
Florianópolis - SC - Brasil
gamantelli@gmail.com
----------------------------------