[CentOS-pt-br] Estado D nos processos

Giovanni Mantelli gamantelli em gmail.com
Sexta Outubro 28 19:12:54 EDT 2011


Dae Anderson,

Sobre o GFS, utilizo ele em meu cluster (ativo-ativo) de email. O meu
diretorio /home onde estao as caixas de email dos usuarios utiliza esse
filesystem.
Notei que varios processos imap de usuarios diferentes comecaram a ficar
presos, com o status D (IO).
Depois de muito stress e testes, resolvi desmotar a particao, e efetuar os
procedimentos basicos, executando o fsck nela...
Apos isso, os problemas nao ocorreram mais.

e em relacao ao ocfs, legal, legal! quero testa-lo em breve, para ver se
vale a pena utiliza-lo.

Abracao

Em 28 de outubro de 2011 08:36, Anderson J. Dominitini <
ajdominitini em gmail.com> escreveu:

>  Legal
>
> Giovanni uma questão que acordei pensando, você rodou o fsck no seu
> headnode certo? Vc desmontou o storage pra que o fsck não limpasse ele
> certo? Ou mandou rodar com os GFS levantando seu file system?
>
> O OCFS2 é excelente na questão de performance, mas tem um limitantes. So
> podemos haver cerca de 32 mil pastas dentro de cada ponto de montagem. Se
> passar disto você vai ter travamentos totais do acesso. Se quiser brincar
> com ele recomendo quebrar seu storage em mais pontos de montagens, de acordo
> com sua necessidade.  Tenho dois pontos de montagens e no final do ano vou
> formatar em mais pontos.
>
> Em 27-10-2011 20:43, Giovanni Mantelli escreveu:
>
> Opa Anderson...
>
>  No meu caso, o fsck no GFS resolvou os problemas com processos "D" em meu
> cluster de e-mail.
> Em relacao ao GFS, nota-se uma queda na performance em relacao aos outros
> sistemas de arquivos, como voce deve saber...
>
>  Mas no mais, he um sistema bom.
> Ja ouvi falar bem do OCFS2.
> O que voce me diz dele?
>
>
> Em 27 de outubro de 2011 17:14, Anderson J. Dominitini <
> ajdominitini em gmail.com> escreveu:
>
>>  Giovanni.
>>
>>     Não existe problemas que peça um FSCK. Pelo menos não aparentemente.
>> Pelo que li hoje devo atualizar o Firmware e acabe de fazer isto das
>> controladoras. Chequei a integridade dos discos também e está tudo OK.
>>
>>     Vou rodar um teste aqui.
>>
>>     Uma pergunta OFF: Vc usa o GFS? Está satisfeito? Eu uso o OCFS2.
>>
>> []'s
>>
>> Em 27-10-2011 16:35, Giovanni Mantelli escreveu:
>>
>> Anderson,
>>
>> Recentemente tive um problema assim com meu servidor de e-mail plugado no
>> Storage, utilizando o filesystem GFS.
>> Muitos processos Imap começaram a ficar presos.
>>
>> Rodei o fsck na partição, e o problema foi resolvido.
>>
>> Conforme comentaram acima, são processos que estão esperando / aguardando
>> por IO.
>>
>> Abraços
>>
>>
>>
>> Em 27 de outubro de 2011 13:43, Anderson J. Dominitini <
>> ajdominitini em gmail.com> escreveu:
>>
>>>  Bom já tenho um fio pra puxar.
>>>
>>> O processo recebe este status quando está aguardando que algum I/O de
>>> disco ou outro qualquer seja completado!
>>>
>>> O que me estranha é que os mesmo processos estão sendo rodados do mesmo
>>> jeito. Então tenho que monitorar o que está causando esta lentidão de
>>> resposta de I?o.
>>>
>>> []'s
>>>
>>> Em 27-10-2011 13:35, Anderson J. Dominitini escreveu:
>>>
>>> OK.
>>>
>>> Mas o que está causando isto? Porque vários processos diferente estão
>>> assumindo este status? Como resolver isto?
>>>
>>> Estou procurando material sobre isto!
>>>
>>> []'s
>>>
>>> Em 27-10-2011 12:04, João Neto escreveu:
>>>
>>>    PROCESS STATE CODES
>>>        D   uninterruptible sleep (usually IO)
>>>        R   runnable (on run queue)
>>>        S   sleeping
>>>        T   traced or stopped
>>>        Z   a defunct ("zombie") process
>>>
>>>  Atenciosamente,
>>>
>>>  João Gomes Neto
>>> Software Engineer | ZCE | Coordenador COMSOLiD
>>> +55 85 88664963
>>> Skype: joao.gsneto
>>> Gtalk: joao.gsneto[at]gmail.com
>>>
>>>  @joao_neto | http://www.joaoneto.blog.br
>>>
>>>
>>>
>>>
>>> Em 27 de outubro de 2011 10:44, Anderson J. Dominitini <
>>> ajdominitini em gmail.com> escreveu:
>>>
>>>> Pessoal
>>>>
>>>>    Estou com um problema bem novo pra mim. Tenho um headnode e sempre
>>>> que coloco ele pra trabalhar, muitos processos recebem este status D,
>>>> segue exemplo. Mas de antemão já informo que a cada existem outros
>>>> processos que recebem o mesmo tratamento!
>>>>
>>>> Warning: bad syntax, perhaps a bogus '-'? See
>>>> /usr/share/doc/procps-3.2.7/FAQ
>>>> root 6182 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6183 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6184 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6185 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6186 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6187 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6188 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6189 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6190 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6191 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6192 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6193 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6194 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6195 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6196 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6197 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6198 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6199 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6200 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6201 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6202 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6203 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6204 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6205 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6206 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6207 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6208 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6209 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6210 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6211 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6212 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6213 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6214 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6215 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6216 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6217 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6218 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6219 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6220 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6221 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6222 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6223 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6224 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6225 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6226 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6227 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6228 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6229 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6230 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6231 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6232 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6233 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6234 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6235 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6236 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6237 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6238 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6239 0.0 0.0 0 0 ? D Oct26 0:01 [nfsd]
>>>> root 6240 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6241 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6242 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6243 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6244 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 6245 0.0 0.0 0 0 ? D Oct26 0:00 [nfsd]
>>>> root 14666 0.0 0.0 66256 1712 ? D 09:36 0:00 -bash
>>>> munin 21464 0.0 0.0 8728 256 ? D 11:20 0:00 /bin/sh /usr/bin/munin-cron
>>>> munin 23347 0.0 0.0 8728 260 ? D 11:25 0:00 /bin/sh /usr/bin/munin-cron
>>>> root 25224 0.0 0.0 8720 332 ? D 11:30 0:00 /bin/bash -c
>>>> /storage/Data/share/bin/NodeClean.sh >> /var/log/NodeClean 2>&1
>>>> munin 25227 0.0 0.0 8728 260 ? D 11:30 0:00 /bin/sh /usr/bin/munin-cron
>>>> eric 26534 0.0 0.0 61232 796 pts/1 S+ 11:34 0:00 grep D
>>>>
>>>>
>>>> Não sei exatamente o que pode ser. Alguém tem uma luz! Estou enviando
>>>> aqui antes de pesquisar por necessidade de resolver logo. Enviando este
>>>> e-mail vou buscar solução pra isto!
>>>>
>>>> []'s
>>>>
>>>>
>>>> _______________________________________________
>>>> CentOS-pt-br mailing list
>>>> CentOS-pt-br em centos.org
>>>> http://lists.centos.org/mailman/listinfo/centos-pt-br
>>>>
>>>
>>>
>>>
>>> _______________________________________________
>>> CentOS-pt-br mailing listCentOS-pt-br em centos.orghttp://lists.centos.org/mailman/listinfo/centos-pt-br
>>>
>>>
>>> _______________________________________________
>>> CentOS-pt-br mailing list
>>> CentOS-pt-br em centos.org
>>> http://lists.centos.org/mailman/listinfo/centos-pt-br
>>>
>>>
>>
>>
>> --
>>
>> ----------------------------------
>> Giovanni A. Mantelli
>> Administrador de Redes / SO Linux
>> Florianópolis - SC - Brasilgamantelli em gmail.com <SSfernando.felicissimo em unimedsjc.com.br>
>>
>>
>> ----------------------------------
>>
>>
>>
>>
>>
>> _______________________________________________
>> CentOS-pt-br mailing listCentOS-pt-br em centos.orghttp://lists.centos.org/mailman/listinfo/centos-pt-br
>>
>>
>> _______________________________________________
>> CentOS-pt-br mailing list
>> CentOS-pt-br em centos.org
>> http://lists.centos.org/mailman/listinfo/centos-pt-br
>>
>>
>
>
>  --
>
> ----------------------------------
> Giovanni A. Mantelli
> Administrador de Redes / SO Linux
> Florianópolis - SC - Brasilgamantelli em gmail.com <SSfernando.felicissimo em unimedsjc.com.br>
>
>
> ----------------------------------
>
>
>
>
>
> _______________________________________________
> CentOS-pt-br mailing listCentOS-pt-br em centos.orghttp://lists.centos.org/mailman/listinfo/centos-pt-br
>
>
> _______________________________________________
> CentOS-pt-br mailing list
> CentOS-pt-br em centos.org
> http://lists.centos.org/mailman/listinfo/centos-pt-br
>
>


-- 

----------------------------------
Giovanni A. Mantelli
Administrador de Redes / SO Linux
Florianópolis - SC - Brasil
gamantelli em gmail.com <SSfernando.felicissimo em unimedsjc.com.br>

----------------------------------
-------------- Próxima Parte ----------
Um anexo em HTML foi limpo...
URL: http://lists.centos.org/pipermail/centos-pt-br/attachments/20111028/957e937a/attachment.html 


Mais detalhes sobre a lista de discussão CentOS-pt-br