<html>
<head>
<style><!--
.hmmessage P
{
margin:0px;
padding:0px
}
body.hmmessage
{
font-size: 12pt;
font-family:Calibri
}
--></style></head>
<body class='hmmessage'><div dir='ltr'>Por exemplo Antônio. Se eu fizesse assim<div><br></div><div>Servidor 1 = urano1</div><div>Servidor 2 = urano2</div><div>Servidor 3 = urano3</div><div><br></div><div>Durante todo o dia, o servico do drbd estaria parado no servidor urano3. Dai a meia noite eu daria um stop no serviço do drbd no servidor urano2 e daria um start no serviço do drbd no servidor urano3. Funcionaria assim também? Somente dando start e stop ?<br><br><div>> Date: Fri, 6 Sep 2013 08:28:30 -0300<br>> From: asmartins@uem.br<br>> To: centos-pt-br@centos.org<br>> Subject: Re: [CentOS-pt-br] Cluster no CentOS. Ajuda..<br>> <br>> Olá Cássio,<br>> <br>> Legal que funcionou! Como lhe disse, temos máquinas aqui funcionando já a um bom tempo!<br>> <br>> Quanto a replicação para mais de 2 nós, tem com 3 (um backup) veja: http://www.drbd.org/users-guide-8.3/s-three-way-repl.html<br>> <br>> E com imaginação dá para fazer muita coisa também! Como o tempo de sync do DRBD não é muito grande<br>> se a quantidade de alterações de seus dados não for enorme, você pode montar um <br>> esquema em que, p.ex., toda noite, você "troca" o nó secundário, sincronizando com outros nós. <br>> Dai em caso de uma perda total do hardware do primário, você já tem outra máquina para assumir.<br>> <br>> Att.,<br>> <br>> Antonio.<br>> <br>> ----- "CássioElias ." <cassioelias@hotmail.com> escreveu:<br>> <br>> > De: "CássioElias ." <cassioelias@hotmail.com><br>> > Para: "Lista de Discussão CentOS-BR" <centos-pt-br@centos.org><br>> > Enviadas: Sexta-feira, 6 de Setembro de 2013 8:16:53 (GMT-0300) Auto-Detected<br>> > Assunto: Re: [CentOS-pt-br] Cluster no CentOS. Ajuda..<br>> ><br>> > É...vivendo e tentando aprender.... XD.<br>> > <br>> > <br>> > Acredito que a saga do Cluster no CentOS 6 chegou ao fim Antônio.<br>> > Ontem fiquei até 00:00 "brincando" um pouco nesses servidores e nas<br>> > replicações.<br>> > Agora está funcionando beleza. Os servidores fazem a ajuda entre si e<br>> > as replicações. As replicações está perfeitas. Configurei tudo ontem<br>> > no pacemaker. O failover também está perfeito. Quando uma estação cái,<br>> > ou entra em standby a outra assume na hora.<br>> > Fiz tudo em 2 máquinas virtuais criadas no VMWare ESXi.<br>> > O ideal era eu deixar uma virtual e outra em Servidor Físico. Mas isso<br>> > eu vejo com a parte financeira da empresa depois..hehe.<br>> > <br>> > <br>> > Outra pergunta, o DRBD não trabalha com mais de 2 servidores não né?<br>> > Andei lendo que ele trabalha apenas com 2 servidores. Se quiser<br>> > trabalhar com mais de 2 tem que ser com a ferramenta paga deles.<br>> > <br>> > <br>> > Bom, veja como ficou minhas configurações:<br>> > <br>> > <br>> > Informações do Servidor Urano1 que são as mesmas do Urano2:<br>> > <br>> > <br>> > <br>> > [root@urano1 ~]# uname -a<br>> > Linux urano1 2.6.32-358.18.1.el6.x86_64 #1 SMP Wed Aug 28 17:19:38 UTC<br>> > 2013 x86_64 x86_64 x86_64 GNU/Linux<br>> > <br>> > <br>> > <br>> > # /etc/corosync/corosync.conf<br>> > <br>> > <br>> > #Opção do protocolo totem<br>> > totem {<br>> > version: 2<br>> > <br>> > <br>> > #Tempo para verificar perca de pacotes em (ms)<br>> > token: 3000<br>> > <br>> > <br>> > #Quantas verificações antes de gerar notificações<br>> > token_retransmits_before_loss_const: 10<br>> > <br>> > <br>> > #Quanto tempo esperar para agrupar as notificações em (ms)<br>> > join: 60<br>> > <br>> > <br>> > #Quanto tempo esperar para uma solução antes de começar uma nova<br>> > verificação (ms)<br>> > consensus: 3600<br>> > <br>> > <br>> > #Filtro de sincronismo virtual desabilitado<br>> > vsftype: none<br>> > <br>> > <br>> > #Número de mensagens processadas na recepção de pacotes<br>> > max_messages: 20<br>> > <br>> > <br>> > #Limite de cluster assinados<br>> > clear_node_high_bit: yes<br>> > <br>> > <br>> > #Criptografia desabilitada<br>> > secauth: off<br>> > <br>> > <br>> > #Quantas threads usadas para criptografar/descriptografar<br>> > threads: 0<br>> > <br>> > <br>> > #Atribui ID em um cluster fixo (opcional)<br>> > # nodeid: 1234<br>> > <br>> > <br>> > #Especifica que em modo de redundancia, não pode havar nenhum cluster<br>> > ativo ou passivo.<br>> > rrp_mode: none<br>> > <br>> > <br>> > interface {<br>> > #Número de clusters (0 default)<br>> > ringnumber: 0<br>> > #Início de ips utilizados por cluster 10.101.0.0 é 10.101.0.0/24 aqui<br>> > mude para<br>> > #O endereço da sua rede ex: 192.168.0.0 que seria 192.168.0.0/24<br>> > bindnetaddr: 192.168.0.0<br>> > #Fim de ips utilizados por cluster<br>> > mcastaddr: 226.94.1.1<br>> > #Porta utilizaad pelo corosync<br>> > mcastport: 5405<br>> > }<br>> > }<br>> > <br>> > <br>> > #Configuração de AIS Availability Management Framework<br>> > amf {<br>> > mode: disabled<br>> > }<br>> > <br>> > <br>> > service {<br>> > #Carregamento do serviço para gerenciamento<br>> > ver: 1<br>> > name: pacemaker<br>> > }<br>> > <br>> > <br>> > #Temos que setar o usuário e grupo como root para o ais ser capaz de<br>> > gerenciar os recursos do pacemaker<br>> > aisexec {<br>> > user: root<br>> > group: root<br>> > }<br>> > <br>> > <br>> > <br>> > <br>> > #Configuração de log<br>> > logging {<br>> > fileline: off<br>> > to_stderr: yes<br>> > to_logfile: yes<br>> > logfile: /var/log/corosync/corosync.log<br>> > #Aqui estou desabilitando os logs para o syslog, pq senão zoa demais o<br>> > arquivo<br>> > to_syslog: no<br>> > syslog_facility: daemon<br>> > debug: off<br>> > timestamp: on<br>> > logger_subsys {<br>> > subsys: AMF<br>> > debug: off<br>> > tags: enter|leave|trace1|trace2|trace3|trace4|trace6<br>> > }<br>> > <br>> > <br>> > <br>> > [root@urano1 ~]# ls /etc/drbd.d<br>> > global_common.conf http.res mysql.res<br>> > <br>> > <br>> > <br>> > [root@urano1 ~]# cat /etc/drbd.d/http.res<br>> > resource http {<br>> > on urano1{<br>> > device /dev/drbd1;<br>> > disk /dev/vg_urano1/lv_web;<br>> > address 192.168.0.181:7789;<br>> > meta-disk internal;<br>> > }<br>> > <br>> > <br>> > on urano2{<br>> > device /dev/drbd1;<br>> > disk /dev/vg_urano2/lv_web;<br>> > address 192.168.0.182:7789;<br>> > meta-disk internal;<br>> > }<br>> > }<br>> > <br>> > <br>> > <br>> > [root@urano1 ~]# cat /etc/drbd.d/mysql.res<br>> > resource mysql {<br>> > on urano1{<br>> > device /dev/drbd0;<br>> > disk /dev/vg_urano1/lv_mysql;<br>> > address 192.168.0.181:7790;<br>> > meta-disk internal;<br>> > }<br>> > <br>> > <br>> > on urano2{<br>> > device /dev/drbd0;<br>> > disk /dev/vg_urano2/lv_mysql;<br>> > address 192.168.0.182:7790;<br>> > meta-disk internal;<br>> > }<br>> > }<br>> > <br>> > <br>> > <br>> > [root@urano1 ~]# lvs<br>> > LV VG Attr LSize Pool Origin Data% Move Log Cpy%Sync Convert<br>> > lv_home vg_urano1 -wi-ao--- 4,88g<br>> > lv_mysql vg_urano1 -wi-ao--- 4,88g<br>> > lv_root vg_urano1 -wi-ao--- 4,88g<br>> > lv_swap vg_urano1 -wi-ao--- 3,94g<br>> > lv_usr vg_urano1 -wi-ao--- 4,88g<br>> > lv_var vg_urano1 -wi-ao--- 4,88g<br>> > lv_web vg_urano1 -wi-ao--- 4,88g<br>> > <br>> > <br>> > <br>> > [root@urano1 ~]# crm configure show<br>> > node urano1 \<br>> > attributes standby="off"<br>> > node urano2 \<br>> > attributes standby="off"<br>> > primitive Failover ocf:heartbeat:IPaddr2 \<br>> > params ip="192.168.0.200" cidr_netmask="24" nic="eth0" \<br>> > op monitor interval="10s"<br>> > primitive Httpd lsb:httpd<br>> > primitive MysqlData ocf:linbit:drbd \<br>> > params drbd_resource="mysql" \<br>> > op monitor interval="60s"<br>> > primitive MysqlFS ocf:heartbeat:Filesystem \<br>> > params device="/dev/drbd0" directory="/var/lib/mysql" fstype="ext4"<br>> > primitive Mysqld lsb:mysqld<br>> > primitive Vsftpd lsb:vsftpd<br>> > primitive WebData ocf:linbit:drbd \<br>> > params drbd_resource="http" \<br>> > op monitor interval="60s"<br>> > primitive WebFS ocf:heartbeat:Filesystem \<br>> > params device="/dev/drbd1" directory="/var/www/html" fstype="ext4"<br>> > ms MysqlDataClone MysqlData \<br>> > meta master-max="1" master-node-max="1" clone-max="2"<br>> > clone-node-max="1" notify="true"<br>> > ms WebDataClone WebData \<br>> > meta master-max="1" master-node-max="1" clone-max="2"<br>> > clone-node-max="1" notify="true"<br>> > location cli-prefer-Httpd Httpd \<br>> > rule $id="cli-prefer-rule-Httpd" inf: #uname eq urano1<br>> > location cli-prefer-Mysqld Mysqld \<br>> > rule $id="cli-prefer-rule-Mysqld" inf: #uname eq urano1<br>> > location cli-prefer-Vsftpd Vsftpd \<br>> > rule $id="cli-prefer-rule-Vsftpd" inf: #uname eq urano1<br>> > colocation Htpd-with-WebFS inf: Httpd WebFS<br>> > colocation Mysqld-with-MysqlFS inf: Mysqld MysqlFS<br>> > colocation fs_on_drbd inf: MysqlFS MysqlDataClone:Master<br>> > colocation fs_on_drbd1 inf: WebFS WebDataClone:Master<br>> > colocation website-with-ip inf: Httpd Failover<br>> > order Httpd-after-WebFS inf: WebFS Httpd<br>> > order MysqlFS-after-MysqlData inf: MysqlDataClone:promote<br>> > MysqlFS:start<br>> > order Mysqld-after-MysqlFS inf: MysqlFS Mysqld<br>> > order WebFS-after-WebData inf: WebDataClone:promote WebFS:start<br>> > order httpd-after-ip inf: Failover Httpd<br>> > property $id="cib-bootstrap-options" \<br>> > dc-version="1.1.9-2.2-2db99f1" \<br>> > cluster-infrastructure="classic openais (with plugin)" \<br>> > expected-quorum-votes="2" \<br>> > stonith-enabled="false" \<br>> > no-quorum-policy="ignore"<br>> > <br>> > <br>> > <br>> > [root@urano1 ~]# crm_mon -1<br>> > Last updated: Fri Sep 6 08:13:19 2013<br>> > Last change: Fri Sep 6 07:44:54 2013 via crm_attribute on urano1<br>> > Stack: classic openais (with plugin)<br>> > Current DC: urano2 - partition with quorum<br>> > Version: 1.1.9-2.2-2db99f1<br>> > 2 Nodes configured, 2 expected votes<br>> > 10 Resources configured.<br>> > <br>> > <br>> > <br>> > <br>> > Online: [ urano1 urano2 ]<br>> > <br>> > <br>> > Failover (ocf::heartbeat:IPaddr2): Started urano1<br>> > Httpd (lsb:httpd): Started urano1<br>> > Mysqld (lsb:mysqld): Started urano1<br>> > Vsftpd (lsb:vsftpd): Started urano1<br>> > Master/Slave Set: MysqlDataClone [MysqlData]<br>> > Masters: [ urano1 ]<br>> > Slaves: [ urano2 ]<br>> > MysqlFS (ocf::heartbeat:Filesystem): Started urano1<br>> > Master/Slave Set: WebDataClone [WebData]<br>> > Masters: [ urano1 ]<br>> > Slaves: [ urano2 ]<br>> > WebFS (ocf::heartbeat:Filesystem): Started urano1<br>> > <br>> > <br>> > <br>> > [root@urano1 ~]# cat /proc/drbd<br>> > version: 8.3.15 (api:88/proto:86-97)<br>> > GIT-hash: 0ce4d235fc02b5c53c1c52c53433d11a694eab8c build by<br>> > phil@Build64R6, 2012-12-20 20:09:51<br>> > 0: cs:Connected ro:Primary/Secondary ds:UpToDate/UpToDate C r-----<br>> > ns:372 nr:316 dw:688 dr:4109 al:0 bm:7 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f<br>> > oos:0<br>> > 1: cs:Connected ro:Primary/Secondary ds:UpToDate/UpToDate C r-----<br>> > ns:104 nr:180 dw:284 dr:792 al:0 bm:4 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f<br>> > oos:0<br>> > <br>> > <br>> > <br>> > <br>> > Tudo funcionando redondinho...Agradeço muito a sua ajuda Antônio. Você<br>> > foi peça chave para eu conseguir fazer essa configuração. Muito<br>> > obrigado mesmo. E muito obrigado a comunidade também que também me<br>> > ajudou muito!<br>> > <br>> > <br>> > Fica a dica ai para quem quiser fazer cluster no CentOS. Funciona, tem<br>> > que ralar um pouco mais funciona!<br>> > <br>> > <br>> > Hehe :)<br>> > <br>> > <br>> > > Date: Fri, 6 Sep 2013 07:46:50 -0300<br>> > > From: asmartins@uem.br<br>> > > To: centos-pt-br@centos.org<br>> > > Subject: Re: [CentOS-pt-br] Cluster no CentOS. Ajuda..<br>> > ><br>> > ><br>> > > ----- "CássioElias ." <cassioelias@hotmail.com> escreveu:<br>> > ><br>> > > > De: "CássioElias ." <cassioelias@hotmail.com><br>> > > > Para: "Lista de Discussão CentOS-BR" <centos-pt-br@centos.org><br>> > > > Enviadas: Quinta-feira, 5 de Setembro de 2013 17:12:49 (GMT-0300)<br>> > Auto-Detected<br>> > > > Assunto: Re: [CentOS-pt-br] Cluster no CentOS. Ajuda..<br>> > > ><br>> > > > Certo...entendido..<br>> > > ><br>> > > ><br>> > > > Outra pergunta. Mas para o pacemaker entender isso, eu terei que<br>> > > > configura-lo ou ele entende isso por padrão?<br>> > > ><br>> > ><br>> > > Olá Cássio,<br>> > ><br>> > > Você tem que configurar o Pacemaker, da mesma forma que faz para o<br>> > > Apache/MySQL/IPAddr2 são recursos. Você vai configurar um recurso<br>> > DRBD,<br>> > > tem OCF::Resource para isso também (é preferivel a usar o lsb, como<br>> > você<br>> > > fez com o Apache).<br>> > ><br>> > > De uma olhada aqui:<br>> > http://www.drbd.org/users-guide-8.3/ch-pacemaker.html<br>> > ><br>> > > E por falar em documentação! Você deveria ler a documentação do<br>> > Pacemaker e<br>> > > do DRBD toda, e não ficar atrás de receita de bolo (HowTo). :D Tem<br>> > muita coisa<br>> > > que a turma faz errado nestes HowTos, a principal é instalar a<br>> > partir dos fontes<br>> > > quando existem pacotes nos repositórios! Se é para usar fonte, use<br>> > Slackware!<br>> > ><br>> > > Att.,<br>> > ><br>> > > Antonio.<br>> > ><br>> > > --<br>> > > Antonio da Silva Martins Jr.<br>> > > Analista de Suporte<br>> > > NPD - Núcleo de Processamento de Dados<br>> > > UEM - Universidade Estadual de Maringá<br>> > > email: asmartins@uem.br<br>> > > fone: +55 (44) 3011-4015 / 3011-4411<br>> > > inoc-dba: 263076*100<br>> > ><br>> > > "Real Programmers don’t need comments — the code is obvious."<br>> > ><br>> > > --<br>> > > Esta mensagem foi verificada pelo sistema de antivirus e<br>> > > acredita-se estar livre de perigo.<br>> > ><br>> > > _______________________________________________<br>> > > CentOS-pt-br mailing list<br>> > > CentOS-pt-br@centos.org<br>> > > http://lists.centos.org/mailman/listinfo/centos-pt-br<br>> > <br>> > --<br>> > Esta mensagem foi verificada pelo sistema de antivírus e<br>> > acredita-se estar livre de perigo. <br>> > _______________________________________________<br>> > CentOS-pt-br mailing list<br>> > CentOS-pt-br@centos.org<br>> > http://lists.centos.org/mailman/listinfo/centos-pt-br<br>> <br>> -- <br>> Antonio da Silva Martins Jr. <br>> Analista de Suporte<br>> NPD - Núcleo de Processamento de Dados<br>> UEM - Universidade Estadual de Maringá<br>> email: asmartins@uem.br <br>> fone: +55 (44) 3011-4015 / 3011-4411<br>> inoc-dba: 263076*100 <br>> <br>> "Real Programmers don’t need comments — the code is obvious."<br>> <br>> -- <br>> Esta mensagem foi verificada pelo sistema de antivirus e<br>> acredita-se estar livre de perigo.<br>> <br>> _______________________________________________<br>> CentOS-pt-br mailing list<br>> CentOS-pt-br@centos.org<br>> http://lists.centos.org/mailman/listinfo/centos-pt-br<br></div></div>                                            </div></body>
</html>