[CentOS-es] Consulta qemu-KVM

Carlos Restrepo restrcarlos en gmail.com
Jue Jul 12 11:37:23 EDT 2012


El 12 de julio de 2012 10:06, Federico Don <federico.don13 en gmail.com>escribió:

> Carlos, gracias una vez mas, te cuento lo que estoy haciendo, en el
> hipervisor solo deje corriendo una MV la cual en el proceso se puede ver:
>
> /usr/libexec/qemu-kvm -S -M rhel5.4.0 -m 4096 -smp
> 1,sockets=1,cores=1,threads=1 -name faxfssq4woowe2 -uuid
> 3266131e-19ef-1b75-1629-638256e4ab7b -monitor
> unix:/var/lib/libvirt/qemu/faxfssq4woowe2.monitor,server,nowait
> -no-kvm-pit-reinjection -boot a -drive
> file=/onapp/tools/grub.img,if=floppy,unit=0,readonly=on,format=raw -drive
>
> file=/dev/onapp-iem20qdroptb03/bnggfsp9c31rql,if=ide,bus=0,unit=0,format=raw
> -drive
>
> file=/dev/onapp-iem20qdroptb03/pal1y3rnshyidn,if=ide,bus=0,unit=1,format=raw
> -net nic,macaddr=00:16:3e:85:f5:69,vlan=0,model=e1000 -net tap,fd=18,vlan=0
> -serial none -parallel none -usb -usbdevice tablet -vnc 0.0.0.0:0,password
> -vga cirrus -balloon virtio
>
> Verifico el nombre de la MV:
>
> # virsh list --all
>  Id Nombre               Estado
> ----------------------------------
>  12 faxfssq4woowe2       ejecutando
>
> Si ejecuto la instrucción "virsh shutdown faxfssq4woowe2":
>
> # virsh shutdown faxfssq4woowe2
> El dominio faxfssq4woowe2 está siendo apagado
>
> Pero nunca se apaga!
> Puedo apagar la MV desde una consola
>
> El disco de mi maquina virtual es el que se ve en el
> proceso /dev/onapp-iem20qdroptb03/bnggfsp9c31rql
> y /dev/onapp-iem20qdroptb03/pal1y3rnshyidn, supongo que uno es el disco y
> el otro es el swap, para crear el snapshot realice lo siguiente:
>
> lvcreate -L 512M -s -n bck_export /dev/onapp-iem20qdroptb03/bnggfsp9c31rql
>
> y en /dev/mapper/ encuentro lo siguiente:
>
> brw-rw---- 1 root disk 253, 10 jul 12 11:55
> onapp--iem20qdroptb03-bck_export
> brw-rw---- 1 root disk 253, 21 jul 12 11:55
> onapp--iem20qdroptb03-bck_export-cow
>
> Luego realice el snapshot del otro disco:
>
> lvcreate -L 512M -s -n bck_export_2
> /dev/onapp-iem20qdroptb03/pal1y3rnshyidn
>
> y en /dev/mapper/ apareció lo siguiente:
>
> brw-rw---- 1 root disk 253, 22 jul 12 12:01
> onapp--iem20qdroptb03-bck_export_2
> brw-rw---- 1 root disk 253, 26 jul 12 12:01
> onapp--iem20qdroptb03-bck_export_2-cow
>
> La consulta que te quería realizar es, cuando quiera realizar el volcado de
> los snapshot a un archivo de imagen, cual debería utilizar? como identifico
> cual es el disco y cual es el swap?
>
> Gracias una vez mas por tu tiempo y saludos.
>
>
>
> El 11 de julio de 2012 23:53, Carlos Restrepo <restrcarlos en gmail.com
> >escribió:
>
> > El 11 de julio de 2012 20:35, Federico Don <federico.don13 en gmail.com
> > >escribió:
> >
> > > Muchas gracias Carlos por tu respuesta, te paso lo pedido:
> > >
> > > # cd /etc/libvirt/qemu
> > > # ls
> > > networks
> > >
> > > # lvs
> > >   /dev/sdb: read failed after 0 of 4096 at 0: Error de entrada/salida
> > >   /dev/sdc: read failed after 0 of 4096 at 0: Error de entrada/salida
> > >   /dev/sdf: read failed after 0 of 4096 at 0: Error de entrada/salida
> > >   /dev/sdg: read failed after 0 of 4096 at 0: Error de entrada/salida
> > >   LV             VG                   Attr   LSize   Origin Snap%  Move
> > Log
> > > Copy%  Convert
> > >   bnggfsp9c31rql onapp-iem20qdroptb03 -wi-ao  50,00G
> > >
> > >   ckvj9retkzbtvs onapp-iem20qdroptb03 -wi-a- 150,00G
> > >
> > >   de72lrn08efdj1 onapp-iem20qdroptb03 -wi-a-  12,00G
> > >
> > >   e2ncwc1d6eso09 onapp-iem20qdroptb03 -wi---   2,00G
> > >
> > >   egluyk8h74tfr2 onapp-iem20qdroptb03 -wi---   8,00G
> > >
> > >   ejmpm7ywsy51xt onapp-iem20qdroptb03 -wi-a-   4,00G
> > >
> > >   f0alz5l70t4gol onapp-iem20qdroptb03 -wi-ao 200,00G
> > >
> > >   felwpybp84nse1 onapp-iem20qdroptb03 -wi---  20,00G
> > >
> > >   frzo43jzwrtlvc onapp-iem20qdroptb03 -wi-ao 100,00G
> > >
> > >   g0ie06va7zhysi onapp-iem20qdroptb03 -wi-a-   4,00G
> > >
> > >   g2jfdgn26dslev onapp-iem20qdroptb03 -wi-a- 100,00G
> > >
> > >   ghlodviapupakd onapp-iem20qdroptb03 -wi---   6,00G
> > >
> > >   gocvb8cdca11nk onapp-iem20qdroptb03 -wi-a-  40,00G
> > >
> > >   h025lmrb2s72ds onapp-iem20qdroptb03 -wi---  30,00G
> > >
> > >   hclohf4u3iklmy onapp-iem20qdroptb03 -wi-a-   8,00G
> > >
> > >   htox3xluu850rh onapp-iem20qdroptb03 -wi-a-  50,00G
> > >
> > >   ikw5rphgnx0795 onapp-iem20qdroptb03 -wi---   5,00G
> > >
> > >   k8f2s5dwqecong onapp-iem20qdroptb03 -wi-a-  50,00G
> > >
> > >   kq1zt63vjzpap8 onapp-iem20qdroptb03 -wi-a-  40,00G
> > >
> > >   l0kkyfe4if2aom onapp-iem20qdroptb03 -wi-a-   4,00G
> > >
> > >   l4x5ogvc3s8khk onapp-iem20qdroptb03 -wi---   5,00G
> > >
> > >   nors374zt6xhzs onapp-iem20qdroptb03 -wi-a-   4,00G
> > >
> > >   o4fmn261j5om2s onapp-iem20qdroptb03 -wi---   4,00G
> > >
> > >   ojzxd63208q7dy onapp-iem20qdroptb03 -wi---  16,00G
> > >
> > >   ow8y3eczaie1if onapp-iem20qdroptb03 -wi---   8,00G
> > >
> > >   oyrhrpsx1joyuu onapp-iem20qdroptb03 -wi---  50,00G
> > >
> > >   pal1y3rnshyidn onapp-iem20qdroptb03 -wi-ao   8,00G
> > >
> > >   pgayu9dd4251o1 onapp-iem20qdroptb03 -wi-a- 200,00G
> > >
> > >   plf0s4vu0wa2ef onapp-iem20qdroptb03 -wi---  20,00G
> > >
> > >   pzc7y79m6x59qj onapp-iem20qdroptb03 -wi---  40,00G
> > >
> > >   qbi5e2omke27kj onapp-iem20qdroptb03 -wi-a-  20,00G
> > >
> > >   u3e0eyuq9ci9q8 onapp-iem20qdroptb03 -wi-a-  16,00G
> > >
> > >   uvpnx7upnrss6n onapp-iem20qdroptb03 -wi--- 150,00G
> > >
> > >   vma5hv37arfbwz onapp-iem20qdroptb03 -wi-a-  40,00G
> > >
> > >   we2kni39jq8y37 onapp-iem20qdroptb03 -wi---  40,00G
> > >
> > >   wv5ulhzgf18s2t onapp-iem20qdroptb03 -wi---  10,00G
> > >
> > > # vgs
> > >   /dev/sdb: read failed after 0 of 4096 at 0: Error de entrada/salida
> > >   /dev/sdc: read failed after 0 of 4096 at 0: Error de entrada/salida
> > >   /dev/sdf: read failed after 0 of 4096 at 0: Error de entrada/salida
> > >   /dev/sdg: read failed after 0 of 4096 at 0: Error de entrada/salida
> > >   VG                   #PV #LV #SN Attr   VSize   VFree
> > >   onapp-iem20qdroptb03   1  36   0 wz--n-   2,00T 533,95G
> > >   onapp-jufdxsvobzvj42   1   0   0 wz--n- 410,08G 410,08G
> > >
> > > # df -h
> > > S.ficheros          Tamaño Usado  Disp Uso% Montado en
> > > /dev/sda5              48G  2,8G   43G   7% /
> > > /dev/sda1             152M   46M   99M  32% /boot
> > > tmpfs                  36G  8,0K   36G   1% /dev/shm
> > > 192.168.0.229:/backup/onappadmin
> > >                       9,0T  6,2T  2,4T  72% /onapp/backups
> > >
> > > Gracias nuevamente y espero tus comentarios,
> > >
> > > Saludos,
> > >
> > > El 11 de julio de 2012 19:37, Carlos Restrepo <restrcarlos en gmail.com
> > > >escribió:
> > >
> > > > El 11 de julio de 2012 15:35, Federico Don <federico.don13 en gmail.com
> > > > >escribió:
> > > >
> > > > > Buenas, tengo la siguiente consulta y estaba en busca de alguien
> que
> > > > > conozca de qemu-kvm y me pueda ayudar, tengo corriendo una vm de la
> > > gente
> > > > > de http://onapp.com/, básicamente es un centos corriendo qemu-kvm,
> > en
> > > > los
> > > > > procesos puedo ver lo siguiente:
> > > > >
> > > > > /usr/libexec/qemu-kvm -S -M rhel5.4.0 -m 4096 -smp
> > > > > 2,sockets=2,cores=1,threads=1 -name xjkwn2qs8m846g -uuid
> > > > > 042e0c80-a511-85b1-e745-c75b98537d0a -monitor
> > > > > unix:/var/lib/libvirt/qemu/xjkwn2qs8m846g.monitor,server,nowait
> > > > > -no-kvm-pit-reinjection -boot c -drive
> > > > >
> > > > >
> > > >
> > >
> >
> file=/dev/onapp-iem20qdroptb03/frzo43jzwrtlvc,if=ide,bus=0,unit=0,boot=on,format=raw
> > > > > -net nic,macaddr=00:16:3e:91:bc:13,vlan=0 -net tap,fd=19,vlan=0
> > -serial
> > > > > none -parallel none -usb -usbdevice tablet -vnc 0.0.0.0:1,password
> > > -vga
> > > > > cirrus -balloon virtio
> > > > > You have new mail in /var/spool/mail/root
> > > > >
> > > > > Mi pregunta es, de donde puedo sacar el disco de la vm en formato
> > .img
> > > o
> > > > > .raw para poder importarlo en otra plataforma??
> > > > >
> > > > > La gente de http://onapp.com/ no me proporciona información....
> > > > >
> > > > > Gracias por su tiempo y colaboración!
> > > > >
> > > > > Saludos,
> > > > > _______________________________________________
> > > > > CentOS-es mailing list
> > > > > CentOS-es en centos.org
> > > > > http://lists.centos.org/mailman/listinfo/centos-es
> > > > >
> > > >
> > > > Cordial saludo.
> > > >
> > > >
> > > > Federico, para saber la ubicación primero debes saber si la maquina
> te
> > la
> > > > crearon en dispositivos de bloque o es una imagen.
> > > >
> > > > Busca en la siguiente ruta a ver si hayas un archivo con el nombre la
> > > > máquina virtual: /etc/libvirt/qemu
> > > >
> > > > Si en esa ruta no encuentras ningun archivo es posible que este en un
> > > > dispositivo de bloques, valida lo anterior con el siguiente comando y
> > si
> > > te
> > > > es posible pega la salida del mismo:
> > > >
> > > > lvs
> > > >
> > > > y tambien ejecuta los comandos vgs y df -h y pega las salidas de
> ellos
> > > para
> > > > colaborarte.
> > > >
> > > > --
> > > > Carlos R!.
> > > > _______________________________________________
> > > > CentOS-es mailing list
> > > > CentOS-es en centos.org
> > > > http://lists.centos.org/mailman/listinfo/centos-es
> > > >
> > > _______________________________________________
> > > CentOS-es mailing list
> > > CentOS-es en centos.org
> > > http://lists.centos.org/mailman/listinfo/centos-es
> > >
> >
> > Ok, eso quiere decir que la MV esta en dispositivo de bloques. Ahora en
> ese
> > listado cual es tu maquina?
> >
> > Tu maquina esta en el VG --> onapp-iem20qdroptb03
> >
> > una vez tengas identificada tu maquina en el listado que enviaste te
> > sugiero la bajes para que realices un snapshot en frio de la misma
> > empleando la siguiente instruccion:
> >
> > -  virsh shutdown "nombre_maquina_virtual"
> > Verifica que este abajo con la siguiente instrucción:
> >
> > - virsh list --all    (te la debe mostrar en estado off)
> >
> > ahora haces el snapshot de la siguiente manera:
> >
> > lvcrete -L 512M -s -n bck_"nombre_maquina_virtual
> > /dev/mapper/onapp-iem20qdroptb03
> >
> > cuando te confirme que esta creada, vuelve a subir la maquina virtual con
> > la siquiente instrucción:
> >
> > virsh start "nombre_maquina_virtual"
> >
> > ahora debes realizar el volcado del snapshot a un archivo imagen, esto se
> > hace de la siguiente manera:
> >
> > dd if=/dev/mapper/onapp-iem20qdroptb03-bck_"nombre_maquina_virtual"
> > of=/"ruta/maquina_virtual.img BS=1M
> >
> > Recomendaciones obligatorias:
> >
> > - Ten presente que el sitio donde realizaras el volcado de la maquina
> > virtual (archivo imagen) debe ser igual o superior al tamaño de la
> maquina
> > virtual.
> >
> > - Una vez termine el volcado podras trasladar el archivo .img que
> creaste a
> > partir del snapshot.
> > - Tambien deberas trasladar el archivo xml que controla tu maquina
> virtual
> > al nuevo anfitrion donde ubicaras tu maquina virtual. el archivo se
> > encuentra en /etc/libvirt/qemu, ese archivo tendras que afinarlo en el
> > nuevo anfitrión.
> >
> >
> > --
> > Carlos R!.
> > _______________________________________________
> > CentOS-es mailing list
> > CentOS-es en centos.org
> > http://lists.centos.org/mailman/listinfo/centos-es
> >
> _______________________________________________
> CentOS-es mailing list
> CentOS-es en centos.org
> http://lists.centos.org/mailman/listinfo/centos-es
>

No Federico, el cow no es el swap. Cuando realices el volcado toma el que
no lleva esa extensión (cow). Dejame y averiguo por que te crea ese archivo
con esa extensión, en los snapshot que realizo con las mismas instrucciones
no me genera ese segundo archivo.

Prueba haciendo el snapshot nuevamente pero con un tamaño mayor a 512M, por
lo menos 1024 a ver si te crea un segundo archivo con extensión cow.



-- 
Carlos R!.


Más información sobre la lista de distribución CentOS-es