[CentOS-es] Consulta qemu-KVM
Federico Don
federico.don13 en gmail.com
Jue Jul 12 12:15:39 EDT 2012
Carlos, me sigue creando los dos archivos con 1024M de tamaño.
Mi consulta sobre el swap es que en el proceso figuran dos disco, uno debe
ser el disco y el otro el swap:
/dev/onapp-iem20qdroptb03/pal1y3rnshyidn
/dev/onapp-iem20qdroptb03/bnggfsp9c31rql
Yo estoy realizando el snapshot de cada uno y por cada uno crea dos
archivos:
brw-rw---- 1 root disk 253, 10 jul 12 13:11 onapp--iem20qdroptb03-bck_export
brw-rw---- 1 root disk 253, 22 jul 12 13:11
onapp--iem20qdroptb03-bck_export_2
brw-rw---- 1 root disk 253, 26 jul 12 13:11
onapp--iem20qdroptb03-bck_export_2-cow
brw-rw---- 1 root disk 253, 21 jul 12 13:11
onapp--iem20qdroptb03-bck_export-cow
brw-rw---- 1 root disk 253, 27 jul 12 13:11 onapp--iem20qdroptb03-bkp_VM_1
brw-rw---- 1 root disk 253, 28 jul 12 13:11
onapp--iem20qdroptb03-bkp_VM_1-cow
brw-rw---- 1 root disk 253, 29 jul 12 13:11 onapp--iem20qdroptb03-bkp_VM_2
brw-rw---- 1 root disk 253, 30 jul 12 13:11
onapp--iem20qdroptb03-bkp_VM_2-cow
Otra consulta, como puedo eliminar los snapshot ya creados?
Muchas gracias,
El 12 de julio de 2012 12:37, Carlos Restrepo <restrcarlos en gmail.com>escribió:
> El 12 de julio de 2012 10:06, Federico Don <federico.don13 en gmail.com
> >escribió:
>
> > Carlos, gracias una vez mas, te cuento lo que estoy haciendo, en el
> > hipervisor solo deje corriendo una MV la cual en el proceso se puede ver:
> >
> > /usr/libexec/qemu-kvm -S -M rhel5.4.0 -m 4096 -smp
> > 1,sockets=1,cores=1,threads=1 -name faxfssq4woowe2 -uuid
> > 3266131e-19ef-1b75-1629-638256e4ab7b -monitor
> > unix:/var/lib/libvirt/qemu/faxfssq4woowe2.monitor,server,nowait
> > -no-kvm-pit-reinjection -boot a -drive
> > file=/onapp/tools/grub.img,if=floppy,unit=0,readonly=on,format=raw -drive
> >
> >
> file=/dev/onapp-iem20qdroptb03/bnggfsp9c31rql,if=ide,bus=0,unit=0,format=raw
> > -drive
> >
> >
> file=/dev/onapp-iem20qdroptb03/pal1y3rnshyidn,if=ide,bus=0,unit=1,format=raw
> > -net nic,macaddr=00:16:3e:85:f5:69,vlan=0,model=e1000 -net
> tap,fd=18,vlan=0
> > -serial none -parallel none -usb -usbdevice tablet -vnc 0.0.0.0:0
> ,password
> > -vga cirrus -balloon virtio
> >
> > Verifico el nombre de la MV:
> >
> > # virsh list --all
> > Id Nombre Estado
> > ----------------------------------
> > 12 faxfssq4woowe2 ejecutando
> >
> > Si ejecuto la instrucción "virsh shutdown faxfssq4woowe2":
> >
> > # virsh shutdown faxfssq4woowe2
> > El dominio faxfssq4woowe2 está siendo apagado
> >
> > Pero nunca se apaga!
> > Puedo apagar la MV desde una consola
> >
> > El disco de mi maquina virtual es el que se ve en el
> > proceso /dev/onapp-iem20qdroptb03/bnggfsp9c31rql
> > y /dev/onapp-iem20qdroptb03/pal1y3rnshyidn, supongo que uno es el disco y
> > el otro es el swap, para crear el snapshot realice lo siguiente:
> >
> > lvcreate -L 512M -s -n bck_export
> /dev/onapp-iem20qdroptb03/bnggfsp9c31rql
> >
> > y en /dev/mapper/ encuentro lo siguiente:
> >
> > brw-rw---- 1 root disk 253, 10 jul 12 11:55
> > onapp--iem20qdroptb03-bck_export
> > brw-rw---- 1 root disk 253, 21 jul 12 11:55
> > onapp--iem20qdroptb03-bck_export-cow
> >
> > Luego realice el snapshot del otro disco:
> >
> > lvcreate -L 512M -s -n bck_export_2
> > /dev/onapp-iem20qdroptb03/pal1y3rnshyidn
> >
> > y en /dev/mapper/ apareció lo siguiente:
> >
> > brw-rw---- 1 root disk 253, 22 jul 12 12:01
> > onapp--iem20qdroptb03-bck_export_2
> > brw-rw---- 1 root disk 253, 26 jul 12 12:01
> > onapp--iem20qdroptb03-bck_export_2-cow
> >
> > La consulta que te quería realizar es, cuando quiera realizar el volcado
> de
> > los snapshot a un archivo de imagen, cual debería utilizar? como
> identifico
> > cual es el disco y cual es el swap?
> >
> > Gracias una vez mas por tu tiempo y saludos.
> >
> >
> >
> > El 11 de julio de 2012 23:53, Carlos Restrepo <restrcarlos en gmail.com
> > >escribió:
> >
> > > El 11 de julio de 2012 20:35, Federico Don <federico.don13 en gmail.com
> > > >escribió:
> > >
> > > > Muchas gracias Carlos por tu respuesta, te paso lo pedido:
> > > >
> > > > # cd /etc/libvirt/qemu
> > > > # ls
> > > > networks
> > > >
> > > > # lvs
> > > > /dev/sdb: read failed after 0 of 4096 at 0: Error de entrada/salida
> > > > /dev/sdc: read failed after 0 of 4096 at 0: Error de entrada/salida
> > > > /dev/sdf: read failed after 0 of 4096 at 0: Error de entrada/salida
> > > > /dev/sdg: read failed after 0 of 4096 at 0: Error de entrada/salida
> > > > LV VG Attr LSize Origin Snap%
> Move
> > > Log
> > > > Copy% Convert
> > > > bnggfsp9c31rql onapp-iem20qdroptb03 -wi-ao 50,00G
> > > >
> > > > ckvj9retkzbtvs onapp-iem20qdroptb03 -wi-a- 150,00G
> > > >
> > > > de72lrn08efdj1 onapp-iem20qdroptb03 -wi-a- 12,00G
> > > >
> > > > e2ncwc1d6eso09 onapp-iem20qdroptb03 -wi--- 2,00G
> > > >
> > > > egluyk8h74tfr2 onapp-iem20qdroptb03 -wi--- 8,00G
> > > >
> > > > ejmpm7ywsy51xt onapp-iem20qdroptb03 -wi-a- 4,00G
> > > >
> > > > f0alz5l70t4gol onapp-iem20qdroptb03 -wi-ao 200,00G
> > > >
> > > > felwpybp84nse1 onapp-iem20qdroptb03 -wi--- 20,00G
> > > >
> > > > frzo43jzwrtlvc onapp-iem20qdroptb03 -wi-ao 100,00G
> > > >
> > > > g0ie06va7zhysi onapp-iem20qdroptb03 -wi-a- 4,00G
> > > >
> > > > g2jfdgn26dslev onapp-iem20qdroptb03 -wi-a- 100,00G
> > > >
> > > > ghlodviapupakd onapp-iem20qdroptb03 -wi--- 6,00G
> > > >
> > > > gocvb8cdca11nk onapp-iem20qdroptb03 -wi-a- 40,00G
> > > >
> > > > h025lmrb2s72ds onapp-iem20qdroptb03 -wi--- 30,00G
> > > >
> > > > hclohf4u3iklmy onapp-iem20qdroptb03 -wi-a- 8,00G
> > > >
> > > > htox3xluu850rh onapp-iem20qdroptb03 -wi-a- 50,00G
> > > >
> > > > ikw5rphgnx0795 onapp-iem20qdroptb03 -wi--- 5,00G
> > > >
> > > > k8f2s5dwqecong onapp-iem20qdroptb03 -wi-a- 50,00G
> > > >
> > > > kq1zt63vjzpap8 onapp-iem20qdroptb03 -wi-a- 40,00G
> > > >
> > > > l0kkyfe4if2aom onapp-iem20qdroptb03 -wi-a- 4,00G
> > > >
> > > > l4x5ogvc3s8khk onapp-iem20qdroptb03 -wi--- 5,00G
> > > >
> > > > nors374zt6xhzs onapp-iem20qdroptb03 -wi-a- 4,00G
> > > >
> > > > o4fmn261j5om2s onapp-iem20qdroptb03 -wi--- 4,00G
> > > >
> > > > ojzxd63208q7dy onapp-iem20qdroptb03 -wi--- 16,00G
> > > >
> > > > ow8y3eczaie1if onapp-iem20qdroptb03 -wi--- 8,00G
> > > >
> > > > oyrhrpsx1joyuu onapp-iem20qdroptb03 -wi--- 50,00G
> > > >
> > > > pal1y3rnshyidn onapp-iem20qdroptb03 -wi-ao 8,00G
> > > >
> > > > pgayu9dd4251o1 onapp-iem20qdroptb03 -wi-a- 200,00G
> > > >
> > > > plf0s4vu0wa2ef onapp-iem20qdroptb03 -wi--- 20,00G
> > > >
> > > > pzc7y79m6x59qj onapp-iem20qdroptb03 -wi--- 40,00G
> > > >
> > > > qbi5e2omke27kj onapp-iem20qdroptb03 -wi-a- 20,00G
> > > >
> > > > u3e0eyuq9ci9q8 onapp-iem20qdroptb03 -wi-a- 16,00G
> > > >
> > > > uvpnx7upnrss6n onapp-iem20qdroptb03 -wi--- 150,00G
> > > >
> > > > vma5hv37arfbwz onapp-iem20qdroptb03 -wi-a- 40,00G
> > > >
> > > > we2kni39jq8y37 onapp-iem20qdroptb03 -wi--- 40,00G
> > > >
> > > > wv5ulhzgf18s2t onapp-iem20qdroptb03 -wi--- 10,00G
> > > >
> > > > # vgs
> > > > /dev/sdb: read failed after 0 of 4096 at 0: Error de entrada/salida
> > > > /dev/sdc: read failed after 0 of 4096 at 0: Error de entrada/salida
> > > > /dev/sdf: read failed after 0 of 4096 at 0: Error de entrada/salida
> > > > /dev/sdg: read failed after 0 of 4096 at 0: Error de entrada/salida
> > > > VG #PV #LV #SN Attr VSize VFree
> > > > onapp-iem20qdroptb03 1 36 0 wz--n- 2,00T 533,95G
> > > > onapp-jufdxsvobzvj42 1 0 0 wz--n- 410,08G 410,08G
> > > >
> > > > # df -h
> > > > S.ficheros Tamaño Usado Disp Uso% Montado en
> > > > /dev/sda5 48G 2,8G 43G 7% /
> > > > /dev/sda1 152M 46M 99M 32% /boot
> > > > tmpfs 36G 8,0K 36G 1% /dev/shm
> > > > 192.168.0.229:/backup/onappadmin
> > > > 9,0T 6,2T 2,4T 72% /onapp/backups
> > > >
> > > > Gracias nuevamente y espero tus comentarios,
> > > >
> > > > Saludos,
> > > >
> > > > El 11 de julio de 2012 19:37, Carlos Restrepo <restrcarlos en gmail.com
> > > > >escribió:
> > > >
> > > > > El 11 de julio de 2012 15:35, Federico Don <
> federico.don13 en gmail.com
> > > > > >escribió:
> > > > >
> > > > > > Buenas, tengo la siguiente consulta y estaba en busca de alguien
> > que
> > > > > > conozca de qemu-kvm y me pueda ayudar, tengo corriendo una vm de
> la
> > > > gente
> > > > > > de http://onapp.com/, básicamente es un centos corriendo
> qemu-kvm,
> > > en
> > > > > los
> > > > > > procesos puedo ver lo siguiente:
> > > > > >
> > > > > > /usr/libexec/qemu-kvm -S -M rhel5.4.0 -m 4096 -smp
> > > > > > 2,sockets=2,cores=1,threads=1 -name xjkwn2qs8m846g -uuid
> > > > > > 042e0c80-a511-85b1-e745-c75b98537d0a -monitor
> > > > > > unix:/var/lib/libvirt/qemu/xjkwn2qs8m846g.monitor,server,nowait
> > > > > > -no-kvm-pit-reinjection -boot c -drive
> > > > > >
> > > > > >
> > > > >
> > > >
> > >
> >
> file=/dev/onapp-iem20qdroptb03/frzo43jzwrtlvc,if=ide,bus=0,unit=0,boot=on,format=raw
> > > > > > -net nic,macaddr=00:16:3e:91:bc:13,vlan=0 -net tap,fd=19,vlan=0
> > > -serial
> > > > > > none -parallel none -usb -usbdevice tablet -vnc 0.0.0.0:1
> ,password
> > > > -vga
> > > > > > cirrus -balloon virtio
> > > > > > You have new mail in /var/spool/mail/root
> > > > > >
> > > > > > Mi pregunta es, de donde puedo sacar el disco de la vm en formato
> > > .img
> > > > o
> > > > > > .raw para poder importarlo en otra plataforma??
> > > > > >
> > > > > > La gente de http://onapp.com/ no me proporciona información....
> > > > > >
> > > > > > Gracias por su tiempo y colaboración!
> > > > > >
> > > > > > Saludos,
> > > > > > _______________________________________________
> > > > > > CentOS-es mailing list
> > > > > > CentOS-es en centos.org
> > > > > > http://lists.centos.org/mailman/listinfo/centos-es
> > > > > >
> > > > >
> > > > > Cordial saludo.
> > > > >
> > > > >
> > > > > Federico, para saber la ubicación primero debes saber si la maquina
> > te
> > > la
> > > > > crearon en dispositivos de bloque o es una imagen.
> > > > >
> > > > > Busca en la siguiente ruta a ver si hayas un archivo con el nombre
> la
> > > > > máquina virtual: /etc/libvirt/qemu
> > > > >
> > > > > Si en esa ruta no encuentras ningun archivo es posible que este en
> un
> > > > > dispositivo de bloques, valida lo anterior con el siguiente
> comando y
> > > si
> > > > te
> > > > > es posible pega la salida del mismo:
> > > > >
> > > > > lvs
> > > > >
> > > > > y tambien ejecuta los comandos vgs y df -h y pega las salidas de
> > ellos
> > > > para
> > > > > colaborarte.
> > > > >
> > > > > --
> > > > > Carlos R!.
> > > > > _______________________________________________
> > > > > CentOS-es mailing list
> > > > > CentOS-es en centos.org
> > > > > http://lists.centos.org/mailman/listinfo/centos-es
> > > > >
> > > > _______________________________________________
> > > > CentOS-es mailing list
> > > > CentOS-es en centos.org
> > > > http://lists.centos.org/mailman/listinfo/centos-es
> > > >
> > >
> > > Ok, eso quiere decir que la MV esta en dispositivo de bloques. Ahora en
> > ese
> > > listado cual es tu maquina?
> > >
> > > Tu maquina esta en el VG --> onapp-iem20qdroptb03
> > >
> > > una vez tengas identificada tu maquina en el listado que enviaste te
> > > sugiero la bajes para que realices un snapshot en frio de la misma
> > > empleando la siguiente instruccion:
> > >
> > > - virsh shutdown "nombre_maquina_virtual"
> > > Verifica que este abajo con la siguiente instrucción:
> > >
> > > - virsh list --all (te la debe mostrar en estado off)
> > >
> > > ahora haces el snapshot de la siguiente manera:
> > >
> > > lvcrete -L 512M -s -n bck_"nombre_maquina_virtual
> > > /dev/mapper/onapp-iem20qdroptb03
> > >
> > > cuando te confirme que esta creada, vuelve a subir la maquina virtual
> con
> > > la siquiente instrucción:
> > >
> > > virsh start "nombre_maquina_virtual"
> > >
> > > ahora debes realizar el volcado del snapshot a un archivo imagen, esto
> se
> > > hace de la siguiente manera:
> > >
> > > dd if=/dev/mapper/onapp-iem20qdroptb03-bck_"nombre_maquina_virtual"
> > > of=/"ruta/maquina_virtual.img BS=1M
> > >
> > > Recomendaciones obligatorias:
> > >
> > > - Ten presente que el sitio donde realizaras el volcado de la maquina
> > > virtual (archivo imagen) debe ser igual o superior al tamaño de la
> > maquina
> > > virtual.
> > >
> > > - Una vez termine el volcado podras trasladar el archivo .img que
> > creaste a
> > > partir del snapshot.
> > > - Tambien deberas trasladar el archivo xml que controla tu maquina
> > virtual
> > > al nuevo anfitrion donde ubicaras tu maquina virtual. el archivo se
> > > encuentra en /etc/libvirt/qemu, ese archivo tendras que afinarlo en el
> > > nuevo anfitrión.
> > >
> > >
> > > --
> > > Carlos R!.
> > > _______________________________________________
> > > CentOS-es mailing list
> > > CentOS-es en centos.org
> > > http://lists.centos.org/mailman/listinfo/centos-es
> > >
> > _______________________________________________
> > CentOS-es mailing list
> > CentOS-es en centos.org
> > http://lists.centos.org/mailman/listinfo/centos-es
> >
>
> No Federico, el cow no es el swap. Cuando realices el volcado toma el que
> no lleva esa extensión (cow). Dejame y averiguo por que te crea ese archivo
> con esa extensión, en los snapshot que realizo con las mismas instrucciones
> no me genera ese segundo archivo.
>
> Prueba haciendo el snapshot nuevamente pero con un tamaño mayor a 512M, por
> lo menos 1024 a ver si te crea un segundo archivo con extensión cow.
>
>
>
> --
> Carlos R!.
> _______________________________________________
> CentOS-es mailing list
> CentOS-es en centos.org
> http://lists.centos.org/mailman/listinfo/centos-es
>
Más información sobre la lista de distribución CentOS-es