Voting Disk que presentaba problemas en un cliente , el cual poseía un RAC de 4 nodos en 10gr2, el problema era que uno de los nodos sufría problemas de Eviction , o sea, el GSSD lo botaba del Cluster.
Las máquinas involucradas..
nodo1 168.10.10.1
nodo2 168.10.10.2
nodo3 168.10.10.3
nodo4 168.10.10.4
1.- Comenzamos con el respaldo físico del voting disk
Desde nodo1 (168.10.10.1)
Lo consultamos, para saber donde está
nodo1> crsctl query css votedisk
0. 0 /dev/rhdisk3
located 1 votedisk(s).
nodo1>
Y se respalda fisicamente (esto no esta soportado en 11gr2)
nodo1> dd if=/dev/rhdisk3 of=voting_resp_10-09-2010.dbf
nodo1> ls -ltr
total 2050816
-rw-r--r-- 1 oracle oinstall 524943360 Sep 10 01:05 voting_resp_10-09-2010.dbf
nodo1>
nodo1> pwd
/home/oracle
nodo1>
2.- Se añade el vote disk con root, pero indica error dado que se encuentra el clusterware arriba, hay documentación que dice que se puede hacer con el comando force, pero esto no se recomienda, dado que se podrían presentar problemas de corrupción.
bash-2.05b# /u1/app/oracle/product/10.2.0/bin/crsctl add css votedisk /dev/rhdisk48
Cluster is not in a ready state for online disk addition
3.- Se bajan las instancias Oracle con usuario oracle
crs_stop -all
4.- Se verifica el estado del crs en cada nodo (se debe ejecutar el comando en cada máquina)
[nodo1]# /u1/app/oracle/product/10.2.0/bin/crsctl check crs
CSS appears healthy
CRS appears healthy
EVM appears healthy
Como se visualiza UP, hay que bajarlo.
5.- Se baja el clusterware en todos los nodos (este comando se debe ejecutar en todos los nodos)
[nodo1]# /u1/app/oracle/product/10.2.0/bin/crsctl stop crs
Stopping resources.
Successfully stopped CRS resources
Stopping CSSD.
Shutting down CSS daemon.
Shutdown request successfully issued.
6.- Se añade el voting disk con la opción force , dado que se encuentra el CRS abajo. Esta tarea puede ser realizada desde cualquier nodo
[nodo2]# /u1/app/oracle/product/10.2.0/bin/crsctl add css votedisk /dev/rhdisk48 -force
Now formatting voting disk: /dev/rhdisk48
successful addition of votedisk /dev/rhdisk48.
[nodo2]#
7.- Verificamos los voting disk existentes, debiesen aparecer el nuevo y el antiguo
[nodo2]# /u1/app/oracle/product/10.2.0/bin/crsctl query css votedisk
0. 0 /dev/rhdisk3
1. 0 /dev/rhdisk48 --> Nuevo
located 2 votedisk(s).
8.- Borramos el voting disk anterior con la opción force
[nodo2]# /u1/app/oracle/product/10.2.0/bin/crsctl delete css votedisk /dev/rhdisk3 -force
successful deletion of votedisk /dev/rhdisk3.
9.- Consultamos nuevamente el votedisk
[nodo2]# /u1/app/oracle/product/10.2.0/bin/crsctl query css votedisk
0. 0 /dev/rhdisk48
located 1 votedisk(s).
10.- Levantamos clusterware en todos los nodos (se debe ejecutar el mismo comando en todos los nodos)
[nodo2]# /u1/app/oracle/product/10.2.0/bin/crsctl start crs
Attempting to start CRS stack
The CRS stack will be started shortly
11.- Verificamos el clusterware
/u1/app/oracle/product/10.2.0/bin/crsctl check crs
CSS appears healthy
CRS appears healthy
EVM appears healthy
12.- Y procedemos a levantar todos los componentes y servicios de nuestro clusterware
/u1/app/oracle/product/10.2.0/bin/crs_start -all
Suscribirse a:
Enviar comentarios (Atom)
No hay comentarios:
Publicar un comentario