Update dos nós
Description
Comecamos a fazer a update dos nos para solucionar o problema da montagem nfs dos nós da fase III. Para isso devemos parar a producao dos nós. Escolhemos primeiramente parar, um dia antes, os nós de 55 a 67.
[mdias@node57 ~]$ vim /scratch/condor/condor_config.local
START=False
Depois
[root@spgrid ~]# for i in 55 56 57 58 59 60 61 62 63 64 65 66 67; do ssh node$i /usr/local/opt/OSG/condor/sbin/condor_reconfig; done
ou mais facilmente
[root@spgrid mdias]# for i in 78 79 80; do ssh node$i ' echo "START = False" > /scratch/condor/condor_config.local; /usr/local/opt/OSG/condor/sbin/condor_reconfig ';done
Isso fara que novos jobs nao sejam distribuidos para esse node. Assim que ele nao estiver mais processando devemos proceder no nó:
#!/bin/bash
for ((i=58; i<64; i++))
do
echo node$i;
ssh 192.168.1.$i 'rpm -Uvh ftp://ftp.scientificlinux.org/linux/scientific/4x/i386/misc/RPMS/yum-conf-latest.SL.noarch.rpm; yum -y clean all; yum -y update yum; yum -y update ; cp -f /raid0/fstab /etc/fstab;rm -rf /OSG/*;sed -i 1d /scratch/condor/condor_config.local; reboot'
done;
- Note o código que copia o /raid0/fstab para o /etc/fstab e remove o /OSG. Ele serviu para consertar um problema sobre a montagem nfs dos nós. Só foi necessária para este caso. O /raid0/fstab segue abaixo
# This file is edited by fstab-sync - see 'man fstab-sync' for details
/dev/sda2 / ext3 defaults 1 1
/dev/sda1 /boot ext3 defaults 1 2
none /dev/pts devpts gid=5,mode=620 0 0
none /proc proc defaults 0 0
none /dev/shm tmpfs defaults 0 0
/dev/sda7 /scratch ext3 defaults 1 2
/dev/sda6 /tmp ext3 defaults 1 2
/dev/sda5 /var ext3 defaults 1 2
/dev/sda3 swap swap defaults 0 0
spg00:/usr/local/opt/OSG /OSG nfs defaults 0 0
spg00:/usr/local/home /home nfs defaults 0 0
storage:/raid0 /raid0 nfs defaults 0 0
/dev/hdc /media/cdrom auto pamconsole,fscontext=system_u:object_r:removable_t,exec,noauto,managed 0 0
/dev/fd0 /media/floppy1 auto pamconsole,fscontext=system_u:object_r:removable_t,exec,noauto,managed 0 0
- Iniciar manualmente o servico do condor com "service condor start".
Importante !
O script normal é descrito abaixo
#!/bin/bash
for ((i=52; i<53; i++))
do
echo node$i;
ssh 192.168.1.$i 'rpm -Uvh ftp://ftp.scientificlinux.org/linux/scientific/4x/i386/misc/RPMS/yum-conf-latest.SL.noarch.rpm; yum -y clean all; yum -y update yum; yum -y update ; sed -i 1d /scratch/condor/condor_config.local; reboot'
done;
Mensagem do Lietti sobre a update
Ontem andei fazendo update em alguns nodes e reparei que saiu uma nova versao de kernel, a 2.6.9-55.0.12.ELsmp. Vamos
instalar essa ai nos nodes.
O que fiz ontem em **TODOS** os nodes (menos no node09 que esta com harddisk pifado) :
* instalei o pacote yum-conf-latest.SL.noarch.rpm
* yum clean all e yum update yum
NODES COM UPDATE JA FEITO:
* Todos os nodes da fase3 estao com kernel 2.6.9-55.0.12.ELsmp
* Os nodes 53 e 54 da fase2 estao com kernel 2.6.9-55.0.12.ELsmp
* Os nodes 01, 02, 03, 04, 21 e 22 da fsae1 estao com kernel 2.6.9-55.0.12.ELsmp
OBSERVACOES:
* Depois do update do SL4.4 para SL4.5, o primeiro reboot nao funciona. As maquinas devem ser ligadas localmente na mao.
* Nos nodes da fase1, o arquivo /boot/grub/grub.conf nao e atualizado corretamente. Temos corrigi-lo para o boot do
2.6.9-55.0.12.ELsmp
NODES AINDA PARA SER FEITO UPDATE:
Copiei os pacotes para atualizacao em
/raud0/FASE#/sl-errata(ou sl-base)/packages .
Para atualizar mais rapidamente os nodes05 a 18 da fase1 e nodes23 a 52 da fase2 , antes de dar "yum update", copie os
pacotes do
/raid0/FASE# (#=1,2)/sl-errata(ou sl-base)/packages
para
/var/cache/yum/sl-errata(ou sl-base)/packages
de cada node a ser atualizado. Isso vai economizar muito tempo, pois ~500MB de pacotes nao precisarao ser baixados nos
updates de cada no.
Updates
Consertar os logs dos nós que tem o nobreak instalado (1, 10, 23, 30 ,39, 47, 55, 63 ,71 e 79).
Entrando um por um:
[root@node79 ~]# sed -i '$d' /etc/inittab ; telinit q;exit
por estar na última linha.
Fulano em dd/mm/aaaa
Coloca o que fez.
Ciclano em dd/mm/aaaa
Mais comentarios
--
MarcoAndreFerreiraDias - 15 Oct 2007