Comecamos a fazer a update dos nos para solucionar o problema da montagem nfs dos nós da fase III. Para isso devemos parar a producao dos nós. Escolhemos primeiramente parar, um dia antes, os nós de 55 a 67.
[mdias@node57 ~]$ vim /scratch/condor/condor_config.local START=FalseDepois
[root@spgrid ~]# for i in 55 56 57 58 59 60 61 62 63 64 65 66 67; do ssh node$i /usr/local/opt/OSG/condor/sbin/condor_reconfig; doneou mais facilmente
[root@spgrid mdias]# for i in 78 79 80; do ssh node$i ' echo "START = False" > /scratch/condor/condor_config.local; /usr/local/opt/OSG/condor/sbin/condor_reconfig ';doneIsso fara que novos jobs nao sejam distribuidos para esse node. Assim que ele nao estiver mais processando devemos proceder no nó:
#!/bin/bash for ((i=58; i<64; i++)) do echo node$i; ssh 192.168.1.$i 'rpm -Uvh ftp://ftp.scientificlinux.org/linux/scientific/4x/i386/misc/RPMS/yum-conf-latest.SL.noarch.rpm; yum -y clean all; yum -y update yum; yum -y update ; cp -f /raid0/fstab /etc/fstab;rm -rf /OSG/*;sed -i 1d /scratch/condor/condor_config.local; reboot' done;
# This file is edited by fstab-sync - see 'man fstab-sync' for details /dev/sda2 / ext3 defaults 1 1 /dev/sda1 /boot ext3 defaults 1 2 none /dev/pts devpts gid=5,mode=620 0 0 none /proc proc defaults 0 0 none /dev/shm tmpfs defaults 0 0 /dev/sda7 /scratch ext3 defaults 1 2 /dev/sda6 /tmp ext3 defaults 1 2 /dev/sda5 /var ext3 defaults 1 2 /dev/sda3 swap swap defaults 0 0 spg00:/usr/local/opt/OSG /OSG nfs defaults 0 0 spg00:/usr/local/home /home nfs defaults 0 0 storage:/raid0 /raid0 nfs defaults 0 0 /dev/hdc /media/cdrom auto pamconsole,fscontext=system_u:object_r:removable_t,exec,noauto,managed 0 0 /dev/fd0 /media/floppy1 auto pamconsole,fscontext=system_u:object_r:removable_t,exec,noauto,managed 0 0
#!/bin/bash for ((i=52; i<53; i++)) do echo node$i; ssh 192.168.1.$i 'rpm -Uvh ftp://ftp.scientificlinux.org/linux/scientific/4x/i386/misc/RPMS/yum-conf-latest.SL.noarch.rpm; yum -y clean all; yum -y update yum; yum -y update ; sed -i 1d /scratch/condor/condor_config.local; reboot' done;
Ontem andei fazendo update em alguns nodes e reparei que saiu uma nova versao de kernel, a 2.6.9-55.0.12.ELsmp. Vamos instalar essa ai nos nodes. O que fiz ontem em **TODOS** os nodes (menos no node09 que esta com harddisk pifado) : * instalei o pacote yum-conf-latest.SL.noarch.rpm * yum clean all e yum update yum NODES COM UPDATE JA FEITO: * Todos os nodes da fase3 estao com kernel 2.6.9-55.0.12.ELsmp * Os nodes 53 e 54 da fase2 estao com kernel 2.6.9-55.0.12.ELsmp * Os nodes 01, 02, 03, 04, 21 e 22 da fsae1 estao com kernel 2.6.9-55.0.12.ELsmp OBSERVACOES: * Depois do update do SL4.4 para SL4.5, o primeiro reboot nao funciona. As maquinas devem ser ligadas localmente na mao. * Nos nodes da fase1, o arquivo /boot/grub/grub.conf nao e atualizado corretamente. Temos corrigi-lo para o boot do 2.6.9-55.0.12.ELsmp NODES AINDA PARA SER FEITO UPDATE: Copiei os pacotes para atualizacao em /raud0/FASE#/sl-errata(ou sl-base)/packages . Para atualizar mais rapidamente os nodes05 a 18 da fase1 e nodes23 a 52 da fase2 , antes de dar "yum update", copie os pacotes do /raid0/FASE# (#=1,2)/sl-errata(ou sl-base)/packages para /var/cache/yum/sl-errata(ou sl-base)/packages de cada node a ser atualizado. Isso vai economizar muito tempo, pois ~500MB de pacotes nao precisarao ser baixados nos updates de cada no.
Consertar os logs dos nós que tem o nobreak instalado (1, 10, 23, 30 ,39, 47, 55, 63 ,71 e 79). Entrando um por um:
[root@node79 ~]# sed -i '$d' /etc/inittab ; telinit q;exitpor estar na última linha.
-- MarcoAndreFerreiraDias - 15 Oct 2007
antalya escort bursa escort eskisehir escort istanbul escort izmir escort