domenica 23 novembre 2008

Error: The request failed because the server name could not be resolved

Questo errore solitamente appare quando si sta scercando di abilitare il plugin del update manager.
La prima cosa da fare è verificare le impostazioni del DNS.
Qualora queste fossero corrette, non si può fare altro che disinstallare il plugin updatemanager(sul client ovviamente) e reinstallarlo.
Se non dovesse funzionare nemmeno così reinstallare sia il il VIC e il plugin.

Registrare macchine in stato orphan

Questo comando serve per registrare le macchine che risultano in stato orphan o che sono state backuppate in una partizione del ESX e che non si vedono con il client vmware sia se connesso su virtual center che sul ESX fisico.

Digitare il seguente comando
vmware-cmd -s register vmfs/volumes/nomestorage/directoryvirtualmachine/nomevirtualmachine.vmx

Restartare il servizio VC su esx
service mgmt-vmware restart
Questo servizio può essere restartato anche per far si di eliminare i file .lck che altrimenti sarebbero bloccati da altri processi.

Configurare Naviagent EMC

Aprire le porte del firewall
esxcfg-firewall -o 6389,tcp,in,naviagent
Qualora si volessero usare anche le navicli bisogna aprire anche la porta out
esxcfg-firewall -o 6389,tcp,out,naviagent
Scaricare la versione linux (dalla 26 in su) e scompattarla. Lanciare il seguente comando
./ESX_install.sh naviagentcli
Qualora dovesse dare problemi di permessi nonostante l’utente root
chmod 777 ESX_install.sh
chmod 777 naviagentcli.noarch.rpm
Dopodiché rispondere yes all’alla domanda di permesso di aperture porte del firewall dell’ ESX.
Se la macchina poi dovesse disporre di più nic, creare un file agentID.txt per assicurarsi che l’agent sia indirizzato sulla NIC giusta.
Il file deve essere messo nella directory / e deve contenere solo 2 righe: hostname e l’indirizzo ip
nomeserver.miodominio.it
172.16.4.24
Andare poi ad editare il file agent.config in /etc/Navisphere/agent.config e sotto user root aggiungere 2 utenti
user system@indirizzoipSPA
user system@indirizzoipSPB
A questo punto restartare l’ host con il comando reboot appena risalito restartare il servizio naviagent con:
service naviagent restart


venerdì 21 novembre 2008

Configurare NTP setting sulla service console

La procedura seguente indica come configurare NTP nella service console.
I passi da seguire sono:

A. Configurare il corretto time zone nella service console
B. Configurare NTP daemon
C. Disabilitare il Firewall
D. Avviare NTP daemon


A. Configurare il corretto time zone nella service console

Se avete configurato correttamente il time zone durante la fase d'installazione del ESX potete saltare questo passaggio e andare direttamente al passo successivo.
Se non ne siete sicuri potete verificarlo controllando il contenuto del file /etc/sysconfig/clock. L'output dovrebbe essere simile a questo:

ZONE="Europe/Rome"
UTC=true
ARC=false

Qualora così fosse potete passare al passo successivo oppure procedere come segue.
Assegniamo il giusto time zone con il comando cp /usr/share/zoneinfo/Europe/Rome /etc/localtime

Fatto questo verifichiamo che l'output sia come quello su menzionato e procediamo con il passo B.

B. Configurare NTP daemon

Bisogna inserire nel file di configurazione del NTP (/etc/ntp.conf) il nome del/dei server NTP

ad esempio:

echo "server mioserver.miodominio.it" >> /etc/ntp.conf
echo "server 1.it.pool.ntp.org" >> /etc/ntp.conf
echo "server 0.europe.pool.ntp.org" >> /etc/ntp.conf
echo "server 2.europe.pool.ntp.org" >> /etc/ntp.conf

**** I server in queste ultime 3 righe sono server NTP pubblici presi da http://www.pool.ntp.org/zone/it

Verificare poi se il contenuto del file /etc/conf/step-tickers(questo file è utilizzato dal programma ntpdate che sincronizza l'orario per la prima volta, ad esempio quando si fa partire il servizio ntpd)sia il seguente

mioserver.miodominio.it
1.it.pool.ntp.org
0.europe.pool.ntp.org
2.europe.pool.ntp.org

Qualora non lo fosse digitare i seguenti comandi


echo "mioserver.miodominio.it" >> /etc/ntp/step-tickers
echo "1.it.pool.ntp.org" >> /etc/ntp/step-tickers
echo "0.europe.pool.ntp.org" >> /etc/ntp/step-tickers
echo "2.europe.pool.ntp.org" >> /etc/ntp/step-tickers


C. Disabilitare il Firewall
Aprire la porta del firewall del ESX in modo da poter contattare il server NTP (NB: se i server NTP sono esterni ricordarsi di aprire la porta TCP+UDP 123 sul firewall per potersi collegare all'esterno)

esxcfg-firewall -e ntpClient


D.Avviare NTP daemon

Fare partire il daemon NTP e fare in modo che il servizio parta automaticamente quando il server viene riavviato

service ntpd restart
chkconfig --level 345 ntpd on

giovedì 20 novembre 2008

ESX Host Currently Has No Management Network Redundancy Error

L'errore sopra citato si verifica dalla versione ESX 3.5 quando si attiva la funzione HA del cluster.
Questo accade se il cluster NON rileva la ridondanza della Service Console(una sola service console su una scheda fisica).
La soluzione è quella di creare una seconda service console su un altra scheda fisica.
Fare bene attenzione che le service console siano sulla stessa classe di indirizzi, altrimenti si incorrerà in un altro errore( spiegato in un altro post http://virtualpouo.blogspot.com/2008/11/incompatible-ha-network.html).
Example:

ESX1 :
Service Console: 172.16.0.1
Service Console 2: 172.16.0.3

ESX2 :
Service Console: 172.16.0.2
Service Console 2: 172.16.0.4

Configurare lo Storage Vmotion (Svmotion)

Ci sono 2 strade che si possono percorrere per configurare lo storage vmotion:

1) Remote CLI di vmware
2) Plugin di terze parti presentato al VMWORLD

Prima di procedere con una delle due strade proposte il consiglio è di leggere tutta la guida e lo specchietto a fine mail dei requirements e limitations dello SVmotion

Migrazione con Remote CLI di vmware

Scarichiamo dal sito la versione che ci interessa (o windows o linux…io l’ho installata sul mio notebook con xp) al link
http://www.vmware.com/download/vi/drivers_tools.html (c’è un campo con la dicitura VMware Infrastructure Remote CLI)
Una volta scaricato e installato la cosa più semplice da fare è quella di andare nella directory d’installazione (nel mio caso C:\Programmi\VMware\VMware VI Remote CLI\bin) e far partire lo script svmotion.pl --interactive fatto questo ci verranno chieste informazioni inerenti al nostro vc/datastore/vm etc etc…
Basta inserire i dati richiesti e...

Migrazione con plugin di terze parti

Questo metodo è ancora più semplice rispetto al precedente ma non è ancora supportato da VMware per l’ambiente di produzione(nonostante l’abbiano presentato al Vmworld! Roba da matti ).
Installare il plugin di Andrew Kutz scaricabile dal sito
http://vip-svmotion.wiki.sourceforge.net/ e connettersi al vc.
Tra i plugin installati comparirà anche lo svmotion.

Immagine

A questo punto comparirà nel menù di ogni vm (quello che si ottiene cliccando con il dx sul nome della vm)la dicitura migrate storage

Immagine

A questo punto si aprirà un’interfaccia grafica molto semplice e intuitiva…basta fare il drag and drop della vm da un datastore all’altro…et voilà…il gioco è fatto

Immagine



Requirements SVmotion
• VM con snapshot non possono essere migrate
• I dischi delle VM devo essere in persistent mode o raw device maps
• Host che ospita la VM running deve avere abbastanza risorse disponibili per un breve lasso di tempo per sostenere 2 istanze contemporaneamente e deve essere configurato correttamente per il vmotion
• Host dove risiede la VM running deve avere ovviamente accesso al source e target datastore
• Massimo 4 migrazioni contemporanee

Incompatible HA Network

HA agent on in cluster in has an error Incompatible HA Networks:
Cluster has network(s) missing on host: x.x.x.x
Consider using the Advanced Cluster Settings das.allowNetwork to control network usage.

Questo errore è presente dalla versione 2.5 del virtualcenter ed è dato dal check di compatibilità delle network virtuali nel cluster, implementato per aumentare l'affidabilità del cluster stesso.
Di solito avviene quando i nodi del cluster contengono reti incompatibili come l'esempio che segue:

ESX1
service console 1 (172.16.0.1/24)
service console 2 (192.100.0.1/24)

ESX2
service console 1 (172.16.0.2/24)
service console 2 (198.168.0.1/24)

Come si può ben vedere la service console 2 degli host è incompatibile quindi non passa il check.
Per ovviare a questo problema bisogna seguire i seguenti punti:

1) Collegarsi come utente administrator al VC e disabilitare la funzione HA cliccare ok e attendere che l'operazione sia andata a buon fine.
2) Guardare le configurazioni del networking di OGNI host presente nel cluster e appuntarsi da qualche parte i nomi dei portgroup in comune (ad esempio Service Console se l'avete lasciato di default).
3) Riabilitare la funzione HA nel edit settings del cluster e cliccare sul pulsante advanced options(nella stessa schermata di Vmware HA).
4) Aggiungere la stringa das.allowNetworkX dove x indica un numero sequenziale(tra 1 e 10) come valore del portgroup e in value il nome del portgroup in comune che ci siamo appuntati prima.

Immagine

Si possono aggiungere più portgroup se richiesti

Immagine

5) Cliccare ok e finire la configurazione del cluster.

Maggiori info si possono trarre dalle seguenti KB di Vmware

http://kb.vmware.com/kb/1006606
http://kb.vmware.com/kb/1006541