Linux sui sistemi dell’Università di
Palermo
Massimo Tartamella [[email protected]]
Palermo – 22 e 23 novembre 2002
Indice Cronologia degli eventi rilevanti Infrastruttura della rete universitaria I Server di rete Il progetto GARR-B per l’Università di
Palermo Firewall, IDS, … Open Mosix: cluster per il calcolo distribuito LVS (Linux Virtual Server): cluster per il
bilanciamento dei servizi di rete
Cronologia degli eventi rilevanti
Approccio a Linux e progetto di una rete metropolitana e geografica finanziata dal MURST
Febbraio 2000: “Sviluppo della rete nazionale della ricerca (rete GARR-B)”: potenziamento reti regionali (18 milioni di Euro) Formazione specialisti di rete (2 milioni di Euro)
Dicembre 2000: migrazione dei servizi web, posta elettronica e autenticazione RADIUS per i 90 accessi analogici/ISDN
Gennaio 2001: implementazione di un Log Server e MRTG server Giugno 2001: Server Linux distribuiti con funzioni di file server con SAMBA e
proxy server con Squid Ottobre 2001: backup centralizzati con rsync, mirrordir, wget, … Febbraio 2002: implementazione di Firewall con Iptables Giugno 2002: implementazione di antivirus mail server Luglio 2002: sistemi IDS Agosto 2002: avvio formazione specialisti di rete (12 allievi + tutor)
- Cluster MOSIX, LVS e programmazione SQL/PHP Novembre 2002: installazione del mainframe IBM Z800 con sistema operativo
Z/VM e Linux Novembre/Dicembre 2002: installazioni ponti laser, nodi ATM, switch/router a
1000 Mbps, 25 server di rete biprocessore, firewall, ids e log server
Infrastruttura della rete universitaria
Infrastruttura di rete attualeParco d’Orleans, Ist. Di Fisica (c/o Oss. Astr.),Ist. Di Radiologia (Policlinico), Rettorato e viaArchirafi
2 link a 1000 Mbps5 link a 100 Mbps via ponti ottici (tecnologia laser) 15 link a 11 Mbps via radio frequenza a 2,4 GHz25 Link a 100 Mbps
Tecnologia di rete adottata Fast Ethernet (100 Mbps) Gigabit Ethernet (1Gbps) IEEE 802.11b, wireless ethernet (11 Mbps)
Infrastruttura di rete a breve
Parco d’Orleans, Ist. Di Fisica (c/o Oss. Astr.), Ist. Di Radiologia (Policlinico), Rettorato e via Archirafi
25 Link a 1000 Mbps5 link a 155 Mbps via ponti ottici15 link a 11 Mbps via radio a 2,4 GHz
Tecnologie di rete da adottare Gigabit Ethernet (1Gbps) ATM (155 Mbps) Fast Ethernet (100 Mbps) IEEE 802.11b, wireless Ethernet (11 Mbps)
Nuovi apparati di rete N. 1 Cisco 7606 (router di frontiera): ATM e Gigabit Ethernet N. 1 Cisco Catalyst 6509 (switch router di campus): ATM e Gigabit Ethernet N.25 Cisco Catalyst 3550 (switch router di periferia): Gigabit e Fast Ethernet N.5 Alcatel OMNI-5WX-PLUS:ATM e Fast Ethernet
Altre connessioni
HDSL Wind: 11 link HDSL Telecom: 5 Link ADSL Telecom: 20 link CDN Telecom: 40 link Accessi analogici/ISDN: 90 ATM Telecom a 28 Mbps: accesso alla rete GARR-B
Server di rete
Server di rete attualmente gestiti dal Centro Universitario di Calcolon. 3 server con CPU ALPHA
Server Oracle per procedura Contabilità (Tru64) Server Oracle per procedura Stipendi (Tru64) Server Oracle per sistema Aleph (Tru64)
n. 1 server SPARC Server SilverPlatter (Solaris)
n. 29 server con CPU INTEL (Red Hat Linux) Servizi di web server, mail server, proxy, dns, dhcp
server, nfs server, ftp server, log server, mrtg server, samba server, appleshare, firewall, IDS
Server di rete in arrivo al Centro Universitario di Calcolon. 20 server HP/COMPAQ ML530 2 GB DDR SDRAM 2 processori Intel Xeon MP 2.4 GHz 512Kb Cache 2 schede di rete Ethernet 10/100/1000Mbps 3 hd 18GB in RAIDn. 5 server HP/COMPAQ DL580, unità da rack 2 GB DDR SDRAM 2 processori Intel Xeon MP 1.6GHz 1Mbyte Cache 2 schede di rete Ethernet 10/100/1000Mbps 3 hd 18GB in RAIDn. 1 SAN (Storage Area Network) HP/COMPAQ MA8000 da
rack 1 TB di spazio disco complessivo da utilizzare in RAID Supporto x Linuxn. 1 Armadio rack HPCOMPAQ Rack 10000 da 42 HE con
switch e monitor flat panel 15”
IBM Z800
Configurazione dell’IBM Z800
2
z/Architecture: 64-bit a 1000 MHz 1 way Model A01 (CPU Tradizionale) 1 Added IFL (CPU dedicata a Linux) 8 GB di RAM 12 canali ESCON attivi 4 porte ethernet 10/100 Mbps Parallel Channel Attached Using 9034-001 Può gestire fino a 15 partizioni logiche (PRSM) E’ una soluzione basata sul sistema operativo zVM
420 GB effettivi in RAID 5 di spazio disco utilizzabili in SAN (ESS 2105)
Z800 Applications Architecture
3
Linux
Traditional CPU
TCP/IP
SNA Ntwrk
SNA Ctrl
SegreteriaStudenti
VSEOther
RSCS
AFP Srv
FTP/NFS Srv
New Environment - IFL
TN3270 Srv
SNA Srv TCP/IP Stack
SNA Printers
TCP/IP Intranet
TCP/IP Stack and Gateway
Linux Linux
Virtual LAN or IUCV
Hypersocket
TCP/IP Ext
TCP/IP
AFP Printers
Linux
IBM Z800 System
IEEE 802.3
zVM 4.3 zVM 4.3
ESCON
ESCON
OSAOSAOSAOSA
SNA Terminals
Un tool per lo storage consolidation
4
Linux
Traditional CPU
TCP/IP
SNA Ntwrk
SNA Ctrl
SegreteriaStudenti
VSEOther
RSCS
AFP Srv
FTP/NFS Srv
New Environment - IFL
TN3270 Srv
SNA Srv TCP/IP Stack
SNA Printers
TCP/IP Intranet
TCP/IP Stack and Gateway
Linux Linux
Virtual LAN or IUCV
Hypersocket
TCP/IP ExtTCP/IP
AFP Printers
Linux
IBM Z800 System
IEEE 802.3
zVM 4.3 zVM 4.3
ESCON
ESCON
OSAOSAOSAOSA
SNA Terminals
ESS IBM 2105
FiberChannel
Escon
SCSI
(SOD)
Progetto GARR-B per l’Università di Palermo
Schema delle connessioni via ponti ottici (in tecnologia laser)
Centro Univeritario di CalcoloC.U.C.(Ingegneria DIE)
Fibra ottica multimodale 62,5/125
A.O.U.P.G.Radiologia
Dip.to di Fisica(Os.rio Ast.co)
Dipartimento diMatematica
Palazzo MarinaRettorato
Rete Parco D’ORLEANS
Gigabit!
Collegamento con le sedi esterne
HDSL WindHDSL TelecomADSL Telecom
Firewall, IDS, …
OpenMOSIX: cluster per il calcolo distribuito
Cos’è OpenMOSIX ?Descrizione
Openmosix è un sistema open source utilizzabile in ambito scientifico per la realizzazione di cluster che sfrutta il load-balancing in ambienti x86. E’ possibile con questo sistema, realizzare calcolatori virtuali con elevata potenza di calcolo, utilizzando risorse, CPU e RAM, di una rete di computer.
URLhttp://www.mosix.org
Introduzione a OpenMOSIX
Modalità di avvio della Farm La farm è costituita da una serie di
nodi linux basati tecnologia x86 connessi attraverso LAN a 100/1000Mbit
Livello di Implementazione Linux kernel
Architettura di OpenMOSIX network
L’utente connesso e le applicazioni vedono l’intero cluster come un unico sistema locale
migrazione dei processiOgni processo d’utente,può migrare su ogni nodo disponibile in modo del tutto trasparente in qualunque istante
load balancingViene effettuato un controllo continuo in rete per ridurre al minimo le differenze di carico tra i nodi e migrare dinamicamente i processi tra i nodi con carico minore (sulla base delle variazioni del carico dei nodi, velocità di esecuzione dei processi, numero dei nodi in rete, ..)
memory sharingViene presa una decisione sul processo da migrare sulla base della memoria disponibile sugli altri nodi e viene evitato l’utilizzo della swap memory
Kernel communicationÈ sviluppato per ridurre il sovraccarico delle comunicazioni interne del kernel e utilizza un protocollo veloce e affidabile
Controllo decentralizzato e AutonomiaOgni nodo e’ capace di operare indipendentemente dagli altri
Una idea sull’utilizzo di OpenMOSIX
Nodi Chiavi Ora inizio Ora fine In cluster Durata (h:m:s)
8 100 13:54:13 13:56:07 Yes 1:54
1 100 13:59:48 14:08:38 No 8:50
8 1000 14:12:54 14:30:19 Yes 17:25
1 1000 14:33:37 15:30:08 No 56:31
8 10000 16:06:44 18:57:15 Yes 2:50:31
1 10000 / / No /
16 1000 11:49:30 12:11:58 Yes 22:28
16 10000 12:19:47 16:15:10 Yes 3:55:23
I test sono stati effettuati generando contemporaneamente una serie di chiavi crittate su un nodo del Cluster
Progetto per l’integrazione
di OpenMOSIX nelleAule Didattiche
Progetto per Cluster Scientifico
Gigabit
GigabitGigabit
Gigabit
Facoltà di Lettere Aula Tortorici
Aula F 100Facoltà di Economia e Commercio
20 Server12 PC Aula Corsi
40 Macchine
76 Macchine:n°28 PIV 256MB RAM1500Mhz n°48 IBM256MB RAM1000Mhz
20 + 20 Macchine
50 Macchine
LVS: cluster per il bilanciamento dei servizi di
rete
LVS Linux Virtual Server
Esigenze nell’ambito dei servizi di rete Gestione di servizi con carico
elevato Continuità e alta affidabilità dei
servizi offerti Scalabilità del sistema e
manutenzione trasparente dei server
LVS Linux Virtual Server
IP3IP2IP1
Internet
FTP WEB
Architettura tradizionale
Semplice implementazione dell’architettura di rete
Configurazione standard dei servizi
Minima adattabilità all’aumentare del carico
Scalabilità solo a livello del singolo server
Nessuna ridondanza dei servizi
Gestione aggiuntiva del sistema dei servizi di backup.
Vantaggi Svantaggi
Load Balancing
Cresce l’uso di Internet .Come assicurare il proprio investimento avendo sempre una continuità del servizio, ed una efficente e crescente performance dei propri server?
Server overload Server farms
Servers più potenti
Incrementare le capacità dei Server
Cresce la popolarità di internet La soluzione
LVS Linux Virtual Server
Con il Load Balancing si incrementano le performance dei servizi attraverso il bilanciamento del carico su tutti i server.
Ottimizzazione dei servizi Servizi non bilanciati
L V S
FTPWEBMAIL
Director LVS Il director LVS offre il bilanciamento dei
carichi a livello IP in modo da far apparire più servizi paralleli del cluster come servizi virtuali disponibili su un singolo indirizzo server (con un unico indirizzo IP).
Tutte le richieste vengono inviate all’ IP virtuale (VIP) attribuito al director, che avrà il compito di smistarle secondo degli algoritmi di balancing o scheduling definiti (Round-Robin, Weighted Round-Robin, Least Connection, Weighted Least Connection)
Unico Virtual Ip per tutti i servizi
Multpli Indirizzi Ip di accesso Unico Indirizzo Ip di accesso
Virtual IP
IP1IP2IP3
L V S Linux VirtualServer
Unico indirizzo ip per tutti i servizi attivi della farm.
IP1IP2IP3
Internet Internet
IP3
LVS Linux Virtual ServerAnche se un singolo server dovesse risultare non disponibile il servizio viene sempre erogato.
Linux VirtualServer
Internet
IP1IP2IP3
LVS Linux Virtual ServerLa soluzione deve essere flessibile e crescere all’aumentare della domanda; il tutto deve avvenire in una modalità “trasparente”, ottenendo un’ottima scalabilità.
Linux VirtualServer
LVS al Centro Univ. di Calcolo La finalità del progetto è di implementare
inizialmente i servizi di web, proxy, ftp, mail e samba server sotto LVS utilizzando la soluzione in modalità LVS-Nat.
Per assicurare la massima ridondanza verrà installato un Director LVS di backup configurato secondo l’ High-Availability Linux Project.
Inoltre tutti i server verranno collegati alle SAN (Storage Area Network) IBM e Compaq per l’accesso ad uno spazio di disco condiviso
FTPWEBMAIL
SANStorage Area
Network
Internet
Linux VirtualServer
Linux VirtualServer Backup
Grazie a tutti
Top Related