際際滷

際際滷Share a Scribd company logo
TECNICO DI RETI INFORMATICHE SPECIALIZZATO IN SICUREZZA DELLE RETI RIF. P.A. 2010 - 948/RER
Abbiamo visto che la nostra struttura fisica deve possedere, nella sua visione ottimale, i seguenti requisiti: Relazioni on-demand fra i componenti
Agilit strutturale
Azzeramento degli sprechi delle risorse
Conformit agli SLA definiti
Allineamento ai BP I fattori da considerare, nella valutazione di un componente fisico della rete (in particolare, un server) dovranno quindi necessariamente essere: Scalabilit (orizzontale e verticale)
Ottimizzazione del consumo delle risorse
粥韓韓庄糸温恢庄鉛庄岳
鴛稼岳艶乙姻庄岳
Obiezione 1)  E il problema dell'interoperabilit dei sistemi? L'aumento del livello di astrazione ha portato alla definizione di protocolli e standard di livello pi湛 alto possibile, rendendo di fatto la struttura  hardware-indipendent.  Il mercato 竪 dominato da  middleware cross-platform,  gli standard sono aperti, le alternative infinite. Anche con riferimento ai sistemi  legacy Obiezione 2)  E la potenza di elaborazione? Il concetto di  raw power  竪 stato sorpassato da scalabilit e ottimizzazione delle risorse (anche dal punto di vista energetico). La capacit di elaborazione deve essere  on-demand  come la struttura. Lo sviluppo tecnologico segue gli stessi driver: le architetture cpu diventano multi-core e distribuite, frequenza e n. di core diventano dinamici. .
Conclusione Siamo in grado di scegliere il sistema che ha il minor numero di vincoli ambientali ammissibile (ovvero solo quelli posti dalla nostra unit di business) Il mio dominio di scelta deve ammettere il numero massimo di architetture sia come cardinalit (tecnologie) che di ordinalit (dimensioni) Il limite all'evoluzione del sistema 竪 fissato dalla capacit di scalare verso l'alto, dato un workload; ma un limite 竪 anche l'incapacit di preservare le risorse in condizioni non di picco, dato lo stesso workload E' fondamentale aumentare la parcellizzazione dei sistemi per ottenere la massima percentuale di utilizzo delle componenti fisiche E' FONDAMENTALE L'INTRODUZIONE DI UN LAYER CHE PERMETTA DI SCORPORARE IL SERVER FISICO DA QUELLO LOGICO  . .
HYPERVISOR (aka VMM, Virtual Machine Manager)
Hypervisor Classificazione tradizionale (Robert P. Goldberg) Tipo 1 (bare metal)   L'hypervisor viene eseguito direttamente sull'hardware per regolarne l'accesso e monitorare i sistemi  guest . I sistemi  guest  sono presenti al secondo livello.
Type 2 (or hosted)  L'hypervisor viene eseguito all'interno di un sistema operativo  convenzionale. L'hypervisor 竪 quindi al secondo livello di astrazione, i  guest  al terzo . . gl
Hypervisor di tipo 1  Bare metal, 竪 ospitato direttamente dall'hardware
Necessita di modifiche ai S.O.  Guest (syscall)  o di un layer di  binary translation
Unico mediatore per le risorse
Pu嘆 necessitare di predisposizioni hardware (CPU)
Massimo livello di isolamento dell'hardware (non 竪 possibile accedervi direttamente)
Hypervisor di tipo 2 Ospitato all'interno di un S.O.
E' mediatore dei livelli superiori, ma non 竪 esclusivo
Non necessita di modifiche ai S.O. Guest ( syscall)
E' mantenuta la possibilit di accedere direttamente all'hw della macchina, tramite il S.O.  host
Overhead maggiore rispetto al tipo 1, dovuto a un layer aggiuntivo
Hardware  e  S.O.  guest , possono avere differente metodologie di comunicazione, in base alle caratteristiche dell'hypervisor e dell'hardware  Ho quindi a disposizione diverse modalit per l'esecuzione del codice, che originano le diverse tecnologie di virtualizzazione: Virtualizzazione
Paravirtualizzazione
Partizionamento . l
Virtualizzazione completa Virtualizzazione completa   Guest  e hardware usano identiche interfacce (istruzioni macchina). Siamo in presenza di un  binary translator  o di istruzioni cpu specifiche per la virtualizzazione
Paravirtualizzazione Paravirtualizzazione  Guest  e hardware usano istruzioni funzionalmente simili ma non identiche, i sistemi  guest  usano  hypercall
Partizionamento Virtualizzazione completa   Guest  e hardware usano identiche interfacce (istruzioni macchina).
Comparazione hypervisor Tipo Virt. Paravirt. Partiz. Arch. VMware vSphere hv (ESX) 1 * * x86 XEN 1 * * x86 / POWER / Z MS Hyper-V 1 * x86 IBM PowerVM / IVM / ZVM 1 * POWER / Z Oracle VM Server SPARC  1 * SPARC HPIntegrity VM  1 * Itanium Oracle VirtualBox 2 * x86 VMware Server 2 * x86 User Mode Linux 2 x86 KVM (RHEV) 2  * * x86 MS Virtual Server 2 * x86

More Related Content

Cesvip 20110127

  • 1. TECNICO DI RETI INFORMATICHE SPECIALIZZATO IN SICUREZZA DELLE RETI RIF. P.A. 2010 - 948/RER
  • 2. Abbiamo visto che la nostra struttura fisica deve possedere, nella sua visione ottimale, i seguenti requisiti: Relazioni on-demand fra i componenti
  • 6. Allineamento ai BP I fattori da considerare, nella valutazione di un componente fisico della rete (in particolare, un server) dovranno quindi necessariamente essere: Scalabilit (orizzontale e verticale)
  • 10. Obiezione 1) E il problema dell'interoperabilit dei sistemi? L'aumento del livello di astrazione ha portato alla definizione di protocolli e standard di livello pi湛 alto possibile, rendendo di fatto la struttura hardware-indipendent. Il mercato 竪 dominato da middleware cross-platform, gli standard sono aperti, le alternative infinite. Anche con riferimento ai sistemi legacy Obiezione 2) E la potenza di elaborazione? Il concetto di raw power 竪 stato sorpassato da scalabilit e ottimizzazione delle risorse (anche dal punto di vista energetico). La capacit di elaborazione deve essere on-demand come la struttura. Lo sviluppo tecnologico segue gli stessi driver: le architetture cpu diventano multi-core e distribuite, frequenza e n. di core diventano dinamici. .
  • 11. Conclusione Siamo in grado di scegliere il sistema che ha il minor numero di vincoli ambientali ammissibile (ovvero solo quelli posti dalla nostra unit di business) Il mio dominio di scelta deve ammettere il numero massimo di architetture sia come cardinalit (tecnologie) che di ordinalit (dimensioni) Il limite all'evoluzione del sistema 竪 fissato dalla capacit di scalare verso l'alto, dato un workload; ma un limite 竪 anche l'incapacit di preservare le risorse in condizioni non di picco, dato lo stesso workload E' fondamentale aumentare la parcellizzazione dei sistemi per ottenere la massima percentuale di utilizzo delle componenti fisiche E' FONDAMENTALE L'INTRODUZIONE DI UN LAYER CHE PERMETTA DI SCORPORARE IL SERVER FISICO DA QUELLO LOGICO . .
  • 12. HYPERVISOR (aka VMM, Virtual Machine Manager)
  • 13. Hypervisor Classificazione tradizionale (Robert P. Goldberg) Tipo 1 (bare metal) L'hypervisor viene eseguito direttamente sull'hardware per regolarne l'accesso e monitorare i sistemi guest . I sistemi guest sono presenti al secondo livello.
  • 14. Type 2 (or hosted) L'hypervisor viene eseguito all'interno di un sistema operativo convenzionale. L'hypervisor 竪 quindi al secondo livello di astrazione, i guest al terzo . . gl
  • 15. Hypervisor di tipo 1 Bare metal, 竪 ospitato direttamente dall'hardware
  • 16. Necessita di modifiche ai S.O. Guest (syscall) o di un layer di binary translation
  • 17. Unico mediatore per le risorse
  • 18. Pu嘆 necessitare di predisposizioni hardware (CPU)
  • 19. Massimo livello di isolamento dell'hardware (non 竪 possibile accedervi direttamente)
  • 20. Hypervisor di tipo 2 Ospitato all'interno di un S.O.
  • 21. E' mediatore dei livelli superiori, ma non 竪 esclusivo
  • 22. Non necessita di modifiche ai S.O. Guest ( syscall)
  • 23. E' mantenuta la possibilit di accedere direttamente all'hw della macchina, tramite il S.O. host
  • 24. Overhead maggiore rispetto al tipo 1, dovuto a un layer aggiuntivo
  • 25. Hardware e S.O. guest , possono avere differente metodologie di comunicazione, in base alle caratteristiche dell'hypervisor e dell'hardware Ho quindi a disposizione diverse modalit per l'esecuzione del codice, che originano le diverse tecnologie di virtualizzazione: Virtualizzazione
  • 28. Virtualizzazione completa Virtualizzazione completa Guest e hardware usano identiche interfacce (istruzioni macchina). Siamo in presenza di un binary translator o di istruzioni cpu specifiche per la virtualizzazione
  • 29. Paravirtualizzazione Paravirtualizzazione Guest e hardware usano istruzioni funzionalmente simili ma non identiche, i sistemi guest usano hypercall
  • 30. Partizionamento Virtualizzazione completa Guest e hardware usano identiche interfacce (istruzioni macchina).
  • 31. Comparazione hypervisor Tipo Virt. Paravirt. Partiz. Arch. VMware vSphere hv (ESX) 1 * * x86 XEN 1 * * x86 / POWER / Z MS Hyper-V 1 * x86 IBM PowerVM / IVM / ZVM 1 * POWER / Z Oracle VM Server SPARC 1 * SPARC HPIntegrity VM 1 * Itanium Oracle VirtualBox 2 * x86 VMware Server 2 * x86 User Mode Linux 2 x86 KVM (RHEV) 2 * * x86 MS Virtual Server 2 * x86
  • 32. Ora che abbiamo una panoramica delle tecnologie con cui 竪 possibile implementare il concetto di server logico (sia fisico che virtuale) per ridurre lo spreco di risorse Passiamo a vedere le tecnologie con le quali 竪 possibile legarli, per il raggiungimento dei requisiti di: Scalabilit 粥韓韓庄糸温恢庄鉛庄岳 . l
  • 33. Cluster distribuiti (load balancing, failover active-active) Distribuzione dell'elaborazione su un gruppo di server (nodi) connessi tramite rete Necessita di componenti di mediazione a livello di rete (VIP e bilanciatori)
  • 34. Necessita di componenti di replica/condivisione a livello di risorse
  • 35. Permette un aumento di affidabilit in base all'ordinalit dell'insieme
  • 36. Permette lo scaling (quasi) lineare della potenza elaborativa all'aumentare del numero dei nodi
  • 37. Aumenta la complessit di gestione
  • 38. Cluster distribuiti (load balancing, failover active-active)
  • 39. Cluster HA (failover active-passive) Distribuzione di funzioni diverse su piu nodi. Tramite monitoraggio, i nodi sono in grado di rilevare i failover dei reciproci e assumerne le funzioni Necessita di componenti di replica a livello rete
  • 40. Necessita di componenti di condivisione delle risorse
  • 41. Lo scopo 竪 la riduzione dei downtime
  • 42. Introduzione di un livello verticale di affidabilit
  • 43. Cluster HA (failover active-passive)
  • 44. Tecniche di fault-tolerance per le componenti hw L'unico metodo disponibile per l'aumento dell'affidabilit delle macchine 竪 (oltre all'evoluzione dei processi produttivi) la RIDONDANZA DEI COMPONENTI Ci嘆 implica un aumento di complessit della macchina, e soprattutto l'aumento dei COSTI Per questo motivi, il grado di affidabilit di un elaboratore 竪 (quasi) direttamente proporzionale alla ridondanza dei suoi componenti, e quindi al costo. . l
  • 45. . Sistemi Intel/AMD x86-64 Intel Xeon o AMD Opteron fino a 2,6 Ghz
  • 48. Max 1 TB RAM
  • 49. S.O Windows/Linux/Solaris Sistemi POWER IBM POWER6 o POWER7 fino a 6.1 Ghz
  • 52. Max 4 TB RAM Sistemi SPARC Sun Sparc64 VII o Txxx fino a 3 Ghz
  • 55. Max 1 TB RAM Una breve panoramica sulle architetture hw...
  • 56. Posizionamento teniche fault-tolerance l Entry level Power supply
  • 60. CPU (spare) Enterprise Power supply
  • 65. Memory - Oscillatori - Spare chip - Memory RAID - Spare Bus interconnect
  • 66. CPU - Registri
  • 68. - Memory controller
  • 71. Storage e dischi Differenziazione in base al posizionamento: Locale (tightly-coupled) vs Distribuito (loosely-coupled) . l
  • 72. Lo storage locale: il raid . l
  • 73. Lo storage locale: le tecnologie dei dischi . l
  • 74. Lo storage distribuito: i filesystem di rete e le reti di storage Lo storage distribuito 竪 necessario per superare le limitazioni di flessibilit imposte dall'interazione fisica fra dischi/server, con particolare riferimento a: Condivisione di volumi
  • 79. Lo storage distribuito: SAN Storage Area Network 竪 una retecostituita esclusivamente da dispositivi di memorizzazione di massa, utilizzabili dai client tramite incapsulamento dei comandi di controllo (es: SCSI) dentro protocolli di rete Il 99% delle tecnologie SAN utilizza i seguenti protocolli: Fibre Channel Protocol utilizza il protocollo FC per l'incapsulamento dei comandi SCSI. ISCSI utilizza il protocollo TCP per l'incapsulamento dei comandi SCSI . l Lo storage distribuito: SAN Storage Area Network 竪 una retecostituita esclusivamente da dispositivi di memorizzazione di massa, utilizzabili dai client tramite incapsulamento dei comandi di controllo (es: SCSI) dentro protocolli di rete Il 99% delle tecnologie SAN utilizza i seguenti protocolli: Fibre Channel Protocol utilizza il protocollo FC per l'incapsulamento dei comandi SCSI. ISCSI utilizza il protocollo TCP per l'incapsulamento dei comandi SCSI . l
  • 80. Lo storage distribuito: SAN FCP Rete dedicata su protocollo FC
  • 84. Lo storage distribuito: SAN iSCSI Rete LAN esistente (TCP/IP)
  • 85. Rame
  • 87. Topologia di rete esistente . l
  • 89. Lo storage distribuito: NAS Network Attached storage consente la condivisione delle aree di storage con gli host, tramite protocolli e filesystem di rete. Non c'竪 incapsulamento: il fs 竪 esposto direttamente al S.O sulla rete ethernet. E' un semplice device di rete. I filesystem pi湛 utilizzati sono: NFS , SMB e CIFS per utilizzi general-purpose GPFS, AFS e FUSE per applicazioni ad alto throughput . l