1. www.adnettelecom.roEFICIEN鄭A ENERGETICINOVA鄭II IN INFRASTRUCTURA CENTRELOR DE DATEFlavius PORUMBAdNet Telecom, CTOflavius.porumb@adnettelecom.roIDG Conference, 31 Mai 2011Cloud Computing + Virtualization + The New Data Center = less energy bills through GREEN IT
2. INOVA鄭II IN INFRASTRUCTURACENTRELOR DE DATE31 Mai 2011www.adnettelecom.roSumarEficien釘a energeticOptimizareadistribu釘iei de putereOptimizri mecanice (rcire)Optimizri servereConcluzii, best-practicesOptimizare holistic
4. INOVA鄭II IN INFRASTRUCTURACENTRELOR DE DATE31 Mai 2011www.adnettelecom.roEficien釘 energetic (2)De ce?Business best-practice ECONOMIC: reducere de costuri
5. SOCIAL: impact mai mic asupa mediului (amprenta de carbon)Ritmul de inovare este alert datorita juctorilorglobali 1Adoptare best-practicesNu exist dec但t 2 soluii pentru eficientizare2MutareDC in Cloud
6. INOVA鄭II IN INFRASTRUCTURACENTRELOR DE DATE31 Mai 2011www.adnettelecom.roEficien釘 energetic (3)PUEDatacenterAlimentare re釘eaSarcina IT&CPutere (transformator, tablou, UPS, baterii, etc)Consumservere, storage, telco eq. etc.Rcire (chillere, CR) PUE = (Putere Total Facilitate)/(Sarcin echipamente IT&C)Power Usage Effectiveness(vezisi DCIE, http://www.thegreengrid.org/)
7. PUE = Total Facility Power / IT Equipment PowerDCiE = IT Equipment Power / Total Facility PowerINOVA鄭II IN INFRASTRUCTURACENTRELOR DE DATE31 Mai 2011www.adnettelecom.roEficien釘 energetic (4) Nu pute釘i controla i 樽mbunt釘i ceea ce nu msura釘i!
10. Avansat Msurtori orare (BMS)INOVA鄭II IN INFRASTRUCTURACENTRELOR DE DATE31 Mai 2011www.adnettelecom.roSumarEficien釘a energeticOptimizareadistribu釘iei de putereOptimizri mecanice (rcire)Optimizri servereConcluzii, best-practices
13. Crete釘i eficien釘a conversiilor cu transformatoare si PDU-uri de bune calitate Tensiunea 樽nalt c但t mai aproape de servere pentru a evita pierderile pe linii
14. Folosi釘i echipamente IT eficiente dpdv consum (Energy Star - economii de 20-30%) Inova釘ii-> OCP; fr UPS central, baterie 樽n rack/server-> DC 樽n rackOVERSELL ?INOVA鄭II IN INFRASTRUCTURACENTRELOR DE DATE31 Mai 2011www.adnettelecom.roSumarEficien釘a energeticOptimizareadistribu釘iei de putereOptimizri mecanice (rcire)Optimizri servereConcluzii, best-practices
15. INOVA鄭II IN INFRASTRUCTURACENTRELOR DE DATE31 Mai 2011www.adnettelecom.roOptimizri mecanice (1)ConceptAercaldMix diluat aer cald-receAerreceCRAC / CRAH(Computer Room Air Handler/Conditioner)min.1.2m
16. INOVA鄭II IN INFRASTRUCTURACENTRELOR DE DATE31 Mai 2011www.adnettelecom.roOptimizri mecanice (2)Concept33% din total consumenergieCu celmai mare impact asupra PUE, dupagradul de utilizare al serverelorsi in multecazuriieftinsiusor de adresat!Din nou Nu pute釘i controla i 樽mbunt釘i ceea ce nu msura釘i! Instalat鱈senzori de temperaturasiumiditate
17. Atentie la contaminarea aerului rece -> container culoarcald/ culoarreceINOVA鄭II IN INFRASTRUCTURACENTRELOR DE DATE31 Mai 2011www.adnettelecom.roOptimizri mecanice (3)Container CuloarCald (HACS - Hot Aisle Container System)SFAT: Pentru a evita contaminarea, folosi釘i blanking panel pentru locurile libere din rack.
18. INOVA鄭II IN INFRASTRUCTURACENTRELOR DE DATE31 Mai 2011www.adnettelecom.roOptimizri mecanice(4)Container CuloarRece (Cold Air Container System)SFAT: Consultatipreverilelegale de stingere a incendiilorcandoptatipentru HACS/CACS.Mai ineficient vs HACS
19. INOVA鄭II IN INFRASTRUCTURACENTRELOR DE DATE31 Mai 2011www.adnettelecom.roOptimizri mecanice (5)Free Cooling DeschidetiFerestrele!Economii de 30-50%Economizerele (bazatepe AER / FLUIDE) sunt indicate in special in zone cu climatemperata/receSFAT: Acordatiatentiesistemelor de control, in special cele legate de filtraresi control al umiditatii
20. INOVA鄭II IN INFRASTRUCTURACENTRELOR DE DATE31 Mai 2011www.adnettelecom.roOptimizri mecanice (6)Mrii temperatura din Datacenter!ASHRAERecomandri(樽nainte de 2008)Temperatur20-25 甬CUmiditate 40-55%Recomandri(dup 2008)Temperatur18-27 甬CUmiditate 5.5-15 甬C
21. INOVA鄭II IN INFRASTRUCTURACENTRELOR DE DATE31 Mai 2011www.adnettelecom.roSumarEficien釘a energeticOptimizareadistribu釘iei de putereOptimizri mecanice (rcire)Optimizri servereConcluzii, best-practices
22. INOVA鄭II IN INFRASTRUCTURACENTRELOR DE DATE31 Mai 2011www.adnettelecom.roOptimizriservere (1)VirtualizareTop 5 motive:Consolidare - costurimaimici pentru HW/SW/mentenantaScalabilitate, 樽mbunt釘ire time-to-marketDisponibilitate - migrare facilAgilitate noi servere uor de provizionatResponsabilitatefa釘 de mediu "Virtualization will continue as the highest-impact issue challenging infrastructure and operations through 2015, changing how you manage, how and what you buy, how you deploy, how you plan and how you charge" - Philip Dawson, ResearchVP, Gartner
23. INOVA鄭II IN INFRASTRUCTURACENTRELOR DE DATE31 Mai 2011www.adnettelecom.roOptimizariservere (2)Dezvoltri HardwareTilera (arhitectura iMesh )14 Feb 2011 Dell PowerEdge C61455 Mai 2010 -Liquid Blade26 Sep 2010SeaMicro - SM1000022 Mar 2011- Dell PowerEdge C5125 (Microservers)Fabric computing06 Aprilie Cisco UCS C260 M2
24. INOVA鄭II IN INFRASTRUCTURACENTRELOR DE DATE31 Mai 2011www.adnettelecom.roOptimizariservere (3)Facebook, OCP, Dezvoltri in-houseStudiu de caz DC Pineville, Oregon Rcire evaporativ
25. Design propriu (OCP) pentru sistemul de distributie al puterii (surse la 277V) , UPS 樽n rack Servere de 1.5RU (ventilatoare m.eficientede 60mm) => 30 servere / rack
29. INOVA鄭II IN INFRASTRUCTURACENTRELOR DE DATE31 Mai 2011www.adnettelecom.roSumarEficien釘a energeticOptimizareadistribu釘iei de putereOptimizri mecanice (rcire)Optimizri servereConcluzii, best-practices
31. INOVA鄭II IN INFRASTRUCTURACENTRELOR DE DATE31 Mai 2011www.adnettelecom.roACTIONATI!Eficientizarea devine o prioritate pentru toata compania. Exemple:DC Mgr indicator de performantabazatpescaderea PUE
34. Alegerevendoriechipamente cu ceamaibunaperformanta = Procesare/W*TCOINOVA鄭II IN INFRASTRUCTURACENTRELOR DE DATE31 Mai 2011www.adnettelecom.roMUL鄭UMESC !Flavius PORUMBAdNet Telecom, CTOflavius.porumb@adnettelecom.roIDG Conference, 2011 May 31Cloud Computing + Virtualization + The New Data Center = less energy bills through GREEN IT
Editor's Notes
Buna ziua, ma numesc Flavius Porumb si sunt Chief Technology Officer al companiei AdNet Telecom.Sunt azi in fata Dvs pentru a va prezenta ultimele inovatii si tendinte in operarea si design-ul datacenterelor, cu .In primul rand o sa va rog sa imi scuzati ritmul alert al prezentarii, este un domeniu in care sunt extrem de multe inovatii tehnologice in ultimii ani.O astfel de prezentare, pentru a fi cu adevarat relevanta s-ar intinde pe durata a cel putin 90 min.Voi incerca deci sa parcurg repede lucrurile cu aplicabilitate doar in datacenterele de anvergura mare si voi insista la cele care pot prezenta relevanta pentru data-room-uri enterprise.Haideti sa vedem sumarul prezentarii!
In DEX, EFICIENTA este definita ca aportul dintre rezultatele obinute 樽n activitatea economic i eforturile depuse.In cazuloperarii centrelor de date s-ar transpune ca raportulintreputerea de procesare/capacitatea de stocaresicosturile necesare operarii.Totusi, care este ponderea diferitelor tipuri de costuri in costurile totale de operare? Unde se cheltuiescbanii?
In dreapta ecranului puteti vedea ponderea diferitelor tipuri de costuri in constructia unui centru de date, de remarcat ponderea f.importanta a provizionarii puterii si racirii.Referitor la costurile de operare, puteti gasi in literatura de specialitate sau pe Internet nenumarate analize.Cea mai completa, dupa parerea mea, este a lui James Hamilton, de la Amazon Web Services.Analiza costurilor de operare, pentru un datacenter orientat pe servicii (si nu inchiriere de spatiu, etc), s-a facut luand in calcul o durata de amortizare a infrastructurii de 10 ani si a serverelor de 3.Cateva observatii scurte legate de aceasta analiza: Costurile cele mai mari raman tot cele legate de servere, in pofida parerilor care mai circula inca -----57% Energie + distributia necesara a puterii ---31%Totusi daca ne uitam pe tendinta de crestere a costurilor pentru energie din ultimii 20 de ani si de scadere a preturilor pentru servere, in foarte scurt timp, conform prognozelor in 2014-2015 ordinea ponderii se va inversa.Acest lucru inseamna si o schimbare de paradigma in tarifarea serviciilor de datacenter, bazata pe putere si nu spatiu ocupat in rack/datacenter.Care sunt totusi motivele pentru care este important sa eficientizam rapid costurile de energie?
Este unul din cazurile fericite cand interesul de business REDUCEREA COSTURILOR - s-a intalnit cu responsabilitatea sociala IMPACTUL ASUPRA MEDIULUI.Cei care insa au pus bazele practicilor de eficientizare, respectiv cei care au inovat sunt marii furnizori de web-services.Companiile care vor sa isi eficientizeze operatiunile IT nu au decat 2 variante:1 - Adoptarea best-practices2 - Mutarea datacenterului in cloudAceasta prezentare se focuseaza pe acest punct, pe numarul 1 EFICIENTIZARE PRIN ADOPTAREA DE BEST-PRACTICESCum se masoara eficienta energetica totusi? Exista vreun benchmark?Pentru majoritatea companiilor este considerat un centru de cost. Nefiind cel mai important cost, nu companiile au fost vectorul de eficientizareServiciile web pescaraglobala suntcele care au pornit schimbarea, in faptunul din cazurile fericite cand $$$ s-au intalnit cu responsabilitateasociala Piata de datacentere globala va creste cu 50% pana in 2020. Crestereavafi in mare parte datoratamigrarii la serviciile Cloud. Rata de crestere a serviciilor Cloud va fi de 28.8% anual pana in 2015 (210 mld.$) Majoritatea aplicatiilor existente in Datacentere va fi externalizata in Public/Private Cloud pana in 2020 (IaaS, PaaS, SaaS)Totusimajoritateadatacenterelorsuntmicisimedii. Nu existadecat2 solutiiposibilepentrucrestereaeficienteiglobale in industrie:Adoptarea de catredatacenterelemicisimedii a best-practice-urilorpentrueficientizare Temaprezentarii de aziMutareadatacenterelormici/medii in Cloud
Exista, acesta se numeste PUE (Power Usage Effectiveness).Este un standard definit de Green Grid, o organizatie formata din mari furnizori de echipamente si servicii IT.Pe scurt, PUE se masoara ca un raport intre puterea totala care intra in datacenter si sarcina totala a echipamentelor IT.Un PUE de 2 inseamna ca pentru fiecare Watt care ajunge la un server, unul este consumat/pierdut de transformatoare/UPC/chillere etc.Cum se defineste totusi un datacenter ca fiind eficient?
Un datacenter este eficient daca are un PUE de minim 1.5.Cu cat PUE este mai mic, un datacenter este considerat eficient energetic .. Mai verde daca vreti.Ca si referinta, peste 80% din datacentere au un PUE intre 2 si 3, sau chiar mai mare ca 3.Va propun sa trecem in revista rapid ce puteti face pentru a creste eficienta energetica a centrului Dvs de date.
Optimizarea distributiei de putere este aplicabila in general datacenterelor de mare anvergura, totusi si aici vom gasi 1-2 best-practice-uri aplicabile centrelor Dvs de date.
OK, haideti sa vedem la ce se refera distributia de putere.Tensiunea inalta/medie intra in transformator (o prima conversie cu pierderi 0.3%), din acesta in UPS centralizat (pierderi din nou la conversie de 6%), din acesta din nou in transformator la 220V (alta conversie alte pierderi 4%), din acesta in sursa serverului, care (aceste conversii sunt mai putin dezbatute) face din nou conversii la 12V (CPU< RAM), 5V, 1.2-1.8VIn total 11% pierderi !!!Ok, sa vedem ce e de facut!
Din aceasta lista de best-practice-uri aplicabile datacenterelor de orice dimensiune, cele aplicabile celor enterprise ar fi sa folositi - transformatoare si PDU-uri cu factor de conversie cat mai bunSa folositi echipamente cu consum redus un exemplu ar fi cele certificate Energy Star, care va ofera un consum mai mic cu pana la 30%.Partea cu adevarat interesanta incepe de aici, probabil sunteti interesati ce puteti face cu bugete relativ reduse pentru a scadea cu procente importante consumurile de energie din centrul Dvs de date.
Nu cred ca este o supriza pentru Dvs ca racirea este cel mai mare consumator pe care il aveti in centrul de date.Vom vedea in slide-urile urmatoare cateva modalitati prin care putem scadea cu procente importante acest consum.
Aceasta este o schita conceptuala a unui centru de date si a Sper ca aveti o podea inaltata in datacenter ... OK, un prim best-practice ar fi sa fie inalta de 1.2m, inaltimea optima se stabileste pe baza unui studiu referitor la fluxurile de aer pe design-ul specific al datacenterului.Va rog sa retineti din aceasta schita ca este important ca aerul cald disipat de servere sa nu il contamineze pe cel rece din urmatorul motiv:- Consumul chillerelor este direct proportional cu delta de temperatura intre aerul cald care intra in chiller si aerul rece pe care trebuie sa il produca.Ce puteti face pentru a imbunatati functionarea flusurilor de aer?
Primul lucru ar fi sa nu va bazati pe intuitie, ci sa instalati senzori de temperatura in datacenter si sa ii monitorizati.Puteti identifica zone prea calde sau zone prea reci, deci ineficiente.Pentru analiza puteti folosi chiar software-uri specializate de dinamica fluidelor, specializate pe fluxuri aer datacenter.Un best-practice cu investitie minimala, dar rezultate cu adevarat spectaculoase este conceptul de culoar rece/ culoar cald.
O prima varianta ar fi sa folositi alternativa de container culoar cald.Observati ca acest culoar cald este perfect etanseizat pe tot traseul pana la AC.Un studiu de caz publicat de Google, pentru unul din datacenterele lor corporate, a fost ca prin aceasta optimizare, printr-o investitie de 25K $ au obtinut economii de 67K $ in primul an. Cum vi se pare acest Return Of Investment?Un sfat ar fi ca in locurile unde nu aveti instalate servere sa folositi blanking panels .. Da, stiu ca colegii Dvs lasa loc intre servere pentru o aerisire mai buna. Este insa o decizie gresita, mai ales in cazul in care optati pentru aceasta optimizare.Cum arata si a doua alternativa, deci cea cu culoar rece?
Cam asa arata varianta cu culoar rece .. Evident ca acest design este mai ineficient In primul rand dpdv energetic, vezi raportarea consumului de racire la delta dintre temperaturiIn al doilea rand pentru ca nu veti putea avea rack-uri in afara acestui sistem .. in datacenter va fi extrem de cald.Ce alte optiuni de optimizare a consumului mai exista?
O optiune care poate scadea dramatic consumul, insa nu cea mai ieftina dpdv CAPEX este FREE COOLING.Pentru a scadea delta dintre temperaturi, de care am mai vorbit, aerul disipat de servere este racit cu sisteme bazate pe aerul din afara datacenterului sau prin recircularea acestuia prin fluide (apa, glycol), sisteme numite air-side sau water-side.Evident ca sistemul air-side se poate folosi in romania intimpuliernii (chiar primavara, toamna) cand aeruld e afara e mai rece decat cel din datacenter.Google opereaza 2 datacentere in Europa FARA NICIUN CHILLER.In Belgiafolosescturnuri de evaporare, date fiindconditiile de mediu, iar in Finlandafolosescracirea cu apa de mare.NU EXISTA METODA OPTIMA DE FOLOSIRE A METODEI FREE COOLING Totul tine de climatul/caracteristicilezoneiundeestedatacenterul.Care este totusi cea mai ieftina metoda prin care puteti scadea costurile?
Simplu, MARITI TEMPERATURA DIN DATACENTER.American Society of Heating, Refrigerating and Air-conditioning Engineers este o asociatie a inginerilor din domeniul refrigerarii din SUA, care pe baza recomandarilor primite de la vendorii de echipamente, dar si prin studii independente, emit recomandari pentru diverse tipuri de echipamente.Ce vedeti in acest slide este o schita de recomandare pentru echipamentele IT.Pentru acestea a existat o recomandare, valabila pana in 2008 de operare optima a echipamentelor IT in range-ul de temperaturi 20-25 grade Celsius.In 2008 au marit acest interval la 18-27 grade Celsius.Si inainte de 2008 si ..culmea, chiar dupa, cei care opereaza datacentere prefera sa opereze la 21-22 grade.Frica de a fi ei blamati probabil in caz de defectare a serverelor ii face sa transforme datacenterul intr-unul ineficient dpdv al costurilor.Ce ar trebui sa inteleaga este ca cresterea cu 2-3-5 grade in fapt nu afecteaza echipamentele, acestea raman in range-ul optim de functionare.Mai mult decat atat, zona cu rosu este cea Recommended .. Cea cu albastru ALLOWABLE (PERMISA) si aceasta permite functionarea optima la temperaturi de 32 grade celsius...Cu aceasta am incheiat seria best-practice-urilor legate de racire.http://tc99.ashraetcs.org/documents/ASHRAE_Extended_Environmental_Envelope_Final_Aug_1_2008.pdfAllowable 32 gradeTelco standard allowable 42 grade
La inceputul prezentarii spuneam ca totusi cele mai mari costuri sunt cu serverele?Cum putem reduce costurile si in aceasta privinta?
Conform unor studii desfasurate la nivel global rata medie de utilizare a serverelor dedicate este 10-15%.Va aminititi costurile de 57% de la inceputul prezentarii .. ca sa citez un clasic AICI SUNT BANII DVS!Majoritatea companiilor IT/NON-IT au inteles rapid aceste costuri deja si sunt in curs de virtualizare a servelor.Am sumarizat 5 motive:Consolidare/costuri HW mai putine servere, SW mai putine licente, Mentenanta mai putine resurse de administrat => staff IT restransScalabilitate faceti mai usor fata varfurilor de trafic cate servere ( de exemplu la lansarea unui produs, imbunatatire time-to-market)Disponibilitate serverele virtuale fiind obiecte software pot fi facil mutate pe alt server in caz de defectiuni / erori umane etc.Agilitate provizionarea poate fi automatizata, imagini de servere configurate cu toate optiunile de care aveti nevoie in mod constantResponsabilitate fata de mediu consum mai mic de energie, emisii mai mici de carbon
Servere multi-core, puternice dedicate serviciilor de virtualizare / cloud sunt lansate intr-un ritm sustinut de vendorii consacrati (Dell, HP, Cisco, etc), dar si de unii mai noi cu un focus crescut pe economiile de energie cu procesoare ARM Tilera sau Intel Atom SeaMicro.Tilera de exemplu a reusit sa puna 512 core-uri intr-un server de 2U. Intr-un rack de 42U se pot pune 20 de servere .. Reusim deci sa punem 10,000 de core-uri intr-un rack, la doar 8kW. Un intreg centru de date de nivel enterprise poate fi mutat intr-un astfel de rack.Ce fac in acest timp marii furnizori de web-services? Google, Yahoo, Microsoft, Baidu, Facebook...INOVEAZA!Am decis sa prezint doar un studiu de caz in cele ce urmeaza, respectiv cel al datacenterului Facebook din Pineville, Oregon si al serverelor folosite de ei.29.06.2010SeaMicrorecently announced a new low-power server using Intel Atom chips that promises to slash power costs for companies running large Internet services and cloud computing platforms. ------------- 512 low power Intel Atom chips, 3 kWSeaMicro drops an atom bomb on the server industry If SeaMicro can deliver, then it will deal a big blow to server vendors such as Dell, Hewlett-Packard and IBM. And it could delight customers with big data centers that are consuming too much power and are having a hard time keeping up with the demand for free internet services. From VentureBeat.Lansare Firefox 4 (martie 2011) - Power as Number One IssuePerformance was crucial, but where the new hardware really delivered was on power efficiency. The SeaMicro production servers used just 0.02 watts of electricity per browser request, Fitzhugh said, compared to 0.17 watts per request for the HP C7000 blade servers they replaced.http://www.datacenterknowledge.com/archives/2011/05/13/seamicro-servers-power-launch-of-firefox-4/Tileraspecializes in multi-core low-power processors into servers, allowing users to pack as many as 512 . A rack filled with these units would contain more than 10,000 cores and use less than 8 kW of powercores into a single 2U server23 Jun 2010Tilera also announced plans todouble the number of processor coresevery two years. The companys roadmap calls for 10,000 cores-per-rack today, 20,000 in 2011 and 40,000 by 2013Tilera Raises $45 Million for Multi-Core ServersJanuary 18th, 2011 Multi-core processor company Tileraannounceda round of financing led by Artis Capital Management, Comerica bank and West Summit Capital Management. Joining the strategic investors list for Tilera are Cisco and Samsung Venture Investment. To date they have raised $109 million. The company is expected to reach profitability later this year.CiscoThe UCS C260 M2 offers up to 1TB of memory and 9.6TB of local storage or 16 SSDs alternatively.vIndependent Software Vendors (ISVs) and partners are developing to the open Unified Computing SystemApplication Programming Interface (API), with over 10,000 applications supported on the system today.http://www.gartner.com/technology/media-products/reprints/cisco/210438.htmlKey FindingsFabric computing is nearing a stage of adolescence maturing quickly, but with much room for growth and maturation.Enterprises with serious initiatives in virtualization and cloud computing need to begin designing a fabric-based infrastructure, and the organizational structure to properly support it, as the underlying foundation for these initiatives.Based on polling results and many interactions with clients, we believe that Cisco has been the most influential marketing force in expanding the IT vocabulary and recognition for fabric computing, which is currently dominated by two vendors (Cisco and HP), with Dell, IBM and others making moves. Most users are still determining the use cases of fabric-based computing, and, as yet, are unwilling to be sold prepackaged modules of complete solutions by a single vendorLiquid Blade: Submerged Blade Servers - 60 percentor more reduction in cooling costThe Liquid Blade platform features two Intel 5500 or 5600 series Xeon processors, housed in achassis that immerses the blades in Hardcores Core Coolant a clear dielectric fluid that is odorless and biodegradable.Each blade chassis is 2.6 inches wide, 7 inches high and 32 inches deep. Seven of the chassis can fit in a 5U shelf in a 19-inch rack or cabinet.Efficiency, Cost Advantages ToutedLiquid cooling provides a more efficient heat transfer than air, and offers potential savings to companies that can commit to a liquid-cooled design.Liquid Blades submerged serverseliminate the need forrack-level fans, and would require only enoughroom air conditioning to keep staff comfortable.Hardcore saysits system requires nospecialized fire protection systems forthe servers, since all the blade components are submerged.
Am ales sa prezint acest studiu de caz, cel al Facebook, deoarece spre deosebire de Google, Microsoft, Yahoo, ale caror servere si design-uri de datacenter sunt patentate, ei au ales sa faca publice toate informatiile legate de design-ul folosit pentru datacentere si servere intr-un proiect numit Open Compute Project OCP.Referitor la datacenter, cateva detalii pe scurt:Au redus conversiile mutand tensiunea medie si UPS-ul in rackFree cooling, racire evaporativaSi cateva detalii legate de servere:- au ales sa schimbe carcasa de 1U cu una de 1.5 RU pentru a putea folosi ventilatoare mai eficiente serverul arata exact asa cum il vedeti, fara cover, nu exista suruburi, toate prinderile sunt pe baza de cleme pentru a face usor schimbarile de componente.Acest datacenter prin design-ul inovator si aplicarea tuturor best-practice-urilor din industrie a obtinut un PUE de 1.07!
Sa facem o recapitulare scurta si sa vedem si ce inseamna un plan de actiune pentru eficientizare.
Aceste 5 best-practice-uri reprezinta o intersectie a recomandarilor tuturor companiilor care activeaza in domeniu.Cu portocaliu sunt cele care se aplica centrelor de date de nivel enterprise si pot fi realizate cu bugete extrem de accesibile.Cum facem asta?
Lucrurile figurate in schema le puteti incepe in paralel.Sa le detaliem.Vom porni la drum cu un AUDIT al situatiei actuale - Vom incepe sa masuram PUE regulat zilnic/saptamanal (e simplu: ce curent intra in datacenter si ce consum am la iesirea din UPS) - Incepem sa lucram la un inventar al echipamentelor si consumurilor (IT HW servere, storage / suport IT HW UPS, PDU, racire, UPS, iluminat,etc)2. Cautatipermanent configuratiieficiente urmaritipresa de specialitate, fiti la curent cu ultimeledezvoltaritehnologice- incepetisalucrati la o harta a consumurilorsipierderilor de energie- identificatiposibilemodificari ale configuratiei de consum a DC Dvs3. Strategia de business Eficientizarea nu este doar treaba directorului IT sau a directorului administrativ care plateste factura de curent - Setati KPI transdepartamentalipentrueficientizare, cu schimbariincrementalepentru a mutafocusulpeeficientaenergetica. 4. Identificati posibile blocaje - Schimbaritehnologicerapide, curba de invatarede catre angajati a noilortehnologii, CAPEX initial mare, etc.5. Setati un plan de actiunescris O singura recomandare aici - Evitatiperfectiunea, cautatitot timpul maibine-le cu pasimiciVa multumesc pentru atentie.