Vai al contenuto
Home » Blog » Data Center, scelte progettuali

Data Center, scelte progettuali

La progettazione di un data center è un’attività sicuramente  complessa e costosa, e gli ingegneri progettisti hanno la responsabilità di comprendere a fondo sia gli standard che definiscono le caratteristiche di un data center sia i rischi cui tale struttura può essere soggetta.

L’obiettivo tecnico è realizzare infrastrutture che operino in continuità operativa, cioè capaci di  erogare i loro servizi sempre e comunque, anche in presenza di “incidenti distruttivi”. La continuità operativa, nota anche come Business Continuity, è un elemento essenziale per la protezione del business aziendale.

A tale scopo l’analisi ed il trattamento dei rischi diventano la base delle scelte progettuali, ed insieme agli standard internazionali come l’ANSI/TIA-942-A sulla progettazione di un DC, l’ISO 22301 sulla continuità operativa, l’ISO 31000 sulla gestione dei rischi e l’ISO 27001 sulla sicurezza e privacy dei dati,  permettono di progettare strutture DC della massima efficacia.

Lo standard TIA-942-A definisce le best practice e le linee guida per la realizzazione di un data center e prevede una classificazione dei data center secondo quattro livelli crescenti, detti TIER.

A ogni tier corrispondono dei determinati standard di sicurezza e ogni tier si differenzia dagli altri, principalmente, per la percentuale di availability (che sarebbe, in sostanza, la percentuale di continuità operativa garantita durante l’anno). L’availability è funzione dei periodi temporali di interruzione operativa tollerati dalla struttura ed a sistemi di connettività più o meno stabili e ridondanti.

Si va dal livello minimo di continuità operativa del 99.671%, che prevede la mancanza di ridondanze ed un singolo sistema di alimentazione e di raffreddamento del TIER I, alla massima continuità operativa del 99,995%, dove sono previsti componenti ridondati e collegamenti multipli contemporaneamente attivi per l’alimentazione ed il raffreddamento del TIER IV, che garantisce la fault tolerance.

In breve ciò significa passare da un massimo di 28.8 ore di interruzione/anno del TIER I ad un massimo di soli 26.3 minuti di interruzione/anno per il TIER IV. Naturalmente la complessità ed i costi della struttura crescono in modo vertiginoso passando dal TIER I al TIER IV.

fonte: https://blog.servermania.com/data-center-tiers/

Un moderno data center non può fare a meno di sistemi di supporto essenziali per la stessa sopravvivenza del DC, come i collegamenti in fibra ottica, gli impianti di climatizzazione e raffreddamento studiati appositamente per sottrarre l’aria calda prodotta dalle macchine in funzione 24 ore su 24, sostituendola con aria fredda emessa da bocchette sul pavimento o i gruppi di continuità, che mantengono costantemente alimentati elettricamente in corrente alternata le apparecchiature.

This is a time-lapse video of the build out of a new 2.5 MW 20,000 sq ft data center for a major financial services company

Anche le procedure di Disaster Recovery devono essere puntualmente progettate ed applicate.

Infine, una grande attenzione va posta nella definizione di tutti quegli accorgimenti progettuali atti a garantire la protezione dei sistemi dai malfunzionamenti dovuti a sovracorrenti, fulmini, incendi o allagamenti, la protezione delle informazioni contro gli attacchi informatici ma anche la protezione dai possibili errori umani.

Trovano grande rilievo anche il servizio di sorveglianza e vigilanza, il controllo degli accessi, nonché la sala di controllo con i tecnici di presidio. Tutte queste caratteristiche sono ben descritte nello standard TIA-942-A.

La virtualizzazione dei sistemi hardware ed il cloud computing sono un’importante evoluzione del data center classico e stanno introducendo grande fermento nel mondo IT, poiché permettono di ottenere grandi risultati a costi sempre più bassi. La virtualizzazione, in particolare, si sta spingendo verso la completa digitalizzazione di ogni elemento dell’infrastruttura IT, siano essi le risorse di rete, gli storage o la stessa sicurezza, per creare data center completamente virtuali. Società come VMware ed Amazon stanno portando questi concetti a livelli estremi. Amazon, in particolare, con i suoi servizi Amazon Web Service offre una piattaforma ben collaudata e di facile utilizzo che permette a qualsiasi Aziende di creare la propria infrastruttura di server e storage on-demand in cloud, con semplicità e ad alta scalabilità.

Tutto questo è possibile grazie alle aumentate capacità computative dei server, ben sfruttate dai sistemi di virtualizzazione, ai sempre più capienti e veloci sistemi di memorizzazione ed all’aumento della larghezza di banda delle reti di telecomunicazioni ed alla loro capillare distribuzione.

Print Friendly, PDF & Email