In informatica, il backup dei dati ha a che fare con la continuità operativa. Questa operazione, infatti, crea una copia di sicurezza dei dati e dei file, e gestisce il ripristino in caso di incidente alla confidenzialità, integrità e disponibilità delle informazioni. Pur essendo una tecnica consolidata ed esistente da decenni attiva nell’ambito della cybersecurity, il backup resta il modo principale con cui le aziende e gli utenti proteggono i loro dati più importanti.
Indice degli argomenti
Cosa significa fare il backup
Formalmente, backup significa fare una copia e archiviare i dati dei sistemi, al fine di poter ripristinare in qualsiasi momento la versione originale nel caso in cui avvenga una perdita o una compromissione delle informazioni.
Le aziende possono eseguire questa operazione in modo continuo o in base a una pianificazione.
Insieme al disaster recovery, che ha una finalità diversa, il backup è uno dei pilastri della business continuity aziendale, che si concretizza in tutte quelle attività che consentono di proteggere le applicazioni e le informazioni contenute in un ambiente IT da svariate fonti di rischio.
Quanto appena descritto è il backup aziendale, ma la stessa attività coinvolge anche la sfera privata di ognuno, poiché riguarda tutti i dispositivi che contengono e generano dati come i notebook, i cellulari e i tablet.
Che cos’è il backup
Più in dettaglio, con il termine backup si intende la creazione di una copia di file o database (fisici o virtuali) e contestuale archiviazione in un sito secondario che dovrebbe essere geograficamente lontano da dove risiedono i dati originali (sito primario).
Potrebbe sembrare scontato ma, purtroppo, la letteratura informatica è piena di casi in cui nello stesso data center convivono sito primario e secondario. Del backup fa inoltre parte l’attività di recovery, ovvero di ripristino delle informazioni a seguito di incidenti di diversa natura, ma in grado di condizionare l’operatività dei sistemi e/o l’integrità dei dati.
A cosa serve fare il backup dei dati
L’attività di backup dei dati si rivela fondamentale per qualsiasi azienda, poiché risolve una serie di potenziali incidenti come:
- Anomalie e guasti delle apparecchiature e delle macchine;
- Eventi catastrofici come incendi, allagamenti, terremoti, guerre;
- Azioni malevoli come furti di dati, virus e via dicendo;
- Errori da parte degli utenti distratti o inesperti;
Grazie alla copia di file, applicazioni e sistemi, si possono recuperare i dati perduti e tornare alla condizione operativa precedente all’evento negativo. Ovviamente, la funzionalità operativa dipende dalla frequenza con cui si effettua un backup dei dati. Per lavori intensivi e processi critici, infatti, la frequenza impostata deve essere più serrata rispetto ad attività diluite nel tempo.
Perché fare il backup aziendale
In informatica, il backup è un tassello cruciale di qualsiasi data strategy. Se è vero che la capacità di gestire e di processare le informazioni è la chiave competitiva delle nuove imprese digitali, è fondamentale pianificare un data journey strutturato e comprensivo di misure volte a tutelare la triade CIA, ovvero la confidenzialità, l’integrità e la disponibilità dei dati. Il back up è una di esse.
Solo attraverso una solida gestione dei dati, le aziende sono in grado di intraprendere concretamente il percorso verso la data-driven company minimizzando gli effetti nativi della centralizzazione del dato, ovvero il rischio di perderlo o di renderlo (anche per errore) inaccessibile.
Come si fa il backup in azienda
Come si fa il backup? Non c’è una sola metodologia, ma dipende molto dagli obiettivi che l’azienda si pone in termini di punti di ripristino (RPO) e di tempi di ripristino (RTO), che determinano la dimensione dell’investimento da effettuare e la tecnologia più adatta allo scopo.
In particolare Il parametro RTO (Recovery Time Objective) sta a indicare il delta temporale che permette all’azienda di operare e produrre anche in assenza di una specifica applicazione o dei relativi dati. Questo, in sintesi, equivale a misurare il livello di tolleranza rispetto all’interruzione di un servizio, cioè il tempo massimo accettabile per il ripristino del sistema.
L’RPO (Recovery Point Objective), invece, identifica il volume di dati che l’azienda può permettersi di perdere a seguito di un incidente..
Backup di livello enterprise
Oggi la maggior parte delle grandi aziende ha adottato soluzioni allo stato dell’arte. Il mondo enterprise può contare su SAN – Storage Area Network di fascia alta, alimentate da array di dischi e sistemi di backup di dati multilivello, integrate da piani di disaster recovery. Le grandi aziende hanno anche le risorse per comprare maggiore spazio quando ne hanno bisogno, creando siti secondari di proprietà o affidando il backup a service provider di rinomata solidità. Oppure, ancora, possono decidere di potenziare l’uso del back up sfruttando le potenzialità del cloud.
A tal proposito, NAS – Network Attached Storage e cloud storage sono apparentemente diversi. In sintesi, il NAS è un server interno dedicato specificamente allo storage e al backup, mentre il cloud storage è una forma di NAS remoto, che utilizza l’infrastruttura cloud (privata o pubblica).
Backup dei dati nelle piccole aziende (PMI)
Le PMI, dal canto loro, faticano a stare dietro alla continua crescita dello storage. Spesso le piccole realtà non hanno le infrastrutture adeguate e nemmeno le risorse per costruire da zero un sistema di business continuity tradizionale ed efficace.
Come sottolineano gli analisti, tuttavia, il backup è in ogni caso fondamentale per la corretta gestione del dato, e definire linee guida e best practice è diventato prioritario nell’era del GDPR. L’articolo 32, infatti, specifica come “il titolare deve mettere in atto misure adeguate per garantire la sicurezza dei dati”. Assicurare integrità, riservatezza, resilienza e disponibilità dei sistemi è parte integrante della conformità alla normativa, attenuando il rischio di data breach.
Una soluzione ideale per le PMI è il BaaS, Backup as a service, che permette loro di sfruttare tecnologie di backup allo stato dell’arte e, al tempo stesso, l’infrastruttura resiliente, scalabile e distribuita dei grandi cloud provider, con una tariffazione direttamente proporzionale allo spazio occupato e ai livelli di servizio richiesti.
Cyber resilience e clean room recovery
Nel moderno panorama della cybersecurity, l’evoluzione delle minacce, in particolare dei ransomware di quarta generazione, ha reso il tradizionale concetto di ripristino dei dati insufficiente. La nuova frontiera è la Cyber Resilience, un approccio che sposta il focus dalla semplice conservazione alla capacità di garantire l’integrità del business attraverso la Clean Room Recovery.
Il rischio del Re-Infection Loop
Il limite dei backup convenzionali risiede nella potenziale latenza degli attacchi. Spesso, il codice malevolo risiede silente nei sistemi per settimane prima di attivarsi, venendo così regolarmente copiato all’interno dei backup.
Ripristinare i dati direttamente nell’ambiente di produzione dopo un attacco significa, nel 2026, rischiare il cosiddetto re-infection loop: il ransomware si riattiva immediatamente partendo proprio dai file di backup “infetti”.
La Clean Room: un’area di quarantena analitica
La Clean Room è un ambiente di ripristino isolato (logicamente e fisicamente) dalla rete aziendale, dove i dati e le macchine virtuali vengono ricostruiti in totale sicurezza.
Questo spazio operativo permette al team IT di eseguire operazioni critiche prima del ritorno in produzione:
- Deep Forensic Analysis: scansione dei dati tramite algoritmi di Intelligenza Artificiale per identificare tracce di malware, script sospetti o logic bombs che i sistemi di difesa perimetrale hanno mancato.
- Patching e Hardening: aggiornamento delle vulnerabilità che hanno permesso l’intrusione originale, garantendo che il sistema ripristinato sia più resiliente di quello compromesso.
- Validazione dell’integrità: test di funzionalità applicativa in un “sandbox” protetto per assicurare che il database sia coerente e privo di corruzioni latenti.
Impatto strategico sulla Business Continuity
E’ fondamentale sottolineare che l’adozione di una strategia di Clean Room trasforma il backup da asset passivo a strumento attivo di difesa. In termini di governance, questo approccio permette di:
- Ridurre il rischio operativo: eliminando l’incertezza sulla “pulizia” dei dati ripristinati.
- Soddisfare i requisiti DORA e NIS2: dimostrando una capacità di resilienza operativa basata su test rigorosi e ambienti segregati.
- Ottimizzare i tempi di recovery: grazie all’automazione dei processi di scansione all’interno dell’ambiente isolato, riducendo l’impatto economico del downtime.
Backup immutabile e Air Gapping logico
Nel contesto della difesa dai ransomware di nuova generazione, che mirano specificamente a criptare o eliminare i set di dati di riserva per forzare il pagamento del riscatto, il Backup immutabile e l’Air Gapping Logico sono diventati i pilastri della resilienza infrastrutturale. Questi concetti evolvono la protezione dei dati da una misura puramente “conservativa” a una vera e propria fortezza digitale.
Backup immutabile: il principio WORM
L’immutabilità del dato si basa sulla tecnologia WORM (Write Once, Read Many). Una volta che il backup viene scritto sul supporto di destinazione, una policy software rigorosa impedisce qualsiasi modifica, sovrascrittura o eliminazione per un periodo di tempo predefinito (Retention Lock), anche se l’attaccante ottiene privilegi di amministratore di sistema.
- Object Lock: nei moderni sistemi di storage a oggetti (S3-compatible), l’immutabilità viene gestita a livello di singolo oggetto. Questo impedisce ai malware che utilizzano API di cancellazione massiva di colpire l’archivio storico.
- Integrità garantita: poiché il dato non può essere alterato, l’azienda ha la certezza matematica di disporre di una versione “nativa” e non criptata da cui partire per il ripristino.
Air Gapping Logico: la separazione invisibile
Mentre l’Air Gap fisico tradizionale prevedeva il distacco manuale dei nastri magnetici, l’Air Gapping Logico utilizza l’automazione e la segregazione di rete per isolare i dati di backup dalla rete di produzione.
- Isolamento della rete: il server di backup risiede in una zona di rete (VLAN o VPC) non instradabile dalla rete aziendale standard. La comunicazione viene aperta solo per il tempo strettamente necessario al trasferimento dei dati (Data Vaulting).
- Gestione “Out-of-Band”: l’accesso alla gestione del sistema di backup avviene tramite canali separati e richiede autenticazioni multifattore (MFA) indipendenti da quelle del dominio principale (Active Directory), neutralizzando i rischi legati al furto di identità dei sysadmin.
L’integrazione di queste tecnologie permette alle organizzazioni di rispondere ai requisiti di “resilienza operativa” dettati dalle normative DORA e NIS2. Non si tratta più solo di “avere una copia”, ma di garantire che tale copia sia:
- Inattaccabile: grazie all’immutabilità.
- Invisibile: grazie all’air gapping logico.
- Ripristinabile: anche in caso di compromissione totale dell’infrastruttura primaria.
Compliance: DORA e AI Act
L’integrazione di DORA (Digital Operational Resilience Act) e dell’AI Act nel framework del backup e della gestione dati segna il passaggio definitivo dalla conformità “formale” alla resilienza operativa certificata. Per le imprese che operano nel mercato europeo, non si tratta più solo di proteggere i file, ma di garantire la continuità dei servizi digitali e l’integrità degli algoritmi secondo standard di legge rigorosi.
DORA: dalla protezione al test di resilienza
Il regolamento DORA, pur essendo nato per il settore finanziario, sta diventando il benchmark per l’intera supply chain ICT. A differenza del GDPR, che si focalizza sulla privacy, DORA impone una strategia di Business Continuity basata su prove empiriche.
- Test di ripristino obbligatori: le aziende devono dimostrare, attraverso test periodici e scenari di crisi simulati, di poter ripristinare i servizi critici entro i tempi dichiarati (RTO).
- Gestione del rischio dei terzi: il backup in cloud non esonera l’azienda dalle responsabilità. DORA impone un controllo stringente sui livelli di servizio (SLA) dei provider esterni, richiedendo strategie di uscita (exit strategies) per evitare il lock-in tecnologico in caso di fallimento del fornitore.
- Registrazione degli incidenti: ogni anomalia nel processo di backup che impatti l’operatività deve essere classificata e comunicata alle autorità competenti, rendendo la trasparenza un obbligo normativo.
AI Act: la protezione dei dataset di addestramento
L’entrata in vigore dell’AI Act introduce nuove responsabilità nella conservazione dei dati utilizzati dai modelli di Intelligenza Artificiale. Il backup diventa lo strumento per garantire la tracciabilità e la riproducibilità dei sistemi AI.
- Integrità del set di addestramento: se un modello AI prende decisioni distorte a causa di una corruzione dei dati (Data Poisoning), l’azienda deve essere in grado di risalire a una versione “pulita” e certificata del dataset originale tramite backup storici.
- Documentazione e Logging: L’AI Act richiede la conservazione dei log di addestramento e dei dati di validazione. Il sistema di backup deve quindi prevedere policy di conservazione (retention) specifiche per questi asset, garantendo che non vengano sovrascritti o eliminati prematuramente.
La sfida per il CIO moderno è creare un’unica infrastruttura che risponda a entrambi i regolamenti. La convergenza tra DORA e AI Act impone un’architettura di backup che sia:
- Auditable (verificabile): ogni operazione di salvataggio e ripristino deve produrre un log immutabile per scopi di audit.
- Resiliente per design: l’infrastruttura di backup deve essere essa stessa oggetto di analisi dei rischi, con ridondanza geografica per evitare il Single Point of Failure.
- Qualificata: la scelta dei partner tecnologici deve basarsi su certificazioni di sicurezza europee, garantendo la sovranità del dato e la conformità ai requisiti di trasparenza dell’AI Act.
AI-Driven Backup: dalla gestione alla difesa
L’integrazione dell’Intelligenza Artificiale nei sistemi di protezione dati ha trasformato il backup da una funzione di archiviazione passiva a una componente attiva e intelligente della Cyber Defense. Nel 2026, un sistema di backup privo di motori di machine learning è considerato vulnerabile, poiché incapace di reagire alla velocità dei moderni attacchi automatizzati.
Rilevamento delle anomalie e Data Entropy
La sfida principale dei ransomware moderni è la crittografia silente: il malware agisce lentamente per non attivare gli allarmi del file system. L’AI interviene monitorando l’entropia dei dati (il grado di disordine o casualità delle informazioni).
- Analisi predittiva: gli algoritmi di AI-Ops confrontano ogni nuovo backup con i modelli storici. Se rilevano un’improvvisa variazione nel tasso di cambiamento dei blocchi o una crittografia massiva imprevista, il sistema isola immediatamente il backup e blocca la replica verso il cloud.
- Early Warning: Il backup “intelligente” funge da sensore di intrusione. Spesso è proprio il software di backup il primo ad accorgersi di un attacco in corso, allertando il SOC (Security Operations Center) prima ancora che l’utente finale riscontri problemi di accesso ai file.
Intelligent tiering e ottimizzazione dei costi
L’AI non si limita alla difesa, ma ottimizza la gestione economica del dato (FinOps). Attraverso l’analisi dei pattern di accesso, il sistema decide autonomamente dove collocare le informazioni:
- Dynamic placement: i dati critici o consultati frequentemente vengono mantenuti su storage “hot” (SSD), mentre i dati storici vengono spostati su livelli “cold” o “archive” (Cloud o nastro) per ridurre i costi.
- Deduplicazione intelligente: l’AI identifica ridondanze semantiche tra dataset diversi, migliorando l’efficienza dello storage ben oltre le capacità della deduplicazione basata su blocchi fissi.
Smart recovery e orchestrazione
In caso di disastro, la pressione sul team IT è altissima. L’AI riduce il Recovery Time Objective (RTO) guidando l’operatore nella scelta del miglior punto di ripristino (Safe Restore Point).
- Scelta del punto “pulito”: invece di procedere per tentativi, l’AI indica l’ultimo snapshot sicuramente privo di infezioni, evitando cicli di ripristino fallimentari.
- Orchestrazione dei carichi: il sistema stabilisce autonomamente le priorità di ripristino, riattivando prima le applicazioni mission-critical e le relative dipendenze, garantendo la minima interruzione del business.
L’adozione di un approccio AI-First nella protezione dei dati permette alle aziende di passare da una posizione di “speranza nel ripristino” a una di “certezza della resilienza”. Per il CIO, l’AI nel backup non è più un’opzione nice-to-have, ma lo strumento indispensabile per gestire la complessità dei volumi di dati attuali e la sofisticazione delle minacce cibernetiche.
Sovranità del dato e multi-cloud backup
Il concetto di Sovranità del dato e l’adozione di strategie Multi-Cloud Backup rappresentano nel 2026 la risposta politica e tecnica alla dipendenza dai grandi hyperscaler extra-europei. Per le aziende italiane questi temi non sono più opzionali, ma requisiti fondamentali per la gestione del rischio geopolitico e la conformità normativa.
Sovranità del dato: il controllo giuridico sull’informazione
La sovranità del dato definisce il diritto di uno Stato, o di un’organizzazione, di esercitare il controllo sui dati generati all’interno dei propri confini. In ambito europeo, questo si traduce nella necessità di garantire che i backup non siano solo protetti tecnicamente, ma siano soggetti esclusivamente alla giurisdizione UE.
- Immunità alle leggi extra-UE: evitare che i dati aziendali siano soggetti a normative come il Cloud Act statunitense, che potrebbe consentire l’accesso alle informazioni da parte di autorità straniere anche se i server si trovano fisicamente in Europa.
- Il ruolo di Gaia-X e dei Cloud Nazionali: l’emergere di infrastrutture cloud sovrane e certificate permette alle aziende della Pubblica Amministrazione e delle infrastrutture critiche di archiviare le proprie copie di sicurezza in ambienti che garantiscono la massima trasparenza algoritmica e l’autonomia digitale.
Multi-Cloud Backup: la strategia Exit per eccellenza
Affidarsi a un singolo fornitore cloud (Single Vendor Lock-in) espone l’azienda a rischi sistemici: guasti massivi del provider, variazioni unilaterali dei prezzi o interruzioni del servizio per motivi geopolitici. Il Multi-Cloud Backup frammenta questo rischio distribuendo le copie su infrastrutture diverse.
- Ridondanza Cross-Provider: una strategia efficace prevede che il dato primario risieda su un provider (es. AWS), mentre il backup immutabile venga replicato su un secondo provider (es. Azure) o su un cloud provider locale specializzato.
- Interoperabilità e portabilità: utilizzare formati di backup aperti e standard (come quelli basati su container o object storage S3) garantisce che, in caso di necessità, l’azienda possa migrare i propri carichi di lavoro da un cloud all’altro senza tempi di inattività prolungati.
Portabilità e Exit Strategy nel framework DORA
La sovranità e il multi-cloud sono i pilastri tecnici per soddisfare la Exit Strategy richiesta dal regolamento DORA. Le aziende devono essere in grado di dimostrare che, qualora il loro fornitore principale diventi inaffidabile, esiste una via d’uscita tecnica immediata.
- Backup Cloud-to-Cloud (C2C): proteggere i dati delle applicazioni SaaS (come Microsoft 365 o Salesforce) eseguendone il backup su un’infrastruttura cloud terza. Questo assicura che un eventuale outage globale del fornitore SaaS non renda inaccessibili i dati storici dell’azienda.
- Latenza e Costi di Egress: la sfida del multi-cloud risiede nella gestione dei costi di trasferimento dati (egress fees). Nel 2026, le aziende vincenti sono quelle che ottimizzano questi flussi attraverso tecnologie di deduplicazione globale alla sorgente.
Cosa si rischia in azienda se non si fa il backup dei dati
Non eseguire il backup dei dati aziendali è un rischio che le aziende non possono permettersi di correre. Senza il backup, infatti, potrebbero perdere l’accesso a informazioni o file determinanti per il loro business e la competitività d’impresa.
Si pensi all’eventualità di un attacco ransomware. In tali occasioni gli hacker rendono inutilizzabili i dati sino al pagamento di un riscatto. Avere il backup dei dati significa non esporsi al rischio di interruzioni di business.
Cosa vuol dire backup in concreto: l’importanza di investire sulla sicurezza dei dati
Il backup è un processo fondamentale nel contesto della continuità del business. Copiare e ripristinare dati, database, sistemi e applicazioni, infatti, è un requisito basilare nella gestione di qualsiasi tipo di business. Ma come impostare una procedura corretta?
Inventariare e classificare: come capire quali dati proteggere
Per capire come impostare una corretta procedura di backup dei dati è necessario mappare e inventariare dispositivi, dati e processi. La classificazione, infatti, aiuta a valutare i rischi e a capire come impostare le attività di archiviazione nel modo più funzionale. Le organizzazioni devono innanzitutto chiedersi:
- A quali rischi sono soggetti i dati e i processi aziendali?
- Quali e quanti dati bisogna memorizzare?
- Quali sono i dati critici e quali riguardano invece processi non-core?
- Quale perdita di dati (RPO) è considerata tollerabile, caso per caso?
- Entro quanto tempo (RTO) vanno recuperati i dati soggetti a backup?
- Dove risiedono i dati primari e dove risiederanno quelli duplicati?
- In che modo e con che tecnologie i dati devono essere ridondati?
Definizione della strategia di backup
Le aziende devono poi decidere la frequenza dei backup e la strategia da adottare. I backup possono essere completi (copiando tutti i dati) o incrementali, che si ottengono copiando solo i dati modificati dall’ultimo back up, che a sua volta può essere completo o incrementale.
Selezione del mezzo di archiviazione
Le aziende devono decidere dove e su quali supporti archiviare le copie di backup. Questo può includere dispositivi di storage fisici, come server di rete o dispositivi di backup esterni, e soluzioni basate su cloud. Molti ambienti aziendali adottano una combinazione di mezzi per garantire la ridondanza e la sicurezza.
Implementazione del software di backup
L’utilizzo di software dedicato è fondamentale per automatizzare il processo. Questo software gestisce la pianificazione, la selezione dei file da copiare e la gestione degli archivi. Può inoltre offrire funzionalità avanzate come la compressione/deduplicazione dei dati, la crittografia e la notifica degli errori.
Ripristino d’emergenza
Oltre a creare i backup, è fondamentale disporre di piani di ripristino d’emergenza. I piani definiscono in modo analitico i passaggi da seguire per ripristinare rapidamente i dati in caso di perdita.
Crittografia e protezione degli accessi
La crittografia è un pilastro fondamentale nella protezione dei dati di backup. Codificando le informazioni in un formato illeggibile senza la chiave appropriata, si crea una barriera robusta contro accessi non autorizzati. Oltre alla crittografia, è essenziale implementare rigorose misure di controllo degli accessi.
Ciò include l’autenticazione a più fattori, la gestione delle autorizzazioni granulari e la registrazione dettagliata di tutte le attività. Combinando queste misure, si garantisce che solo le persone autorizzate possano accedere ai dati di backup, minimizzando il rischio di violazioni e garantendo la riservatezza delle informazioni anche in caso di furto o perdita dei supporti di archiviazione.
Test di ripristino regolari
I test di ripristino rappresentano una fase importante nella strategia di backup. Simulando una situazione di emergenza, permettono di verificare l’efficacia delle procedure di backup e la capacità di ripristinare i dati in tempi rapidi.
Eseguendo test regolari, è possibile individuare e risolvere eventuali problematiche prima che si verifichino eventi reali, garantendo così la continuità operativa dell’azienda.
Questi test coinvolgono il ripristino di porzioni o dell’intero set di dati di backup in un ambiente di test, consentendo di valutare i tempi di recupero, la completezza dei dati ripristinati e l’impatto sulle applicazioni. Inoltre, i test di ripristino permettono di affinare le procedure operative, di formare il personale coinvolto e di identificare eventuali carenze nella documentazione.
L’evoluzione dei sistemi di backup
Prima che il disco diventasse il principale supporto dell’archiviazione, tante organizzazioni utilizzavano librerie di unità a nastro magnetico. Per inciso, oggi la tecnologia a nastro continua ad essere utilizzata per i dati archiviati che non serve ripristinare rapidamente. Ma visto che oggi la velocità è tutto, le aziende hanno optato per le tecnologie a disco e per i backup di rete.
L’era del DAS (Direct Attached Storage)
Prima del back up di rete, su ogni server era installata un’applicazione che copiava i dati su un’unità nastro collegata localmente o su un disco rigido. Tale unità è nota come Direct-Attached storage (DAS). L’approccio di avere software e hardware di backup aziendale per ogni server era però costoso e time consuming. Il software di gestione dei backup continuava a funzionare su tanti server separati.
Le appliance di backup dedicate e gli hard disk
Con l’aumentare delle dimensioni dei file, i fornitori hanno introdotto dispositivi di backup integrati per semplificare il processo di duplicazione. Una appliance di dati integrata è essenzialmente un file server dotato di unità disco rigido (HDD) e di un software di backup dati. Questi dispositivi plug-and-play spesso includono funzionalità automatizzate per il controllo della capacità del disco, della memoria espandibile e delle librerie nastro preconfigurate.
Le aziende tipicamente eseguono il backup dei dati più importanti utilizzando appliance dedicate alla gestione dei dischi. Il software, integrato nelle appliance o in esecuzione su un server separato, gestisce il processo di copia dei dati. Tale software gestisce la deduplicazione dei dati, lavorando di ottimizzazione per ridurre la quantità di dati da archiviare. E questo applicando quelle politiche che regolano la frequenza con cui si compie il backup e il numero di copie eseguite.
Gran parte delle appliance basate su disco consente di spostare le copie dal supporto fisso al nastro magnetico per la conservazione a lungo termine. I sistemi a nastro magnetico sono utilizzati a causa dell’alta densità del nastro e del Linear Tape File System (LTFS), che consente l’accesso ai file memorizzati analogamente a quanto avviene sui dischi e le unità flash rimovibili.
Network Attached Storage (NAS)
L’introduzione dei sistemi NAS ha rappresentato una svolta nel mondo del backup. I NAS consentono di centralizzare lo storage e rendere i dati accessibili attraverso la rete locale. Questa evoluzione, resa possibile dall’incremento esponenziale delle performance di rete, ha favorito una maggiore flessibilità, migliorando la capacità di gestione delle risorse. I NAS offrono anche funzionalità avanzate, come la possibilità di configurare backup automatici e gestire le autorizzazioni di accesso in modo granulare.
Unità a stato solido (SSD)
Le unità a stato solido (SSD) hanno rivoluzionato il concetto di storage. Eliminando il movimento continuo delle piastre metalliche su cui girano i dischi HDD (Hard Disk Drive) garantiscono prestazioni nettamente superiori.
Un SSD, che lavora soprattutto a livello di memoria flash, è anche 200 volte più veloce rispetto al classico HDD. E questo su tutti i fronti: avvio del sistema, accesso/lettura/scrittura dei dati, trasferimento dei file. Questa tecnologia nasce però con dei limiti che i grandi produttori stanno superando nel corso del tempo, soprattutto in termini di costo e di ciclo di vita, tradizionalmente più breve rispetto a un disco meccanico.
Alcuni fornitori di storage includono l’SSD come strumento di caching o tiering per la gestione delle scritture con array basati su disco. I dati vengono inizialmente memorizzati nella memoria flash e quindi scritti sul disco.
Come funziona un backup
I backup dei dati acquisiscono e sincronizzano uno snapshot point-in-time (PIT), ovvero l’esatta fotografia della condizione di un sistema informativo. Essa serve per riportare il sistema allo stato precedente l’evento malevolo nel minor tempo possibile.
Le espressioni backup dei dati e protezione dei dati sono spesso usate come sinonimi. In realtà, la protezione dei dati comprende obiettivi più ampi, associati alla gestione della continuità operativa (Business Continuity) e della sicurezza/confidenzialità dei dati. Più in generale, la data protection include la gestione del ciclo di vita delle informazioni e la prevenzione di malware e virus informatici.
Di quali dati deve essere eseguito il backup e con quale frequenza?
Un processo di backup viene applicato a database critici o applicazioni a supporto delle line-of-business (LOB). Esso è governato da politiche predefinite che specificano la frequenza con cui viene eseguito il backup dei dati e il numero di copie duplicate (note come repliche).
Gli SLA (Service Level Agreement) stabiliscono la velocità di ripristino dei dati. Come già specificato, quanto più sono cruciali (mission critical) le informazioni, tanto più la frequenza dei backup potrà fare la differenza.
Le diverse tipologie di backup
Le best practice suggeriscono di pianificare un backup completo dei dati almeno una volta alla settimana. A seconda della tipologia di lavoro, l’ideale è procedere con le operazioni durante i fine settimana o fuori dell’orario lavorativo per non sovraccaricare la rete. Per integrare i backup completi settimanali, le aziende in genere pianificano questi processi secondo un criterio completo, differenziale o incrementale. Ecco le differenze:
Backup completo
Un backup completo significa attivare un processo che, ex novo, duplica completamente un intero set di dati. Sebbene sia considerato il metodo di backup più affidabile, l’esecuzione di un back up completo richiede molto tempo e impone l’uso di un numero elevato di supporti o di nastri. Diverse organizzazioni eseguono periodicamente backup completi.
Backup incrementale
Fare un backup incrementale significa generare una replica soltanto di ciò che è stato modificato rispetto all’ultimo backup. Esso, dunque, può essere generato in seguito a un backup completo (o anche in seguito a un back up incrementale). La replica si va ad aggiungere al nuovo file di backup. Lo svantaggio è che un ripristino completo richiede più tempo se una copia di backup dei dati basata su incrementali viene utilizzata per il ripristino.
Backup differenziale
Un backup differenziale è simile a un backup incrementale ma, in questo caso, quello che viene salvato sono tutti i dati modificati dall’ultimo backup completo. A differenza del backup incrementale, il back up differenziale confronterà sempre i cambiamenti rispetto all’ultimo backup completo e salverà le differenze. Richiede più spazio di un backup incrementale, ma consente di fare un ripristino completo più rapidamente.
Lo svantaggio è che la crescita progressiva dei backup differenziali tende a influenzare negativamente la finestra di backup. Un backup di questo tipo, infatti, genera un file combinando una sua copia completa precedente con una o più copie incrementali create dopo. Il file assemblato non è una copia diretta di un singolo file corrente o precedentemente creato ma, piuttosto, è una sintesi del file originale che si porta dietro ogni successiva modifica.
Backup sintetico completo
Il backup completo sintetico è una variante del backup differenziale nella quale il server di backup produce una copia completa aggiuntiva. Quest’ultima si basa sul backup completo originale e sui dati ricavati da copie incrementali.
Backup completo e copie incrementali
In questo caso la strategia di backup è di tipo granulare. In pratica, il software crea la prima volta una cartella con la copia completa di tutti i file. In seguito, vengono create delle copie incrementali numerate, contenenti solo le modifiche rispetto all’ultima esecuzione. I backup incrementali riducono al minimo la finestra di backup, garantendo un accesso più veloce al ripristino. Realizzati in modalità always on, essi catturano l’intero set di dati. L’operazione realizzata solo su blocchi modificati è nota anche come differenza Delta. I back up completi dei set di dati vengono generalmente memorizzati sul server, che automatizza il ripristino.
Backup incrementali inversi
I backup incrementali inversi, invece, sono modifiche effettuate tra due istanze di un mirror (ovvero di quella fotografia di un certo data set in un certo arco di tempo). Una volta eseguito un backup completo iniziale, ogni passo incrementale successivo applica modifiche all’esistente. Ciò genera in sostanza una nuova copia ogni volta sia applicata una modifica.
Backup dinamico (o “a caldo”)
Il backup a caldo, o backup dinamico, viene applicato ai dati che rimangono disponibili per gli utenti mentre l’aggiornamento è in corso. Questo metodo evita i tempi di inattività degli utenti e la perdita di produttività. Il rischio è che, se i dati vengono modificati mentre l’attività è in corso, la copia risultante potrebbe non corrispondere allo stato finale.
Backup locali
In questo caso vengono inserite copie di dati su HDD esterni o sistemi di nastri magnetici, generalmente alloggiati in un data center locale o situati nei suoi pressi. I dati vengono trasmessi su una connessione di rete protetta ad elevata larghezza di banda o su una intranet aziendale. Un vantaggio del backup locale è la possibilità di eseguire il backup dei dati dietro un firewall di rete. Il backup locale è anche molto più veloce e offre un maggiore controllo su chi può accedere ai dati.
Backup offline
È simile al backup locale, sebbene sia più spesso associato a quello di un database. Questa opzione comporta tempi di inattività poiché il processo si verifica mentre il database viene disconnesso dalla sua rete.
Backup off-site
Il backup esternalizzato è un approccio secondo cui è possibile trasmettere le copie dei dati a un sito remoto, che può essere un data center secondario così come una soluzione di colocation. Sempre più spesso questa opzione equivale a un servizio di storage su cloud basato su abbonamento, che fornisce una capacità scalabile a basso costo (BaaS). Tale scelta elimina la necessità del cliente di acquistare e mantenere l’hardware di backup.
Backup as a Service
Scegliere il Backup as a Service – BaaS vuol dire fruire di una capacità scalabile a basso costo ed elimina la necessità del cliente di acquistare e mantenere l’hardware di supporto. Nel BaaS il cloud viene utilizzato come infrastruttura di protezione dei dati.
Il backup in cloud è una procedura di salvataggio efficiente e veloce, che permette di copiare (e ripristinare) i dati di singoli file, macchine virtuali o interi sistemi IT garantendo elevate performance a fronte di un investimento iniziale pressochè nullo (il modello as a service porta con sé una tariffazione periodica legata all’effettivo uso delle risorse). l BaaS è comunque impegnativo per l’azienda perché richiede agli utenti di crittografare i dati e attivare una serie di contromisure per salvaguardare la loro integrità.
Backup in cloud: pubblico, privato o ibrido?
Il backup in cloud può essere attivato scegliendo un modello di cloud pubblico, privato o ibrido.
Archiviazione dei dati su cloud pubblico
Scegliendo questa opzione, gli utenti spediscono i dati a un provider di servizi cloud, pagando un canone mensile in base allo spazio di archiviazione consumato. Quello che bisogna sapere è che ci sono dei costi aggiuntivi per l’ingresso e l’uscita dei dati.
Amazon Web Services (AWS), Google Cloud e Microsoft Azure sono i più grandi provider di cloud pubblici. Molti cloud provider minori e fornitori di servizi gestiti (MSP) ospitano backup sui propri cloud o gestiscono i backup dei clienti sui grandi cloud pubblici.
Archiviazione di dati su cloud privato
Nell’opzione cloud privato il backup dei dati è eseguito su diversi server all’interno del firewall di un’azienda, in genere tra un data center locale e un sito di disaster recovery secondario. Per questo motivo, lo storage del cloud privato viene talvolta definito storage di cloud interno.
L’opzione del cloud ibrido
Optando per il cloud ibrido, infine, è possibile utilizzare sia uno storage locale che uno storage off-site. Le aziende utilizzano abitualmente uno storage in cloud pubblico in modo selettivo per l’archiviazione dei dati e la conservazione a lungo termine, mentre l’archiviazione privata è associata alla garanzia di un accesso rapido ai dati più importanti.
Buona parte dei fornitori di backup consente di eseguire il backup delle applicazioni locali su un cloud privato dedicato. Ciò è possibile trattando questa operazione come un’estensione del data center fisico di un cliente. Quando questo processo consente alle applicazioni di eseguire il failover e di riattivarsi, si parla di disaster recovery come servizio (DRaaS).
Backup cloud-to-cloud
Il backup C2C è un approccio alternativo che sta progressivamente affermandosi tra le organizzazioni. Questo approccio protegge i dati su piattaforme SaaS (Software as a Service) come Salesforce o Microsoft Office 365. Il C2C funziona copiando i dati SaaS su un altro cloud, da dove avviene il ripristino. Usando questo approccio i dati spesso esistono solo nel cloud e i fornitori SaaS richiedono tariffe elevate per ripristinare i dati persi dal cliente.
Storage di backup per PC e notebook
Nell’era del BYOD (Bring Your Own Device), ossia la possibilità di portare in azienda i propri dispositivi elettronici come notebook, PC e smartphone, il backup riguarda anche personalmente i dipendenti e i collaboratori. Gli utenti possono considerare il salvataggio locale in un disco rigido esterno o un supporto ottico rimovibile, ma il tutto deve essere allineato alle misure di sicurezza definite nelle policy aziendali.
Storage di backup per dispositivi mobili
Chi gestisce l’enterprise mobility deve giocare di anticipo sugli utenti, onde evitare la proliferazione dello shadow IT. Oggi fare il backup del cellulare e tablet tramite l’archiviazione cloud personale è diventato un task all’ordine del giorno. Non solo: dipendenti e collaboratori si appoggiano a fornitori quali Box, Carbonite, Dropbox, Google Drive, Microsoft OneDrive e altri. Essi offrono una certa capacità gratuitamente e poi la possibilità di acquistare spazio aggiuntivo in base alle esigenze.
A differenza del cloud storage aziendale come servizio, queste offerte cloud per il backup del cellulare e tablet generalmente non forniscono il livello di sicurezza richiesto dalle aziende. Qui l’IT deve lavorare a livello di cultura aziendale, condividendo criteri di sicurezza e gestione.
Tecniche e tecnologie di protezione: cosa significa CDP
La protezione continua dei dati (CDP – Continuous Data Protection) è un concetto molto interessante nell’ambito del backup professionale. Un sistema di archiviazione basato su CDP esegue il backup di tutti i dati aziendali ogni volta ci sia una modifica. Gli strumenti di un CDP consentono di creare più copie di dati, e molti sistemi contengono un motore integrato che replica i dati da un server primario a uno secondario e/o da uno storage su nastro. Il backup da disco a disco su nastro (D2D2T) è un’architettura molto comune per i sistemi CDP.
Il near-continuous CDP acquisisce istantanee di backup a intervalli prestabiliti. Le istantanee sono acquisite ogni volta che i nuovi dati vengono scritti nella memoria.
Come ridurre il footprint dello storage
La riduzione dei dati riduce il footprint dello storage. Esistono due metodologie principali: la compressione e la deduplicazione dei dati. Di solito le aziende usano questi metodi singolarmente, ma i venditori sono invece soliti combinare i due approcci. Ridurre la dimensione dei dati ha delle implicazioni rispetto alle finestre di backup e ai tempi di ripristino.
La clonazione del disco
La clonazione del disco implica la copia dei contenuti del disco rigido di un computer, salvandolo come file immagine e trasferendolo su un supporto di memorizzazione. Essa può essere utilizzata per il provisioning e il ripristino del sistema, così come per il riavvio.
Erasure coding
Erasure coding o codifica di cancellazione, detta anche FEC (Forward Error Correction) è una tecnica evoluta come alternativa scalabile ai sistemi RAID tradizionali.
La codifica della cancellazione il più delle volte è associata alla memorizzazione a oggetti. Il RAID traccia le scritture di dati su più unità, utilizzando un’unità di parità per garantire ridondanza e resilienza. La tecnologia suddivide i dati in porzioni frammentate e li codifica con altri bit di dati ridondanti. Questi frammenti codificati sono memorizzati su diversi supporti di memorizzazione, nodi o posizioni geografiche. I frammenti associati vengono utilizzati per ricostruire i dati danneggiati. A tal fine si usa una tecnica nota come sovracampionamento.
Backup flat
Il backup flat è uno schema di protezione dei dati in cui si sposta la copia di un’istantanea in una memoria a basso costo senza usare software tradizionale. L’istantanea originale conserva il suo formato e la sua posizione nativi. Nel caso in cui l’originale sia non disponibile o diventi inutilizzabile viene richiamata la replica di back up.
Mirroring e replica
Il mirroring posiziona i file dei dati su uno o più server, garantendo l’accessibilità agli utenti. Nel mirroring sincrono i dati vengono scritti contemporaneamente su disco locale e remoto. Le scritture dalla memoria locale sono irriconoscibili finché non si invia una conferma dalla memoria remota. Così si garantisce che i due siti abbiano una copia identica dei dati. Le scritture locali asincrone sono complete prima che la conferma venga inviata dal server remoto.
La replica consente agli utenti di definire il numero di repliche o copie dei dati necessarie per sostenere le operazioni aziendali. Replicare i dati vuol dire copiare i dati da una posizione all’altra, fornendo una copia aggiornata per accelerare il disaster recovery.
Ripristino istantaneo
Il recovery-in-place o ripristino istantaneo, consente agli utenti di eseguire temporaneamente un’applicazione di produzione da un’istanza VM di backup. Si mantiene così la disponibilità dei dati mentre viene ripristinata la VM principale. Il montaggio di un’istanza fisica o VM direttamente su un server di back up o multimediale accelera il ripristino a livello di sistema.
Gli storage snapshot
Gli storage snapshot, ovvero le istantanee di archiviazione, acquisiscono un set di marcatori di riferimento su disco per un dato database. Gli utenti fanno riferimento agli indicatori o ai puntatori per ripristinare i dati da un punto rispetto all’arco di tempo selezionato. Poiché deriva da un volume di origine sottostante, una singola istantanea è un’istanza, non un backup completo. Pertanto, le istantanee non proteggono i dati dai possibili guasti a livello di hardware.
Le istantanee sono generalmente raggruppate in tre categorie: blocco modificato, cloni e CDP. Esse sono apparse per la prima volta come strumento di gestione all’interno di un array di archiviazione. L’avvento della virtualizzazione ha aggiunto istantanee basate sugli hypervisor. Le istantanee possono anche essere implementate dal software di backup o tramite una VM.
Gestione delle copie, sincronizzazione e condivisione dei file
Correlata al backup rientra anche tutta la gestione dei dati di copia (CDM – Copy Data Management). Il software si occupa di fornire una panoramica delle copie di dati possibili consentendo a gruppi di utenti di lavorare su una copia comune. Sebbene non sia una tecnologia di back up, CDM consente di gestire efficientemente le copie dei dati identificando quelle superflue. Ciò riduce la necessità di archiviazione e le finestre di back up.
Gli strumenti di sincronizzazione e condivisione dei file proteggono i dati sui dispositivi mobili utilizzati dai dipendenti. Questi strumenti sostanzialmente copiano file utente modificati tra dispositivi mobili. Sebbene questo protegga i file di dati, non consente di tornare a un determinato punto nel tempo in caso di guasti.
Come scegliere quale backup utilizzare
Al momento di decidere quale tipo utilizzare, è necessario fare alcune valutazioni. Le aziende utilizzano comunemente diverse strategie e, come ricordano gli esperti da più parti, è necessario associare ogni specifica strategia a una serie di SLA. Questi devono tener conto delle modalità di accesso e di disponibilità dei dati, ma anche del Recovery Point Objective (RPO) e del Recovery Time Objective (RTO). RPO e RTO, infatti, sono due parametri molto specifici strettamente associati con le attività di ripristino.
Creazione di una policy di backup
Molte aziende creano delle policy per gestire efficientemente i tempi, i modi e le tipologie di protezione dei dati. Così facendo, tali realtà garantiscono un backup coerente e regolare. La politica di back up crea anche una lista di controllo che l’IT può monitorare e seguire.
La creazione di una policy in quest’ambito è una preziosa opportunità, dato che l’IT è responsabile della protezione dei dati critici e che la loro tutela è fondamentale per non incorrere in problematiche di natura regolamentare, contrattuale e reputazionale.
Il costo del backup
Il costo del backup è un fattore da considerare per ogni azienda. Può variare significativamente a seconda di diversi fattori, tra cui la quantità di dati da proteggere, la frequenza dei backup, le tecnologie utilizzate e i servizi aggiuntivi richiesti.
I costi possono includere l’acquisto e la manutenzione dell’hardware, i software di backup, i servizi di consulenza e i costi operativi. Inoltre, è importante considerare i costi indiretti, come quelli associati alla perdita di dati in caso di mancato funzionamento del sistema di backup.
Fattori che influenzano il costo del backup
- Quantità di dati: maggiore è la quantità di dati da proteggere, maggiori saranno i costi di storage e di banda.
- Frequenza dei backup: più sono frequenti più comportano un maggiore utilizzo delle risorse e, di conseguenza, costi più elevati.
- Tipologia di backup: backup completi, incrementali o differenziali hanno costi diversi a seconda della quantità di dati da copiare.
- Tecnologia utilizzata: l’utilizzo di tecnologie più avanzate, come il deduplication o la compressione dei dati, può ridurre i costi di storage, ma comporta costi iniziali più elevati.
- Servizi aggiuntivi: servizi come la replica dei dati, il disaster recovery e la protezione contro i ransomware possono aumentare i costi.
- Fornitore di servizi: costi possono variare significativamente a seconda del fornitore di servizi di backup scelto.
Come ottimizzare i costi di backup aziendale
- Valutare le esigenze reali: identificare i dati più critici e definire una strategia di backup mirata, evitando di proteggere dati non necessari.
- Sfruttare la deduplicazione e la compressione: queste tecnologie consentono di ridurre significativamente la quantità di dati da archiviare.
- Utilizzare storage a basso costo: per i dati a lungo termine, è possibile utilizzare storage a basso costo, come i nastri magnetici o il cloud storage a freddo.
- Pianificare i backup in orari di basso utilizzo: ridurre l’impatto sui sistemi produttivi e ottimizzare l’utilizzo delle risorse di rete.
- Confrontare i fornitori di servizi: richiedere preventivi a diversi fornitori per trovare la soluzione più conveniente.
- Considerare il cloud: il backup in cloud può offrire una maggiore flessibilità e scalabilità, con costi variabili in base all’utilizzo.
- Automatizzare i processi: l’automatizzazione dei processi di backup può ridurre i costi operativi e minimizzare il rischio di errori umani.
Innovazioni tecnologiche nel backup: dall’AI all’hardware avanzato
Negli ultimi anni, il panorama del backup dei dati ha visto l’introduzione di tecnologie innovative sia in ambito hardware che software, con un ruolo crescente dell’intelligenza artificiale (AI). Queste innovazioni mirano a migliorare l’efficienza, la sicurezza e la resilienza dei sistemi di protezione dei dati, rispondendo alle esigenze di aziende e organizzazioni che gestiscono volumi sempre più ingenti di informazioni critiche.
L’intelligenza artificiale al servizio del backup
L’AI sta rivoluzionando le strategie di backup attraverso diversi approcci avanzati:
- Automazione intelligente
L’intelligenza artificiale permette di automatizzare i processi di backup, riducendo al minimo l’intervento umano. Algoritmi avanzati analizzano l’utilizzo dei dati in tempo reale e regolano automaticamente la frequenza e la modalità di esecuzione dei backup in base a parametri dinamici, come la criticità del dato, il livello di accesso o il rischio di perdita. Questo approccio riduce il consumo di risorse IT e garantisce una maggiore tempestività nei ripristini in caso di necessità. - Deduplica e compressione avanzata dei dati
Uno dei problemi più rilevanti nei sistemi di backup è la duplicazione dei dati, che aumenta il consumo di spazio di archiviazione. Gli algoritmi basati su AI e machine learning identificano automaticamente i blocchi di dati ridondanti, eliminandoli o comprimendoli in modo selettivo. Le moderne tecnologie di deduplica basata sul contenuto riescono a ridurre fino all’80% lo spazio di storage richiesto, migliorando l’efficienza senza compromettere la velocità di accesso ai dati. - Gestione predittiva e prevenzione dei guasti
L’AI consente di prevedere potenziali guasti nei sistemi di archiviazione, monitorando metriche critiche come latenza di accesso, errori nei settori del disco e trend di utilizzo dello storage. Grazie a modelli predittivi, il sistema può segnalare la necessità di sostituzioni hardware prima che si verifichi un guasto, evitando perdite di dati improvvise e riducendo i costi operativi legati a emergenze di ripristino.
Evoluzione dell’hardware per il backup
Parallelamente, il settore hardware ha visto lo sviluppo di nuove tecnologie per migliorare l’affidabilità e la capacità dei sistemi di backup:
- Dischi ad elio (Helium-Filled HDDs)
I dischi rigidi riempiti di elio rappresentano un significativo avanzamento rispetto ai tradizionali HDD riempiti d’aria. L’elio riduce la resistenza interna, il calore e il consumo energetico, consentendo di aumentare la densità dei piatti magnetici e migliorare l’affidabilità nel lungo termine. Grazie a questa tecnologia, i moderni hard disk enterprise possono raggiungere capacità superiori a 20 TB, ideali per ambienti di backup su larga scala e data center con elevati requisiti di storage. - Archiviazione su DNA
Tra le tecnologie più futuristiche in fase di sperimentazione, l’archiviazione su DNA sintetico promette di rivoluzionare il concetto di storage. Il DNA ha una densità di archiviazione milioni di volte superiore rispetto agli attuali supporti magnetici, permettendo di conservare petabyte di dati in uno spazio microscopico. Inoltre, il DNA ha una durata potenziale di migliaia di anni, eliminando i problemi di deterioramento tipici degli attuali supporti. Sebbene i costi siano ancora proibitivi, nei prossimi decenni questa tecnologia potrebbe rappresentare una soluzione per l’archiviazione a lunghissimo termine di dati critici. - Archiviazione ottica 5D
La tecnologia di storage ottico 5D utilizza nanostrutture in cristalli di quarzo per memorizzare dati in cinque dimensioni. Rispetto ai DVD o ai Blu-ray, questo sistema offre una capacità di 360 TB per singolo disco, con una durata stimata di oltre 13 miliardi di anni. Questa soluzione è particolarmente indicata per l’archiviazione di documenti storici, dati scientifici e backup di archivi digitali che devono rimanere accessibili per secoli o millenni.
Anche nell’ambito del backup la continua evoluzione tecnologica sta ridefinendo gli obiettivi di sicurezza, scalabilità e resilienza dei dati aziendali. Dalle sperimentazioni alle possibili implementazioni, i laboratori di ricerca e sviluppo dei brand stanno esplorando nuove strade che oggi possono sembrare futuristiche. Ma l’innovazione più dirompente è proprio quella capace di immaginare ciò che non c’è ancora.
FAQ: backup
Cos’è il backup dei dati e perché è importante per la sicurezza informatica?
Il backup dei dati è il processo di creazione di copie di sicurezza di file, database o sistemi informatici, con lo scopo di poterli ripristinare in caso di perdita o danneggiamento. Rappresenta uno dei pilastri fondamentali della business continuity aziendale, insieme al disaster recovery. L’importanza del backup per la sicurezza informatica è cruciale poiché consente di recuperare i dati in caso di incidenti come attacchi ransomware, guasti hardware, errori umani o catastrofi naturali. Senza un sistema di backup efficace, le aziende rischiano di perdere informazioni vitali, subire interruzioni operative e compromettere la propria competitività sul mercato.
Quali sono i diversi tipi di backup e come si differenziano tra loro?
Esistono diversi tipi di backup dei dati che si differenziano per metodologia e frequenza:
1. Backup completo: duplica interamente un set di dati, offrendo la massima affidabilità ma richiedendo più tempo e spazio di archiviazione.
2. Backup incrementale: salva solo i dati modificati rispetto all’ultimo backup (completo o incrementale), riducendo tempi e spazio necessari, ma rendendo più complesso il ripristino.
3. Backup differenziale: archivia tutti i dati modificati dall’ultimo backup completo, occupando più spazio di un incrementale ma consentendo un ripristino più rapido.
4. Backup sintetico: combina un backup completo precedente con copie incrementali successive, creando una nuova copia completa senza dover eseguire nuovamente l’intero processo.
La scelta tra questi metodi dipende dalle esigenze specifiche di RPO (Recovery Point Objective) e RTO (Recovery Time Objective) dell’organizzazione.
Qual è la regola 3-2-1-1-0 per i backup e perché è importante seguirla?
La regola 3-2-1-1-0 è un’evoluzione della tradizionale regola 3-2-1 e rappresenta una best practice moderna per la protezione dei dati:
– 3: mantenere almeno tre copie dei dati (l’originale più due backup)
– 2: utilizzare due diversi tipi di supporti di archiviazione
– 1: conservare una copia off-site (geograficamente distante)
– 1: mantenere una copia offline con air gap (isolata dalla rete)
– 0: verificare che i backup non contengano errori
Questa regola è fondamentale perché fornisce multiple linee di difesa contro diverse minacce: i backup su supporti differenti proteggono da guasti hardware, la copia off-site salvaguarda dai disastri locali, mentre l’air gap protegge specificamente da ransomware e attacchi informatici. La verifica dei backup garantisce che, in caso di necessità, il ripristino funzioni correttamente, evitando sorprese durante un’emergenza.
Come funziona il backup su cloud e quali sono i suoi vantaggi rispetto ai metodi tradizionali?
Il backup su cloud consiste nell’inviare copie dei dati a server remoti accessibili via internet, gestiti da provider di servizi cloud. Durante il processo, i dati vengono copiati, crittografati, trasferiti e archiviati su server distribuiti in diverse posizioni geografiche.
Rispetto ai metodi tradizionali, offre numerosi vantaggi:
– Accessibilità: i dati sono disponibili da qualsiasi luogo con connessione internet
– Scalabilità: possibilità di aumentare facilmente lo spazio di archiviazione in base alle necessità
– Costi prevedibili: modello di abbonamento invece di investimenti hardware
– Protezione geografica: i dati sono archiviati in location diverse, riducendo i rischi di perdita per disastri locali
– Automazione: backup programmati che riducono gli errori umani
– Resilienza: infrastruttura ridondante che minimizza i rischi di perdita dati
Tuttavia, è importante implementare adeguate misure di sicurezza come la crittografia e valutare attentamente il provider in termini di affidabilità e conformità normativa.
Quali sono le differenze tra backup su disco e backup su nastro?
Il backup su disco e su nastro presentano differenze significative in termini di prestazioni, costi e casi d’uso:
Backup su disco:
– Velocità: offre tempi di backup e ripristino nettamente più rapidi
– Accessibilità: permette un’indicizzazione e ricerca dei file più efficiente
– Facilità d’uso: consente un accesso casuale ai dati senza dover scorrere sequenzialmente
– Costi: più elevati per unità di storage, soprattutto per grandi volumi di dati
– Consumo energetico: richiede alimentazione continua anche quando non in uso
Backup su nastro:
– Costi: più economico per l’archiviazione di grandi volumi di dati a lungo termine
– Longevità: i supporti hanno una vita utile più lunga (15-30 anni)
– Portabilità: facile da trasportare e conservare off-site
– Consumo energetico: nullo quando non in uso (i nastri non richiedono elettricità)
– Velocità: accesso sequenziale più lento, specialmente per il recupero di file specifici
Molte organizzazioni adottano una strategia ibrida, utilizzando il disco per backup a breve termine che richiedono accesso frequente, e il nastro per l’archiviazione a lungo termine di grandi volumi di dati.
Come verificare che i backup funzionino correttamente e siano pronti per il ripristino?
Per garantire che i backup funzionino correttamente, è essenziale seguire queste procedure di verifica:
1. Eseguire test di ripristino regolari, almeno ogni quattro mesi, per confermare che i dati siano effettivamente recuperabili.
2. Implementare test realistici che simulino scenari di ripristino completi, non limitandosi a verifiche automatiche del software di backup.
3. Testare l’intera catena di backup, inclusi tutti i componenti hardware e software coinvolti nel processo di ripristino.
4. Verificare che il personale tecnico sia adeguatamente formato e che la documentazione sia completa e aggiornata.
5. Controllare tutti i livelli del sistema di backup, inclusi backup incrementali, differenziali e completi.
6. Verificare la conformità normativa del recovery, assicurandosi di poter recuperare specifici file, log o email richiesti per requisiti legali o di compliance.
Queste verifiche regolari sono fondamentali per evitare sorprese durante un’emergenza reale e garantire la business continuity.
Perché è importante utilizzare la crittografia per i backup e come implementarla correttamente?
La crittografia dei backup è essenziale per aggiungere un ulteriore livello di protezione contro furti di dati, accessi non autorizzati e attacchi informatici. I backup non crittografati rappresentano un punto vulnerabile, poiché contengono copie complete di dati sensibili che potrebbero essere facilmente accessibili se compromessi.
Per implementare correttamente la crittografia dei backup:
1. Utilizzare algoritmi di crittografia robusti e standard di settore per proteggere i dati sia in transito che a riposo.
2. Implementare una gestione sicura delle chiavi di crittografia, evitando di utilizzare una singola chiave per tutti i dati e creando chiavi separate per blocchi distinti di dati.
3. Stabilire procedure rigorose per la conservazione e il recupero delle chiavi, poiché la perdita delle stesse renderebbe i backup inutilizzabili.
4. Assicurarsi che la crittografia sia compatibile con i requisiti normativi come GDPR, HIPAA o PCI DSS, che spesso richiedono specificamente la protezione dei dati sensibili.
5. Testare regolarmente il processo di decrittazione per verificare che i dati possano essere recuperati quando necessario.
La crittografia dei backup, sebbene comporti un certo overhead computazionale, è un investimento essenziale per la sicurezza complessiva dei dati aziendali.
Quali sono le strategie di protezione contro il ransomware che coinvolgono i backup?
Una strategia efficace di protezione contro il ransomware deve includere backup robusti come componente fondamentale. Gli esperti raccomandano l’adozione della strategia 3-2-1-1:
1. Mantenere almeno tre copie dei dati (l’originale più due backup)
2. Utilizzare due diversi tipi di supporti di archiviazione
3. Conservare una copia off-site (geograficamente distante)
4. Mantenere una copia immutabile o con air gap (isolata dalla rete)
L’elemento cruciale è la copia immutabile o con air gap, che impedisce agli attaccanti di compromettere tutti i backup contemporaneamente. Un backup con air gap è fisicamente o logicamente isolato dalla rete principale, rendendo impossibile per il malware criptare o danneggiare queste copie.
Altre strategie complementari includono:
– Implementare backup frequenti per minimizzare la perdita di dati
– Testare regolarmente i processi di ripristino
– Utilizzare soluzioni di backup che includano rilevamento di anomalie basato su AI
– Combinare backup locali e cloud per massimizzare la resilienza
– Crittografare i backup per proteggere i dati sensibili
Questo approccio stratificato garantisce che, anche in caso di attacco ransomware riuscito, l’organizzazione possa recuperare i propri dati senza pagare il riscatto.










