S.M.C.P. - Consulenza informatica bergamo

Soluzioni informatiche - Sviluppo software - Web Marketing    

 
S.M.C.P. - Consulenza informatica bergamo
24044 Dalmine (Bergamo) - Via Olimpiadi 2
Tel. +39.035.373856 - Fax. +39.035.4150492
Cerca   
Menu

Deduplicazione nello storage: Come funziona e quanto fa risparmiare

Con il termine “deduplicazione” si fa riferimento ad un algoritmo in cui ogni informazione viene scomposta in elementi o blocchi e successivamente confrontata con un record di dati precedentemente archiviati al fine di identificarne una possibile ripetizione o ridondanza. L’obiettivo è quello di rimuovere la ridondanza di informazioni all’interno di un insieme di dati al fine di rendere più semplice, veloce ed economico il salvataggio delle stesse su unità di backup.
Questo processo può avvenire prima (online) o dopo che il dato è stato scritto nello sistema di storage dedicato al backup.
Si parla di deduplicazione inline quanto queste procedure vengono eseguite in tempo reale cioè mentre l’informazione viene letta per la successiva scrittura sull’unità di backup. Il processo di deduplicazione può avvenire, in alcune circostanza, anche successivamente che i dati hanno subito il backup su disco e quindi successivamente al processo di backup.
In generale la deduplicazione in tempo reale impegna in modo intensivo le Cpu in quanto, gli algoritmi che analizzano i dati in arrivo, devono analizzare in tempo reale l’informazione ed eliminare le duplicazioni prima che i dati finali siano scritti sui dispositivi di backup.


Maggiore è la quantità di dati che deve essere gestita nell’unità di tempo e maggiore è la potenza richiesta all’unità centrale. Ma una volta che i dati sono scritti su disco in forma ottimizzata, il processo di replica verso un altro sito (delocalizzazione) può iniziare subito dopo il completamento del job di backup.
Quanto invece l’analisi sui dai prende avvio al termine del job di backup, i dati non ancora ottimizzati sono scritti in un’area di cache e su di essi il motore di deduplicazione applica i suoi algoritmi di ottimizzazione.
Il vantaggio di questo tipo di procedura risiede nel fatto che, poiché il processo di ottimizzazione viene avviato a backup concluso, non ci sono rallentamenti nelle operazioni di backup che pertanto possono andare avanti con la massima velocità: una possibilità importante in quegli ambienti in cui le cosiddette finestre temporali di backup sono limitate. L’unico accorgimento è che il processo di deduplicazione deve essere finito prima che sia dato il via al backup successivo. In questo caso bisogna predisporre le necessarie capacità di storage per contenere i dati sia nella forma preottimizzata sia nella loro forma ottimizzata. Nel caso di soluzioni di tipo enterprise questo significa predisporre diversi terabyte di capacità.

L’algoritmo di deduplicazione può agire con livelli di granularità diversa. A livello di file le istanze multiple di uno stesso file possono verranno ridotte a una sola, ma se due file grandi sono diversi anche di un solo byte saranno memorizzati come due file diversi. La deduplicazione a livello di blocco permette al motore di ottimizzazione di esaminare i contenuti di ogni file per individuare gli elementi comuni o duplicati. Se i file sono simili, pensiamo a un file di Office, una deduplicazione a livello di blocco registrerà una sola istanza degli elementi comuni dei file. La riduzione dei dati ridondanti è più efficiente, ma ciò avviene a spese di un maggiore dispendio di risorse al livello di Cpu e di I/O.

Si arriva così allo scopo ultimo del processo di duplicazione: la riduzione dell’occupazione spazio dei dati. Ovviamente il fattore di riduzione varia in funzione di:

  • tipo di dato processato
  • la quantità di modifiche
  • le caratteristiche dell’algoritmo di deduplicazione

A sua volta la compressione dipende anche dal tipo di backup che viene effettuato. Nel caso di dati strutturati, come i data base , un backup viene eseguito in maniera totale ogni giorno. In questo caso una deduplicazone a livello di blocco può arrivare a compressione di 50 volte. Tuttavia se i dati sono misti, strutturati e non strutturati, una aspettativa realistica riguarda un rapporto di compressione da 10 fino a 20 a uno.
L’implicazione pratica per l’utente è che una tecnologia di deduplicazione consente la protezione di un analoga quantità di maggiore informazione sullo stesso sistema fisico di storage.

SMCP Technology è in grado di fornirvi la migliore consulenza per le problematiche relative ai backup, alla delocalizzazione, alla deduplicazione dei dati e alle soluzioni di Backup Disk2Disk, affidandosi ai prodotti dei pricipali leader mondiali quali EMC, HP, Sun, DoubleTake.

     
EMC-AVAMAR
Datasheet
     

 


 
Ricerche rapide
portali aziendali ASSISTENZA BERGAMO assistenza mago sviluppo software ipad software per EDI monitoring bergamo VMWARE BERGAMO bergamo informatica sviluppo siti backup bergamo sistemi informatici Kaspersky Security Netuitive bergamo SOFTWARE JAVA AGENZIA obsoleti bergamo BERGAMO CONSULENZA ASSISTENZA TECNICA MI assistenza tecnica bg harpax bergamo Astaro bergamo REALIZZAZIONE SITI WEB debian bergamo siti ecommerce consulenti linux ASSISTENZA WINDOWS 7 BERGAMO linux bergamo SOFTWARE ESTERO xerox bergamo virtualizzazione bergamo antispam bergamo
 



 
Novità
SMCP Technology distribuisce V...
RANSONWARE e CRYPTOLOCKER
Virtualizza i tuoi client wind...
Cataloghi prodotti su Iphone e...
Realizzazione ponti radio DATI
Ticket system per centri suppo...
Sviluppo applicazioni per iPho...
Consulenza sistemi Debian
Realizzazione Siti web Bergamo
Windows Server 2008