Backup jako podstawowe zadanie zabezpieczenia danych przeżywa swój rozkwit. A to za sprawą deduplikacji i co ciekawsze wirtualizacji.
Producenci prześcigają się w tworzeniu coraz to lepszych algorytmów deduplikacyjnych, które z ogromnej ilości danych wybierają tylko to, co jest unikalne, indeksując pozostałość i z wielkiej góry mamy małe pudełko, w którym jest wszystko, co potrzebne. I jest to, można powiedzieć, kompresja bezstratna.
Oprócz tego, że nie potrzebne jest natywnie tyle przestrzeni dodatkowej ile danych, to zysk jest jeszcze w zdecydowanie mniejszej ilości danych przesyłanych przez sieć. Deduplikator zapisuje tylko to, co jest nowe i unikalne, coś czego jeszcze nie ma w swoim repozytorium. Czyli same korzyści.
Jednakże backup jest systemem, który jest ubezpieczeniem – a za sprawą deduplikacji i wirtualizacji staje się on coraz mniej kosztowny. Stosowane obecnie systemy backupowe można podzielić na kilka typów: deduplikujące, taśmowe i natywne, i oczywiście dowolna kombinacja tych trzech możliwości.
Deduplikacja nie wyklucza nam systemu, w których część danych jest natywnie zapisywana na nośniki taśmowe czy dyskowe, a taśmowe nie wykluczają deduplikacji na urządzenie dyskowe lub deduplikatory. Przy backupie serwerów istotne są trzy zagadnienia: czy to środowisko wirtualne czy fizyczne, czy mieszane. Dla każdego takiego typu rozwiązanie trzeba dobrać z odpowiednią dozą uwagi. Nie ma jednego rozwiązania na wszystko – chociaż niektórzy producenci tak czasami w swoim marketingu sugerują.
Mając środowisko fizyczne – trzeba dobrać rozwiązanie albo pojemnościowe albo agentowe w zależności od tego co bardziej nam się opłaca. W środowisku wirtualnym – najczęściej istotna jest ilość maszyn/hostów, na których uruchomione są maszyny wirtualne. Przy backupie środowisk wirtualnych – możemy mieć za jednym zamachem kopie systemów typu disaster recovery, coś co w przypadku backupu agentowego było/jest osobnym procesem, który należało zaplanować. Przy projektowaniu rozwiązania dla środowisk serwerowych – czy to fizycznych czy wirtualnych mamy ułatwione zadanie, gdyż serwerownie zazwyczaj mają najlepsze urządzenia sieciowe, serwery są w jednym miejscu lub w skupiskach – w przypadku środowisk rozproszonych, co umożliwia z dużą dozą prawdopodobieństwa oszacowanie na przykład czasu wykonywania backupu przy zadanej ilości danych.
Sam dobór rozwiązania zależy głównie od wykorzystywania kopii backupowych, częstości ich wykonywania, wielkości i typu środowiska.