Co roku tysiące użytkowników komputerów traci zawartość swojego sprzętu.

W 2014 roku w korporacjach przeprowadzono badanie1 poświęcone ochronie przed utratą danych. Zgodnie z wynikami, 32% przedsiębiorstw doświadczyło utraty danych w ciągu ostatnich 12 miesięcy, a średnia strata w firmie wyniosła 2.33 TB danych. Taką ilość można przeliczyć na 24 miliony e-maili, a szacowany koszt straty danych to 1,02 miliona dolarów.  Całkowity koszt utraty wszystkich danych wyniósł 754 miliardy dolarów.

Główne czynniki wskazywane przez respondentów, odpowiedzialne za niedostępność danych to:

awaria sprzętowa: 53%

utrata zasilania: 39%

błąd oprogramowania: 38%

uszkodzenia danych: 29%

błąd ludzki: 26%

incydenty bezpieczeństwa: 23%

niewydolność systemu backupu: 22%

fizyczne włamanie: 14%

awaria serwisu/dostawcy: 12%

katastrofa naturalna: 10%

sabotaż: 9%

Każdy z tych elementów możemy ograniczyć, ale nie mamy możliwości jego wyeliminowania. Dlatego, aby zminimalizować negatywny wpływ czynników, stosowany jest system backupu, który został wskazany przez 41% badanych jako główny element strategii zabezpieczenia danych. System ten musi w dzisiejszych czasach sprostać dynamicznie zmieniającym się warunkom w świecie IT i dostosować do następujących okoliczności:

  1. Ciągły wzrost ilości danych

Ilość danych w poszczególnych firmach cały czas rośnie, a jednocześnie kurczą się okna backupu. Teoretycznie sprzęt można cały czas skalować i zwiększać jego przepustowość, ale wiąże się to z rosnącymi kosztami utrzymania i zarządzania.  Dlatego poza rozwojem technologii składowania, dynamicznie rozwija się technologia deduplikacji, pozwalająca zredukować ilość danych składowanych w systemie. Dane backupowe łatwo poddają się deduplikacji, dzięki czemu często współczynnik danych składowanych do tych znajdujących się w systemach przekracza wartość 1:9. Niestety deduplikacja ma również wady. Jest to przede wszystkim bardziej intensywne wykorzystanie zasobów obliczeniowych, co może doprowadzić do wysycenia serwera zarządzającego. Zastosowanie deduplikacji może znacznie wydłużyć czas wykonywania kopii, ale przede wszystkim może mieć negatywny wpływ na tempo odzyskiwania danych co w sytuacji awaryjnej jest parametrem krytycznym.

  1. Rozproszenie danych

W wielu firmach systemy biznesowe istnieją często w hybrydowej infrastrukturze. Część usług jest uruchomiona w sposób tradycyjny na dedykowanych serwerach fizycznych, a część w infrastrukturze wirtualnej lub w chmurze prywatnej. Inne z kolei mogą znajdować się u dostawcy zewnętrznego w postaci modelu SaaS, IaaS czy PaaS. Kolejne systemy mogą być ulokowane w biurach regionalnych, mniejszych jednostkach organizacyjnych rozproszonych po kraju, kontynencie, czy na całym świecie. Do tego dochodzą użytkownicy, którzy często ważne dla biznesu dane przechowują na swoich urządzeniach mobilnych, tabletach, smartfonach czy laptopach.

Głównym wyzwaniem dla działu zarządzającego będzie zapewnienie pewnego i szybkiego objęcia ochroną nowych systemów, co jest szczególnie trudne w chmurze i w urządzeniach mobilnych. Tu od systemu backupu wymagana jest automatyzacja procesu przyłączenia, wynikająca z przyjętej w organizacji procedury zabezpieczenia danych. Rozwinięciem tego wyzwania jest zapewnienie ochrony dla aplikacji w środowiskach znajdujących się poza bezpośrednią kontrolą zapewnianą przez zewnętrznych dostawców lub w mniejszym stopniu w lokalizacjach regionalnych czy oddziałach.

Nie ma rozwiązania, które w sposób skuteczny zapewniłoby ochronę dla każdego z tych systemów i backup nie jest tutaj wyjątkiem. Przedsiębiorstwa stają przed wyborem:  zastosowania dwóch lub więcej produktów co podnosi TCO inwestycji, lub pogodzenia się z niepełnowartościowym wsparciem w jednej lub większej ilości grup systemów. Wybór nie jest łatwy i musi być poprzedzony analizą strat i zysków oraz nierzadko pogodzeniem się z utratą kontroli nad zabezpieczeniem części infrastruktury przez wewnętrzne działy IT.

  1. Priorytetyzacja

Gdy system backupu zabezpiecza dane kilkudziesięciu systemów i znacznej liczby użytkowników, konieczne jest określenie, które z tych danych są najważniejsze dla organizacji, aby objąć je  specjalną ochroną. Rosnąca ilość danych i systemów objętych systemem backupu powoduje, że niezbędne jest wyraźne określenie, które aplikacje i dane są najbardziej istotne i z tego względu najważniejsze przy tworzeniu i odtwarzaniu. Stworzenie takiego modelu znacząco obniża koszt budowy i utrzymania infrastruktury, a przede wszystkim skraca czas odzyskania danych i minimalizuje ich straty. Takie podejście wymaga od organizacji stworzenia przejrzystej hierarchii usług biznesowych, wdrożonego sprawnego modelu zarządzania IT, zaawansowanej wiedzy i doświadczenia przy planowaniu i utrzymaniu.

Jak widać istnieją liczne wyzwania przy projektowaniu i zarządzaniu sprawnym, wydajnym i pewnym systemem backupu. Wymagają one specjalistycznej wiedzy, znajomości dostępnych na rynku rozwiązań oraz doświadczenia. Decyzja o wyborze właściwego rozwiązania, a także modelu obsługi backupu musi być bardzo dobrze przemyślana. W szczególności można taką usługę nabyć od firmy zewnętrznej, oferującej kompletne rozwiązanie w sposób profesjonalny i łatwy do zaadoptowania.

Comarch Data Center od lat rozwija kompetencje w planowaniu, implementacji i zarządzaniu produktami niezbędnymi dla sprawnie działającej infrastruktury backupowej. Współpracujemy z wiodącymi na rynku producentami systemów, takimi jak Symantec (ich produkty chronią dane w ośrodkach CDC w Krakowie, Dreźnie, Chicago i Columbus), IBM (utrzymywany w CDC w Warszawie) oraz HP (administrowany przez inżynierów ICT w projekcie ARiMR). Backup wymaga również niezawodnej platformy sprzętowej. Comarch Data Center zapewnia wydajne i wysokodostępne środowisko do realizacji strategii backupowej dostosowanej pod różne wymagania klientów.

 

1 http://www.emc.com/collateral/presentation/emc-dpi-key-findings-global.pdf

autor: Miłosz Brzozowski, Business Solution Manager, Comarch SA