Rozwiązania z zakresu analityki wielkich zbiorów danych oraz chmury obliczeniowej stają się coraz popularniejsze w biznesie. Według badania przeprowadzonego przez Computing Technology Industry Association (CompTIA), 3 na 4 (75 proc.) ekspertów IT uważa, że ich firma rozwijałby się lepiej, gdyby tylko udało jej się w pełni wykorzystać potencjał cyfrowych danych. Z kolei aż 72 proc. ankietowanych specjalistów z branży IT twierdzi, że efekty wdrożenia mechanizmów do analityki Big Data przyniosły firmie sukces. W badaniu wzięło udział 402 specjalistów IT z całego świata.
Według Setha Robinsona, Senior Director Technical Analysis w CompTIA, głównym wyzwaniem dla przedsiębiorców stanie się konsolidacja zgromadzonych przez firmę danych, które przez wiele lat były zaniedbywane z powodu braku sensownej polityki danych w firmie. W rezultacie doszło do nagromadzenia różnych, niesprzężonych ze sobą źródeł danych wewnątrz przedsiębiorstwa:
– Firmy muszą nauczyć się patrzeć na dane inaczej. Teraz starają się je uporządkować oraz zrozumieć ich strukturę, co okazuje się nie lada wyzwaniem. Największy problem stanowią bowiem dla przedsiębiorstw tzw. „silosy danych”, czyli niezintegrowane ze sobą skupiska informacji, powstałe w różnych działach czy departamentach firmy, gromadzonych niezależnie od siebie i często nieprzetworzonych. Już 42 proc. ekspertów IT deklaruje, że to właśnie integracja różnych źródeł danych w firmie będzie największą trudnością. Jeszcze dwa lata temu takiej odpowiedzi udzieliło „tylko” 29 proc. ankietowanych – mówi Seth Robinson z CompTIA.
Z ankiety CompTIA wynika również, że biznes wkracza w kolejny etap implementacji narzędzi do analityki Big Data. Zamierza wykorzystywać jej potencjał częściej oraz w większym zakresie. 63 proc. respondentów stwierdziło, że posiłkuje się danymi podczas wykonywania codziennych operacji, 61 proc. ekspertów IT deklaruje, że stało się bardziej ostrożnymi i czułymi na punkcie kwestii prywatności danych, a 59 proc. ankietowanych przyznaje, że pogłębiona analityka internetowa pozwala im lepiej zrozumieć ich klientów.
Z tą tezą zgadza się również Piotr Prajsnar, CEO Cloud Technologies, warszawskiej spółki zajmującej się analityką i monetyzacją danych, która z małego startupa wyrosła na największą hurtownię Big Data w tej części Europy, korzystając z eksplozji danych w Sieci.
– Popyt na mechanizmy pozwalające analizować i monetyzować dane rośnie, ponieważ cała gospodarka nieuchronnie zmierza ku cyfryzacji. Analityka Big Data oraz chmura obliczeniowa odgrywają w tym procesie nieocenioną rolę. Boston Consulting Group w raporcie „The Value of Our Digital Identity” twierdzi, wartość wszystkich anonimowych danych zgromadzonych o internautach z obszaru całej Unii Europejskiej, w 2020 roku zbliży się do okrągłego biliona euro. Dane stają się nową walutą biznesu, który za ich sprawą zmierza w kierunku większej automatyzacji procesów – mówi Piotr Prajsnar – Big Data nie zwalnia tempa. Już teraz Internet rozrasta się w tempie 40 proc. w skali roku, ale blisko 90 proc. danych ma charakter „dark data”, czyli takich informacji, których biznesowy potencjał nie został jeszcze zidentyfikowany. Oracle prognozuje, że w 2016 roku po raz pierwszy w historii ruch IP przekroczy próg 1 ZB (Zettabajta) danych, a w ciągu kolejnych 3 lat w dodatku ta liczba podwoi się. Z kolei rozmiary samego Internetu szacuje się już na ponad 8 ZB, ale w 2020 roku będzie liczył już 45 ZB danych. Internet zaczyna pękać w szwach, a rozsadza go właśnie Big Data – dodaje CEO Cloud Technologies.
Nie bez powodu firma analityczna Gartner mówi dzisiaj o czekającej nas drugiej epoce cyfrowej. Jednak jej nadejście może się opóźnić, ponieważ rynek zmaga się z deficytem specjalistów. W badaniu CompTIA eksperci IT podkreślają, że problemem będzie biznesowe opanowanie lawinowo rosnącej ilości danych w Sieci, do czego mocno przyczyni się tzw. „luka kompetencyjna”. Największe braki eksperci IT dostrzegają w następujących obszarach: bieżąca analityka danych (42 proc.), relacyjne bazy danych (41 proc.), bezpieczeństwo danych (36 proc.), analityka predyktywna (35 proc.), oraz data mining (30 proc.).
– Narzędzia pozwalające obsługiwać i analizować duże zbiory danych ciągle są czymś stosunkowo nowym, więc ich potencjał nie jest jeszcze wykorzystywany w wystarczającym stopniu. W grę wchodzą tu również kwestie pewnego biznesowego doświadczenia, którego wciąż brakuje wielu analitykom. Chodzi o pewien zestaw umiejętności biznesowych. Analityk danych powinien posiadać nie tylko kompetencje informatyczne, lecz także potrafić mówić językiem biznesu. Tymczasem od wielu firm słyszymy, że poszukując pracowników tego sektora w swoim otoczeniu biznesowym, często napotykają na lukę kompetencyjną – twierdzi Seth Robinson, Senior Director Technical Analysis w CompTIA.
Biznes rozgląda się więc zarówno za danymi, jak i za analitykami danych. Potrzebuje ich dzisiaj nawet wydawałoby się „mało analityczna” branża HR. Chorzowska firma BPSC dostarczająca rozwiązania wspierające zarządzanie kapitałem ludzkim przeanalizowała w ubiegłym roku ogłoszenia o pracę. Wyniki nie pozostawiają złudzeń: już w ponad 20% analizowanych przypadków pracodawcy oczekiwali od kandydatów – HR-owców umiejętności analitycznych.
– Wśród pracodawców pożądana jest umiejętność tworzenia raportów, prognoz i analiz m.in. w oparciu o dane zawarte w systemie ERP, istotne są kwalifikacje w obszarze oceny efektywności i osiągnięć pracowników oraz monitorowania kluczowych wskaźników HR. Widać, że pracodawcy wracają do podstaw analizy i wyceny pracy, odchudzania działań i procesów HR oraz badania ich efektywności. Niestety, HR-owcy sami przyznają, że tylko 19 proc. z nich czuje się gotowa do tego, by zmierzyć się z wyzwaniami w obszarze analityki – zauważa Anna Węgrzyn, kierownik projektu mHR w BPSC i wieloletni praktyk HR.
Big Data staje się elementem powszednim w biznesie, a nasycenie Sieci informacjami potencjalnie cennymi dla przedsiębiorstwa może tylko sprawić, że w najbliższych latach inwestycje w Big Data będą rosły. Już teraz IDC szacuje, że rynek analityki danych rozwija się w tempie sześciokrotnie szybszym niż cała branża IT. Tę sytuację dodatkowo napędza fakt, że na przestrzeni ostatnich lat koszty przechowywania i transmisji wielkich zbiorów danych radykalnie spadły.
– Jeszcze w 1995 roku za przechowanie 1 GB danych firma musiała płacić blisko 1 000 USD. Za dostęp do Internetu polskie przedsiębiorstwa musiały zapłacić w 1993 r. co najmniej 500 tys. zł miesięcznie, czyli po denominacji 50 zł. Teoretycznie niewiele, pamiętajmy jednak, że średnia pensja wynosiła wówczas zaledwie 400 zł. Dzisiaj dzięki rozwojowi technologii i cloud computingu, a także spadkom cen transmisji danych, koszty przechowywania i przetwarzania danych spadły drastycznie. Dodatkowo można je jeszcze obniżyć, korzystając z usług zewnętrznych centrów danych, które rozwijają się w błyskawicznym tempie – zauważa Robert Mikołajski, kierownik Zespołu Rozwoju Biznesu w Atmanie, największym operatorze centrum danych w Polsce i jednym z największych w Europie Środkowo-Wschodniej. – W sierpniu ubiegłego roku oddaliśmy do użytku nowy obiekt kolokacyjny o powierzchni 3 tys. mkw. Spodziewamy się, że w tym roku zostanie on wypełniony serwerami klientów. Myślę, że jest to dobra ilustracja tego, w jakim tempie przyrastają dziś dane – tłumaczy Robert Mikołajski z Atmana.
Jak wynika z badania „Rynek przetwarzania danych w chmurze w Polsce 2014. Prognozy rozwoju na lata 2014-2018” autorstwa PMR, polskie firmy coraz chętniej inwestują w cloud computing. Przedsiębiorcy z ponad 300 przebadanych firm IT jako czynniki skłaniające do sięgnięcia po chmurę wymieniali najczęściej: oszczędności związane z jej wdrożeniem w firmie (31 proc. respondentów), rosnące znaczenie Internetu mobilnego oraz rynku aplikacji mobilnych (25 proc. ankietowanych) oraz lawinowy przyrost Big Data w Sieci (23 proc. firm), z którymi tradycyjne systemy typu BI nie będą w stanie sobie poradzić, jeśli nie zostaną wsparte specjalistycznymi narzędziami do analityki danych.