wtorek, Listopad 13, 2018
Facebook
Home Tagi Wpis otagowany "big data"

big data

9 na 10 przedstawicieli polskiego sektora technologii korzysta z rozwiązań open source. Przeważa system operacyjny, ale firmy stawiają również np. na otwarte bazy danych – wynika z badania Polski Rynek Open Source 2018, przeprowadzonego przez Linux Polska w ramach konferencji Open Source Day 2018. Do największych zalet technologii otwarto źródłowych wymienionych przez respondentów należą: elastyczność, efektywność kosztowa, a także brak uzależnienia się od pojedynczego dostawcy rozwiązań IT.

Badanie Polski Rynek Open Source to pierwsza inicjatywa tego rodzaju w naszym kraju, mająca na celu ocenę wykorzystania narzędzi i oprogramowania open source na polskim rynku. Tegoroczna ankieta została przeprowadzona 23 maja, m.in. wśród specjalistów, inżynierów, menedżerów i osób zarządzających projektami IT, reprezentujących branżę teleinformatyczną, finansową, FMCG czy sektor publiczny.

– Cieszymy się, że po raz kolejny możemy przedstawić unikatowe w skali kraju dane, pokazujące skalę korzystania z technologii open source przez polskie firmy, oraz wskazać na motywacje, jakie stoją za wdrożeniem tych rozwiązań. Z naszych obserwacji wynika, a badanie to potwierdza, że otwarte oprogramowanie jest nie tylko powszechnie stosowanie w wielu przedsiębiorstwach, ale też ma realny wpływ na polski biznes – zaznacza Dariusz Świąder, prezes zarządu Linux Polska, organizator konferencji Open Source Day i inicjator badania.

Systemy operacyjne nadal w czołówce

Jak wynika z opracowania, otwarte oprogramowanie jest najczęściej wykorzystywane przez polskie przedsiębiorstwa w obszarze systemów operacyjnych – odpowiedziało w ten sposób ponad 25 proc. badanych. Na drugim miejscu respondenci wskazali na stosowanie otwartych baz danych (19,4 proc).

– Wyniki tegorocznego badania pokazują, że ponad 1/4 organizacji korzysta z otwartych systemów operacyjnych, ale to niejedyne zastosowanie technologii open source w biznesie. Analizując odpowiedzi respondentów, należy stwierdzić, że rozwiązania otwarto źródłowe są coraz częściej wykorzystywane jako komponenty służące do rozwoju istniejącego już oprogramowania i tworzenia autorskich rozwiązań IT. Nad otwartym oprogramowaniem pracuje wielomilionowa społeczność inżynierów i programistów na całym świecie, która dba o ulepszanie danego kodu, pracując nad wyłapywaniem ewentualnych błędów czy rozbudową funkcjonalności. Dlatego proces wdrażania nowego programu czy aplikacji z wykorzystaniem opensourcowych narzędzi, zazwyczaj odbywa się szybciej i sprawniej – komentuje Tomasz Dziedzic, Chief Technology Officer, Linux Polska.

Zastosowanie Open Source w biznesie.jpg

 

Przeszło co szósty ankietowany biorący udział w badaniu, korzysta z otwartych technologii w obszarze automatyzacji (14,9 proc. badanych), czyli rozwiązań, które np. pomagają w utrzymaniu kontroli nad wdrożeniami w środowiskach centrów danych oraz tzw. kontenerów (14,6 proc. respondentów), które upraszczają proces budowania i wdrażania nowego kodu. Innym przykładem mogą być rozwiązania chmurowe (ponad 12 proc.), które cały czas zyskują na znaczeniu, co jest spowodowane, chociażby zmianami zachodzącymi w sposobie organizacji pracy i coraz większej potrzebie dostępu do danych w dowolnym miejscu i czasie.

Elastyczność przede wszystkim

Uczestnicy badania Polski Rynek Open Source 2018 wskazali, że największą zaletą otwartego oprogramowania jest jego elastyczność, czyli możliwość dostosowania tego rozwiązania do indywidualnych potrzeb organizacji, ale prawie tyle samo głosów zyskała inna, mocna strona technologii open source – brak uzależnienia się od pojedynczego dostawcy. Te dwie cechy zostały wymienione przez blisko 52 proc. respondentów. Na kolejnych miejscach uplasowały się: efektywność kosztowa (blisko 21 proc.) lub inaczej – optymalizacja kosztów, na którą mogą liczyć firmy wdrażające open source, a także wysoka jakość i bezpieczeństwo tych rozwiązań (w obu przypadkach – przeszło 13 proc.).

Największe zalety Open Source.jpg

– Respondenci zapytani o największe zalety w korzystaniu z rozwiązań otwartych, na pierwszym miejscu wskazali na ich elastyczność, co nie jest zaskakujące. Szeroka dostępność, kompatybilność z innymi systemami, także tymi zamkniętymi, stanowią największe wyróżniki narzędzi bazujących na open source. Sprawiają również, że firmy, które z nich korzystają, unikają uzależnienia się od jednego dostawcy oprogramowania, a to z kolei tłumaczy, dlaczego ta zaleta technologii otwarto źródłowych przez osoby biorące udział w badaniu została wymieniona na drugim miejscu. Ankietowani zwrócili również uwagę na optymalizację kosztów, którą zapewniają rozwiązania open source. Wiele z nich udostępnianych jest bezpłatnie, ale efektywność kosztowa, o której możemy mówić w przypadku stosowania otwartego oprogramowania, nie bierze się wyłącznie z jego niższej ceny, ale z faktu wspomnianej elastyczności – zauważa Dariusz Świąder, Linux Polska.

Budowanie świadomości na temat open source nadal potrzebne

Chociaż 99 proc. badanych przyznało, że reprezentowana przez nich firma korzysta na co dzień z open source, co wskazuje na powszechność tych rozwiązań, to jednak ankietowani zwrócili uwagę na potrzebę większej edukacji w zakresie stosowania tej technologii. W rezultacie przyczyniłoby się to, do dalszego upowszechniania się rozwiązań otwartych w polskich firmach. Aż 6 na 10 badanych uważa, że można byłoby to osiągnąć poprzez zwiększenie świadomości na temat open source wśród osób decyzyjnych w przedsiębiorstwach lub poprzez budowanie świadomości na temat uwarunkowań prawnych związanych z korzystaniem z narzędzi tego rodzaju (prawie 36 proc. ankietowanych).

 

Rozpowszechnienie Open Source w firmach.jpg

– Z każdym rokiem obserwujemy, jak technologia open source, która obecnie jest kluczowym kierunkiem rozwoju informatyki i motorem napędowym innowacji w wielu gałęziach gospodarki, staje coraz popularniejsza w naszym kraju. Po rozwiązania otwarte sięga nie tylko biznes, ale również instytucje z sektora publicznego. Przykładem jest Agencja Restrukturyzacji i Modernizacji Rolnictwa, która za skuteczną implementację rozwiązań bazujących na otwartym kodzie otrzymała wyróżnienie podczas tegorocznej konferencji Open Source Day – wyjaśnia Dariusz Świąder, Linux Polska.

Jak dodaje Dariusz Świąder, wiedza o korzyściach, na które mogą liczyć firmy wdrażające open source, powinna trafić nie tylko do specjalistów z branży, a co ważne, także do osób decyzyjnych w przedsiębiorstwach, odpowiedzialnych za infrastrukturę IT, co przyznają uczestnicy badania. – Zwiększanie świadomości na temat rozwiązań otwarto źródłowych było także głównym celem przyświecającym nam przy organizowaniu pierwszej edycji konferencji Open Source Day i nie zmienił się on przez 11 lat. Dziś to wydarzenie jest największą platformą wymiany wiedzy na temat open source nie tylko w Polsce, ale i Europie Środkowo-Wschodniej.

Uczestnicy badania Polski Rynek Open Source 2018 wyrazili również chęć zdobywania praktycznej wiedzy oraz umiejętności z obszaru technologii open source. Jeżeli chodzi o ofertę szkoleń przygotowaną przez Linux Polska, ponad 60 proc. respondentów łącznie chce uczestniczyć w warsztatach z zakresu takich rozwiązań jak: EDB/PostgreSQL, Red Hat RHEL, Red Hat OpenSfhift, Splunk czy Puppet.

Wykorzystanie big data w sektorze retail przynosi firmom wymierne korzyści – wynika z badania przeprowadzonego przez The Economist Intelligence Unit na zlecenie Wipro. 64 proc. osób biorących w nim udział, które wdrożyło tę technologię, uważa, że wykorzystanie big data miało wpływ na zwiększenie zysków w obszarze zarządzania relacjami z klientami, a ponad płowa jest zdania, że przyczyniło się do zwiększenia sprzedaży. Na zbieraniu i analizowaniu informacji dotyczących zachowania i zwyczajów zakupowych konsumentów korzystają również sami klienci, do których marki kierują spersonalizowaną ofertę handlową. Nie tylko bowiem firmom zależy na zyskaniu lojalnych nabywców, ale również konsumenci poszukują zaufanych i sprawdzonych sprzedawców.

Big data, wielkie oczekiwania

Dane zebrane przez The Economist Intelligence Unit znajdują również potwierdzenie w badaniu JDA Software Group i PwC przeprowadzonym wśród menedżerów z sektora retail. Aż 86 proc. respondentów uznało technologię big data za jedną z priorytetowych w ustalaniu strategii biznesowej w swojej firmie na najbliższe dwanaście miesięcy. Dlaczego big data zadomowiła się na dobre nie tylko w sektorze retail, ale w szeroko rozumianym handlu?

Rozpowszechnienie się globalnej sieci komputerowej Internet, do której dostęp ma dzisiaj już ponad 4 mld osób na całym świecie, przyniosło ze sobą możliwość gromadzenia i przetwarzania dużej ilości danych generowanych przez jej użytkowników. Kiedy opracowano odpowiednie metody analizy zbieranych informacji, dostrzeżono potencjał big data w odkrywaniu wzorców zachowań osób kupujących online, których z roku na rok przybywa. Jednak analiza kluczowych haseł wpisywanych w wyszukiwarki, by zdobyć informacje o tym, jakich towarów poszukują konsumenci w sieci, a także  poza nią, przestała być efektywna. Jak zaznacza Krzysztof Grabowski, ekspert ds. technologii, rozwój branży IT, korzystanie przez konsumentów ze smartfonów, (jak szacuje Zenith, w tym roku będzie to już 2/3 populacji), tabletów, smartwatchów i innych urządzeń, które mają połączenie Internetem, a także ich obecność w mediach społecznościowych, gdzie mają stały kontakt z ulubionymi markami, każdego dnia generuje masowe ilości danych.

– Analiza zachowania konsumentów w dzisiejszym, cyfrowym świecie stanowi zupełnie nowy poziom  pracy z danymi. Dzięki informacjom pozyskiwanym z „inteligentnych” urządzeń, które są również „uzbrojone” w technologię GPS, mediów społecznościowych i innych śladów pozostawionych przez klientów w sieci (np. ich historia zakupowa czy opinie o markach umieszczane na forach internetowych), obecnie możliwa jest analiza reakcji nie tylko wybranych grup klientów, ale nawet konkretnych osób. Takie podejście nazwano indywidualizacją, a tworzenie oferty zakupowej na podstawie wniosków wyciągniętych z wcześniejszych kontaktów danego konsumenta z marką – personalizacją – dodaje Grabowski.

Dzięki zindywidualizowanemu podejściu do analizowania zachowania konsumentów, oprócz takich kwestii jak, co i kiedy kupujemy, możliwe stało się również zbadanie, w jaki sposób dokonujemy zakupów. – Wiedza o tym, w jaki sposób klienci podejmują decyzje zakupowe, impulsywnie, emocjonalnie, czy też w przemyślany i racjonalny sposób, pozwala markom przewidywać, i to coraz częściej w bezbłędny sposób, przyszłe działania konsumentów – zauważa Krzysztof Grabowski.  

Big data in store

Analiza big data wspiera e-commerce i działania marketingowe prowadzone przez firmy w Internecie, ale nie tylko. Również te marki, które postawiły na sprzedaż stacjonarną, zbierają i analizują cenne informacje o swoich obecnych i potencjalnych klientach pozostawione przez nich w sieci. Media społecznościowe, aplikacje zakupowe, ruch na oficjalnej stronie www danego brandu, czy reakcje konsumentów na reklamy internetowe, są cennym źródłem informacji dla branży handlu detalicznego. W ostatnim czasie coraz więcej firm decyduje się na zbieranie danych o swoich klientach bezpośrednio w punktach sprzedaży.

Tylko podczas jednej wizyty w sklepie każda osoba jest w stanie wygenerować wiele unikatowych wskaźników, które są zbierane np. czujniki i kamery rozmieszczone w punkcie sprzedaży. Gdy zostaną odpowiednio skategoryzowane, a następnie przeanalizowane, dostarczają informacji o tym, co przyciąga klientów do sklepu danej marki, na jakie towary zwracają szczególną uwagę, ile czasu zajmuje im dokonanie wyboru i jak go dokonują, oraz jaką metodę płatności wybierają najczęściej, czyli po prostu o tym, jak wygląda ich cała ścieżka zakupowa.

 Zbieranie informacji o klientach, którzy osobiście zrobili zakupy w sklepie, dla marek z branży retail może być bardziej wartościowe niż tylko opieranie się na aktywności konsumentów w sieci, ponieważ w tym pierwszym przypadku dochodzą dodatkowe czynniki, które można wziąć pod uwagę w analizach kupujących. Są to np.: mimika klienta, jego reakcja na poszczególne produkty i sposób ich ustawienia w sklepie, nawet na występujące w nim oświetlenie, czy zapach, reakcja na obsługę i inne elementy, które wpływają na to, czy klient dokona zakupów w danym punkcie lub też nie i czy w ogóle powróci do niego w przyszłości – wyjaśnia Krzysztof Grabowski.

5 najważniejszych powodów, aby zainteresować się big data

Dzięki połączeniu odpowiednich metod zbierania i analizowania zgromadzanych informacji, firmy z branży handlu detalicznego z dużym prawdopodobieństwem mogą określać, co kupią klienci, odwiedzając dany sklep w przyszłości. Ale to nie jedyne korzyści, na które można liczyć, wdrażając technologię big data:

1. Profilowanie klientów i przygotowywanie dla nich spersonalizowanej oferty produktowej. Chociaż każda firma wchodząca na rynek powinna zacząć swoją działalność od określenia grupy docelowej, do której chce dotrzeć ze swoimi produktami lub usługami, to czasami dopiero analiza zachowania i historii zakupowej konsumentów pozwala odpowiedzieć na pytanie, kto właściwie jest klientem danej marki, czy nawet jej jednego wybranego sklepu. Poznanie tych informacji pozwoli na przygotowanie dla nich spersonalizowanej oferty produktowej, a także na efektywniejsze dopasowanie stosowanych narzędzi marketingowych. Takie działania prowadzą do zwiększenia zysków ze sprzedaży i zdobycia lojalnych klientów.

2. Prognozowanie trendów na długo przed ich nadejściem, czyli efektywnie kierowanie popytem oraz łańcuchem dostaw. Regularna analiza zachowania klientów, a dokładniej skupienie się na tym, jakie produkty chętnie wybierają, a na które nie zwracają w ogóle uwagi, pozwala nie tylko z odpowiednim wyprzedzeniem przewidywać trendy, co ma znaczenie np. w branży modowej. Określenie popytu umożliwia również zaplanowanie dostaw asortymentu do sklepu w odpowiednim czasie, czyli np. wyeliminowanie strat finansowych z powodu niesprzedanego towaru, jeżeli nie spotka się z zainteresowaniem kupujących. Prognozowanie trendów rynkowych pozwala na zachowanie przewagi konkurencyjnej, ale również przewidzieć spadki koniunktury i tym samym dopasować prowadzone działania biznesowe do aktualnej sytuacji na rynku.

3. Zwiększenie sprzedaży wybranego asortymentu lub/i zyskanie lojalnej grupy klientów. Jak to się robi, pokazała amerykańska sieć hipermarketów Target. Analizując zachowanie wybranej grupy klientów – kobiet, a także to, jak okresowo zmienia się jej koszyk zakupowy, firma opracowała metodę rozpoznawania kobiet w ciąży. Zebrane dane nie tylko pozwoliły określić, co najczęściej kupują przyszłe matki, ale nawet przewidywany termin porodu, a co za tym idzie, przygotować spersonalizowaną ofertę produktową dla klientek, które rozpoczęły nowy etap życia i zmieniły swoje potrzeby zakupowe.

4. Planowanie ekspozycji sklepowej, w taki sposób, aby zwiększała sprzedaż. Chodzi np. o ustawianie produktów, które cieszą się największym zainteresowaniem w najbardziej wyeksponowanych punktach w sklepie, aby konsumenci mieli pewność, że z łatwością znajdą w nim ulubione rzeczy lub zwrócenie szczególnej uwagi klientów na ten asortyment, który „gorzej się sprzedaje”, by zachęcić odwiedzających sklep do jego zakupu.

5. Ograniczenie strat finansowych z powodu kradzieży. System czujników i kamer, w który wyposażony jest sklep, pomagający analizować reakcje klientów, pozwala również na wyeliminowanie podejrzanych zachowań, czyli po prostu rozpoznać złodzieja.

Analiza zachowania i zwyczajów zakupowych klientów branży retail pozwala na uzyskanie wartościowych informacji, które nie są oparte na założeniach, ale na wskaźnikach, które posiadają odzwierciedlenie w rzeczywistości i realnie przekładają się na zwiększenie sprzedaży, czy umożliwiają optymalizację kosztów prowadzenia biznesu. W tej sytuacji wygranymi są również konsumenci. – Analiza informacji uzyskanych o konsumentach jest już powszechnie wykorzystywana do przygotowywania dla nich oferty handlowej „skrojonej na miarę”. To sygnał, że dana marka myśli o potrzebach swoich klientów. O tym, jak jest to istotna kwestia, przekonał się każdy, kto wyszedł ze sklepu rozczarowany, nie mogąc dokonać zakupu, z powodu braku asortymentu, który opowiadałby określonym oczekiwaniom – komentuje Krzysztof Grabowski.

PARP podpisała 102 umowy na realizację projektów w ramach poddziałania 1.1.2 „Rozwój Startupów w Polsce Wschodniej” Programu Operacyjnego Polska Wschodnia 2014-2020. W naborze prowadzonym od czerwca 2016 r. wpłynęło 186 wniosków na łączną kwotę dofinansowania 143 212 330 zł.

W sumie 102 start-upy otrzymały 78 926 693,84 mln zł na rozwój innowacyjnych produktów,  m.in.:  telemedyczny system wczesnego ostrzegania o zagrożeniu zdrowia osób starszych i urządzenie monitorujące zaburzenia rytmu serca, inteligentna platforma wykorzystująca Big Data do automatycznej diagnozy i naprawy stron www, a także ekologiczne bezobsługowe systemy do napowietrzania akwenów wodnych.

Wybrane do wsparcia PARP przedsięwzięcia biznesowe rozwijane były wcześniej w ramach programów inkubacji prowadzonych przez trzy Platformy startowe, sfinansowanych w ramach poddziałania 1.1.1 „Platformy startowe dla nowych pomysłów”:

• Hub of Talents, kierowaną przez Białostocki Park Naukowo – Technologiczny,
• TechnoparkBiznesHub, kierowaną przez Kielecki Park Technologiczny,
• Connect, kierowaną przez Lubelski Park Naukowo – Technologiczny.

Od czasu pojawienia się Internetu żadna technologia nie miała takiego wpływu na sposób, w jaki żyjemy i pracujemy.

Aby zrozumieć dlaczego tak się dzieje, musimy najpierw zdystansować się od sensacyjnych wiadomości o robotach, które „ukradną nam pracę”. Innowacje i nowe narzędzia ułatwiające życie były wyznacznikami postępu w całej historii ludzkości. Tak było podczas rewolucji agrarnej i przemysłowej, tak jest dziś w epoce rewolucji danych. Na skutek postępu niektóre z ról wykonywanych przez człowieka ulegają zmianie, z drugiej jednak strony postęp zawsze tworzył nowe miejsca pracy, modele biznesowe i całe branże. Nie należy więc się obawiać, że człowiek stanie się „przestarzały” jak maszyna. Wręcz przeciwnie, automatyczne uczenie zwiększy naszą efektywność i otworzy nowe możliwości przed całą ludzkością.

Automatyczne uczenie jest już obecne w naszym codziennym życiu. Korzystamy z niego w oprogramowaniu telefonów, samochodach i domach oraz systemach komputerowych używanych w pracy. Ułatwia nam ono dostęp do informacji oraz szybkie podejmowanie trafnych decyzji. Zdaniem firmy Gartner w 2020 roku technologie sztucznej inteligencji będą obecne w „prawie każdym nowym oprogramowaniu”. Dla producentów oprogramowania jest to wyjątkowy, przełomowy moment, a dla przedsiębiorstw będących ich klientami ― początek nowej drogi.

Media informują głównie o robotach i autonomicznych samochodach. W nadchodzącym roku oba te segmenty będą się nadal dynamicznie rozwijać. Dziś jednak technologią, która najbardziej zmienia nasz świat, jest – według Oracle – automatyczne uczenie. Choć „błyskawiczne podejmowanie trafnych decyzji” nie brzmi tak sensacyjnie jak „samochód bez kierowcy”, to automatyczne uczenie zasługuje na miano technologii epoki właśnie ze względu na możliwość jego wykorzystania w procesach decyzyjnych.

Przedsiębiorstwa, które używają już technologii automatycznego uczenia, szybko wyprzedzają konkurencję dzięki przyspieszeniu i zwiększeniu efektywności procesów podejmowania decyzji. Dlatego żadna firma, która nie chce zostać w tyle, nie może sobie pozwolić na bezczynne czekanie. Liczba wdrożeń systemów automatycznego uczenia rośnie wraz z wdrożeniami rozwiązań działających w chmurze, ponieważ rozwój i wzrost efektywności tej technologii wymaga bezproblemowej integracji aplikacji, platform i infrastruktur chmurowych. Dzięki takiej integracji procesy automatycznego uczenia zyskują dostęp do jeszcze większych zasobów danych, które zostają połączone, a dane są pobierane z całych systemów i sieci organizacji.

W małych, wewnętrznych środowiskach informatycznych przedsiębiorstw nie da się efektywnie korzystać z automatycznego uczenia, tak jak nie da się uprawiać roślin w ciemności.  Algorytmy będące podstawą tej technologii potrzebują jak największej ilości danych z możliwie największej liczby źródeł. Im więcej danych jest wykorzystywanych w procesach automatycznego uczenia, tym inteligentniejsze są te procesy i tym lepiej wspierają człowieka w procesie podejmowania decyzji. Większa dojrzałość i szersze zastosowanie technologii chmurowych to kolejne przyczyny, dla których 2018 będzie bardzo dobrym rokiem dla rozwoju automatycznego uczenia.  Chmura jest integralną częścią strategii informatycznej praktycznie w każdej firmie. Przyspiesza cyfrową transformację i ułatwia efektywne wykorzystanie danych.

O ile chmury dostarczyły podstawowych komponentów potrzebnych do cyfrowej transformacji, a wielkie zbiory danych (big data) umożliwiły czerpanie z tej transformacji wymiernych korzyści, to automatyczne uczenie jest pierwszym narzędziem, dzięki któremu cyfrowa transformacja może przynosić korzyści na skalę przemysłową. Do tego jednak niezbędna jest odpowiednia strategia. Trzeba przede wszystkim znaleźć takie zastosowania automatycznego uczenia, które przyniosą długoterminowe korzyści strategiczne. Krótkotrwały efekt nowości nie wystarczy ― chodzi o przekształcenie funkcji lub procesów o newralgicznym znaczeniu dla przedsiębiorstwa.

Ta nowa technologia pozwoli przedsiębiorstwom dużo szybciej tworzyć dokładne, niezawodne prognozy oraz budżety i plany, jak również efektywniej wykorzystywać zasoby, co przekłada się na znaczne korzyści finansowe. Wielką zaletą technologii automatycznego uczenia są praktycznie nieograniczone możliwości jej wykorzystania. Może ona odegrać ogromną rolę wszędzie tam, gdzie ważne jest szybkie analizowanie danych i wyciąganie z nich wartościowych wniosków oraz wykrywanie trendów lub anomalii w wielkich zbiorach danych ― od badań klinicznych poprzez sprawdzanie zgodności z przepisami po bezpieczeństwo.

Już dziś automatyczne uczenie wprowadza rewolucję w dziedzinie obsługi klienta. Niemal w każdej branży, gdzie ważne są kontakty z klientem, firmy otrzymują ogromną ilość zapytań, które można podzielić na stosunkowo niewielką liczbę kategorii. Wiele tych zapytań można łatwo przewidzieć oraz przygotować na nie odpowiedzi przekazywane za pomocą chatbotów. Dzięki automatycznemu uczeniu chatboty doskonalą swoje działanie i udzielają klientom coraz precyzyjniejszych odpowiedzi. W rezultacie klienci szybciej otrzymują potrzebne informacje i są bardziej zadowoleni, firma pracuje efektywniej, a odciążeni specjaliści ds. obsługi klienta mogą poświęcić więcej czasu na mniej typowe zgłoszenia wymagające interwencji człowieka.

 

 

Ktoś musi to w końcu powiedzieć: metody stosowane przez św. Mikołaja są archaiczne i nieskuteczne, czego dowodem są tysiące nietrafionych prezentów, z których spora część już na początku stycznia ląduje na internetowych aukcjach. To, że Kowalski ma wąsy i 45 lat na karku nie znaczy, że spełnieniem jego marzeń są jaskrawy krawat i składanka najnowszych hitów disco polo. Gdyby tylko osławiony obywatel Finlandii wiedział o nas więcej… No ale zaraz, mamy przecież XXI w. i dysponujemy odpowiednią technologią. Mikołaju, nadszedł czas na modernizację!

Ten list do świętego Mikołaja będzie inny niż wszystkie, jakie dotąd otrzymał. Zamiast spisu wymarzonych prezentów przesyłam jedno życzenie: Drogi Mikołaju, ogarnij się proszę, zmodernizuj oprogramowanie i zainwestuj w nowe technologie, a współczynnik satysfakcji z prezentów poszybuje, jak Twoje sanie pośród ośnieżonych kominów. Zdaje się, że żadnej firmie oferującej nowoczesne rozwiązania IT przez myśl nie przeszło, by wysłać ofertę do dalekiej Laponii. Nic więc dziwnego, że święty Mikołaj jest delikatnie mówiąc „nie na czasie”. Wprawdzie wykonuje swoją pracę od prawie 2 tys. lat więc odrobina „slow motion” nikogo nie dziwi, ale skoro można robić coś dużo lepiej, to najwyższy czas przemyśleć sprawę, zakasać rękawy i wziąć się do pracy.

Drogi Mikołaju, sprawa jest prosta. Dane – to właśnie one są kluczem, otwierającym drzwi do lepszego poznania odbiorców Twoich nadzwyczajnych usług. Wiem, że gromadzisz na nasz temat sporo informacji. Adres zamieszkania, szczegóły dot. drożności i rozmiaru komina, historia przekazanych prezentów – są to dane typu 1st party, niezwykle cenne, ale jak widać, niewystarczające. By zyskać pełen, 360 stopniowy obraz klienta potrzebujesz danych typu 3rd party, które znajdziesz w specjalistycznych hurtowniach. W Cloud Technologies analizujemy ponad 9 mld anonimowych profili internautów z ponad 40 rynków. Każdy taki profil odpowiada jednemu, podłączonemu do sieci urządzeniu, a cała sztuka polega na tym, by powiązać je z ich właścicielami na bieżąco weryfikując identyfikatory zawarte w plikach cookies. W ten sposób można przypisać kilka urządzeń do jednego użytkownika i na bieżąco śledzić jego aktywność w globalnej sieci. Jakie dane gromadzą hurtownie? Są to przede wszystkim informacje o preferencjach, zachowaniu i zainteresowaniach internautów. Biorą pod lupę ich lokalizację, intencje zakupowe, odwiedzane strony i wyszukiwane hasła. Przetwarzają również takie informacje, jak wiek, płeć czy szczegóły dotyczące demografii oraz kilka tysięcy nienazwanych zmiennych, analizowanych w czasie rzeczywistym przy pomocy uczenia maszynowego. OnAudience.com posiada nawet specjalny segment, który z pewnością przypadnie Ci do gustu. Mam na myśli „Christmas heavy shoppers”, czyli zbiór 26 milionów anonimowych profili internautów, intensywnie poszukujących świątecznych prezentów.

Tu, w świecie ludzi zwyczajnych, informacje tego typu wykorzystuje się np. do tworzenia profili behawioralnych klientów e-commerce lub precyzyjnego targowania reklam. Biorąc pod uwagę zakres prowadzonej przez Ciebie działalności w pierwszej kolejności powinieneś zainwestować w tzw. data enrichment, czyli wzbogacenie systemu CRM w zewnętrzne dane o klientach. Pomyśl tylko, ile dzieci – również tych dorosłych – uszczęśliwiłbyś, obdarowując je wreszcie dobrze dobranym prezentem. Listów ze szczegółowymi zamówieniami dostajesz przecież niewiele, więc po co improwizować?  Z danych o internautach wyczytasz więcej niż z fusów.

Na koniec kilka słów uznania. Od dziecka imponują mi Twoje metody. Serio! Nie wiem, jak to robisz, ale zawsze w miarę sprawnie udaje ci się określić, czy byłem grzeczny. Piszę „w miarę”, bo nawet i tutaj przydałaby się mała optymalizacja. Z ocenami w szkole radzisz sobie wyborowo, ale gdybyś tylko wiedział, po jakich stronach buszowałem w internecie, to pod moją choinką nie raz znalazłaby się rózga. Implementując analitykę Big Data zyskasz zdolność lepszej identyfikacji niegrzecznych urwisów, znacząco redukując liczbę przydzielanych prezentów. Ten proces to nic innego, jak monetyzacja danych. Pozyskana w ten sposób wiedza przełoży na spore oszczędności, a inwestycja w analitykę danych zwróci się w niespełna rok. Prawda, że warto?

Za bycie grzecznym przez cały rok, pod choinką chciałbym znaleźć tylko jedną rzecz: spis wszystkich niegrzecznych dziewczyn. A może… po prostu się tymi spisami wymienimy?

 

Autor: Łukasz Kapuśniak, Chief Technology Officer w Cloud Technologies S.A.

Firmy dokładają wielu starań, by ich contact center funkcjonowały lepiej, jednak mimo postępu technologicznego wciąż borykają się z licznymi problemami. Telefony w nieodpowiednim momencie, konsultanci, z którymi ciężko znaleźć wspólny język i nietrafione oferty to, tylko wycinek branżowych bolączek. Receptą na poprawę sytuacji mają być rozwiązanie oparte o zaawansowaną analitykę danych i uczenie maszynowe.

Michał pracuje w korporacji i niebawem planuje wyjechać z dziewczyną na długo wyczekiwany urlop. Po kilku dniach surfowania po internetowych stronach biur podróży zdecydował się w końcu na 10 dniowy pobyt w pięciogwiazdkowym hotelu na Krecie. Dzień po sfinalizowaniu transakcji zadzwonił telefon. Michał znał już ten numer. To natrętny telemarketer, który zawsze dzwoni w godzinach pracy i to w najmniej odpowiednich momentach. Tym razem jednak postanowił odebrać i ze zdziwieniem dowiedział się, że zamiast oferty garnków, konsultant contact center zaproponował mu ubezpieczenie turystyczne. Rozmowa nie trwała długi i jak można było przypuszczać, była produktywna dla obu stron.

Magia Big Data

Ten przykład pokazuje w jaki sposób analiza dużych zbiorów informacji przekłada się na biznes i doświadczenia klienta. Contact Center skorzystało z analityki Big Data i wzbogacenia własnego systemu CRM gromadzącego dane o klientach, o zewnętrzne informacje pozwalające na dokładną identyfikację zainteresowań danej osoby.

–  W sieci internauci pozostawiają po sobie mnóstwo cyfrowych śladów, które można przekuć na użyteczną wiedzę dotyczącą decyzji zakupowych, tym samym znacząco zwiększając szanse na sprzedaż i poprawę obsługi klienta. Dzięki wykorzystaniu sztucznej inteligencji możemy analizować gelolokalizację, zainteresowania użytkowników sieci, przyjrzeć się zainstalowanym przez nich aplikacjom oraz analizować tysiące innych zmiennych. To wszystko pozwala stworzyć wiarygodny profil klienta i monetyzować informacje  – zauważa Piotr Prajsnar, CEO Cloud Technologies, notowanej na NewConnect spółki, która jest operatorem jednej z największych hurtowni danych zbierającej informacje o zainteresowaniach internautów.

Globalnie przetwarza już 9 mld anonimowych profili internautów korzystających zarówno z urządzeń mobilnych, jak i desktopów. Wzbogacaniu systemów wspierających zarządzanie w contact center o zewnętrzne dane o internautach otwiera przed telemarketerami i pracownikami infolinii nowe możliwości, dając im dostęp do niezwykle użytecznej i dotychczas nieosiągalnej wiedzy. Jeśli pracujący przy projekcie badacze danych skutecznie powiążą je ze zgromadzonymi w systemie wewnętrznymi zbiorami cyfrowych informacjami, błyskawiczna reakcja na potrzeby klienta stanie się standardem, tak samo, jak wyodrębnianie grupy docelowej na podstawie profili behawioralnych konsumentów.

Dzięki analizie danych można dojść do bardzo ciekawych wniosków, zwiększając poziom satysfakcji klientów contact center. Można np. nie tylko zidentyfikować ich zainteresowania, to czego aktualnie szukają, ale także określić czas, w którym najlepiej zadzwonić do danej osoby. Korzystając z analizy z mediów społecznościowych, można prognozować zwiększenie ruchu telefonicznego czy zidentyfikować tematy, z którymi mogą dzwonić klienci – zwraca uwagę Paweł Pierścionek, Chief Technology Officer w Cludo, firmie dostarczającej zaawansowane rozwiązania chmurowe wspierające zarządzanie contact center.

Wybór profilu

Profilowanie behawioralne to znana praktyka o szerokim zastosowaniu. Stosuje się ją np. w kryminalistyce, reklamie internetowej i marketingu. Na podstawie takich profili największe portale randkowe parują użytkowników, wykorzystując do tego wprowadzone przez nich informacje i zaawansowane algorytmy. Podstawą takiej pracy są dane, a im jest ich więcej, tym lepiej. Właśnie w tę stronę zmierza branża call center.

– Dzięki danym i ich analizie, profilowanie klientów odbywać się będzie w czasie rzeczywistym i rzadkością będzie sytuacja, w której konsultant call center zadzwoni z propozycją pożyczki do osoby z milionami na koncie. Profilowanie będzie odbywało się na podstawie algorytmu uczenia maszynowego, co oznacza, że system będzie się ciągle rozwijał i zwiększał swoje umiejętności. Algorytm zajmie się segmentacją i oceni prawdopodobieństwo odpowiedzi na daną ofertę – twierdzi Piotr Prajsnar. Jego zdaniem, na podstawie indywidualnej historii klienta będzie można określić, z jakim prawdopodobieństwem przystanie on na ofertę, zrezygnuje z usługi lub przejdzie do konkurencji. – Mówimy tu o technologii, która pomoże przygotować szytą na miarę ofertę i określić odpowiedni moment na kontakt z klientem. Fantazja? Wbrew pozorom wcale nie. Z takich możliwości contact center korzystają już dziś – dodaje prezes zarządu Cloud Technologies.

Czar sztucznej inteligencji

Big Data w contact center to nie tylko precyzyjne targetowanie i pogłębiona wiedza o życiu klientów. Nowoczesne narzędzia oparte o analitykę danych i sztuczną inteligencję znajdują coraz szersze zastosowanie w biznesie, o czym na własnej skórze przekonała się firma Dialog Direct, która w amerykańskim miasteczku Grand Rapids w stanie Michigan otworzyła nową placówkę call center i w ciągu miesiąca potrzebowała zatrudnić 140 telemarketerów. Dla działu HR takie wyzwanie to prawdziwe piekło. Dotychczas, by zrekrutować jedną osobę, przy dobrych wiatrach, zespół potrzebował minimum dwóch roboczogodzin. Rekrutacja ponad 140 nowych pracowników zajęłaby mu co najmniej dwanaście 24 godzinnych dni pracy. W tak krótkim czasie wykonanie narzuconego przez zarząd zadania było niemożliwe do zrealizowania. Szukając rozwiązania, które pomogłoby firmie wyjść z impasu, Jack Wilkie, Chief Marketing Officer, dowiedział się o działającej w chmurze obliczeniowej platformie do optymalizacji HR, która wykorzystując analitykę Big Data skracała proces rekrutacji o 75 proc. Jak to możliwe? Kandydaci zainteresowani pracą w nowej placówce Grand Rapids musieli nie tylko wypełnić szczegółową ankietę online, lecz również aktywnie uczestniczyć w symulowanej rozmowie, mającej sprawdzić ich naturalne predyspozycje do pracy na stanowisku telemarketera. Korzystający z analityki predyktywnej system automatycznie analizował nagrania wraz z danymi z elektronicznej ankiety, a następnie oznaczał najlepiej rokujących aplikantów kolorem zielonym, problematycznych – żółtym, a tych, którzy nie spełniali wymaganych kryteriów – czerwonym. Nowa metoda rekrutacji okazała się strzałem w dziesiątkę. – To pozwoliło nam oszczędzić 45 minut w procesie rekrutacji pojedynczego pracownika – przyznaje Wilkie.

Zaawansowane algorytmy mogą pomóc call center osiągać lepsze wyniki również poprzez przemyślane przydzielenie konsultantów do konsumentów. Istotną rolę odgrywa tu nie tylko typ osobowości, lecz również wiek, płeć i pochodzenie rozmówcy. Z badań przeprowadzonych przez Software Advice na terenie Stanów Zjednoczonych wynika, że aż 67 proc. osób w wieku przekraczającym 65 lat preferuje rozmowę z konsultantem wysławiającym się w sposób powolny. Taki stan rzeczy wydaje się w miarę oczywisty, jednak pozostałe wyniki mogą stanowić spore zaskoczenie. Okazuje się bowiem, że 24 proc. mieszkańców miast preferuje rozmowę z telemarketerem w swoim własnym wieku, podczas gdy zaledwie 10 proc. mieszkańców wsi uważa, że jest to istotne. Ważną rolę odgrywa również pochodzenie rozmówcy. 78 proc. ankietowanych w wieku 55 – 64 preferuje kontakt z telemarketerem o tej samej narodowości, natomiast procent osób w przedziale wiekowym 18 – 24 o takiej inklinacji wyniósł 48. Nowoczesne systemy do zarządzania contact center winny brać pod uwagę tego typu badania i za sprawą uczenia maszynowego prowadzić własne analizy, pozwalające na inteligentne parowanie konsultantów z konsumentami.

 

Prognoza zakłada, że do końca dekady wzrost utrzyma się na poziomie 11,9 proc. rdr. Dużo gorzej sytuacja wygląda nad Wisłą. Polskie przedsiębiorstwa znalazły się w ogonie rankingu Komisji Europejskiej poświęconego popularyzacji rozwiązań do przetwarzania Big Data.

Eksperci z IDC od lat wieszczą nadejście cyfrowej gospodarki. Jej znakiem charakterystycznym ma być przetwarzanie ogromnych wolumenów nieustrukturyzowanych danych przez firmy, instytucje państwowe czy organizacje pozarządowe. Globalny Rynek Big Data i analityki biznesowej rośnie dziś w tempie 11,9 proc. rdr i już w tym roku osiągnie wartość 150,8 miliardów dolarów – prognozują analitycy z międzynarodowej firmy doradczej. To o 12.4 proc. więcej niż w roku ubiegłym. Do takiego wyniku przyczyniły się przede wszystkim inwestycje z sektorów bankowego i produkcji przemysłowej. Jeśli prognozy się sprawdzą, to już w 2020 r. rynek analityki Big Data osiągnie wartość 210 miliardów dolarów.

– Rozwiązania z kategorii analityka biznesowa i Big Data w końcu znalazły się w głównym nurcie – powiedział Dan Vesset z IDC, firmy której przedstawiciele wielokrotnie informowali, że to właśnie zdolność czerpania korzyści biznesowych z danych ma świadczyć o cyfrowej dojrzałości przedsiębiorstw.

Tymczasem dla wielu przedsiębiorstw koncept ten wciąż wydaje się enigmatyczny i odległy w realizacji.

– Większość polskich firm wciąż nie zdaje sobie sprawy, że ich przetrwanie w dużej mierze zależy od tego, czy wypracują zdolność monetyzowania cyfrowych informacji. Wymaga się od nich nie tylko właściwego gromadzenia i przetwarzania wewnętrznych danych, lecz również sprawnego korzystania z tych zewnętrznych. Przyszłość, w której największe sukcesy odnosić będą firmy zarządzane w oparciu o zaawansowaną analitykę danych jest bliżej, niż nam się wydaje – uważa Piotr Prajsnar, prezes zarządu Cloud Technologies.

Zarządzana przez niego spółka specjalizuje się w Big Data marketingu oraz monetyzacji danych i posiada jedną z największych hurtowni danych o aktywności i preferencjach internautów na świecie.

– Gdy wystartowaliśmy w 2011 r. świadomość Big Data była znikoma. Dziś sytuacja wygląda dużo lepiej, firmy wdrażają zaawansowane narzędzia analityczne i coraz częściej sięgają po dane o internautach, jednak wciąż istnieje gros przedsiębiorstw, których podejście do tematu równoznaczne jest z ignorancją. Taka postawa z pozoru wydaje się niegroźna, ale na dłuższą metę może mieć fatalne konsekwencje – dodaje Prajsnar.

Jego słowa znajdują potwierdzenie w rankingu Komisji Europejskiej poświęconym popularyzacji narzędzi do analityki Big Data w biznesie. Polska uplasowała się w nim na trzecim miejscu od końca wyprzedzając jedynie Niemcy i Cypr. Na podium znalazły się Holandia, Malta i Belgia.

Toniemy w danych

Duże, nieustrukturyzowane zbiory różnorodnych danych, których przetwarzanie nie byłoby możliwe bez zaawansowanych rozwiązań informatycznych, to wciąż ziemia niezdobyta. Eksperci szacują, że z obecną technologią badacze danych są w stanie wykorzystać zaledwie 20 proc. wolumenu Big Data. Tymczasem ilość cyfrowych informacji w sieci rośnie dynamicznie. Zdaniem IDC w 2025 r. międzynarodowa sieć ważyć będzie aż 163 zettabajtów. Ta mało znana jednostka odpowiada trylionowi gigabajtów, a korzysta się z niej wyłącznie do globalnego pomiaru ilości cyfrowych informacji. Dla porównania, internetowy gigant Google w swoich nowoczesnych centrach danych gromadzi pliki o łącznym rozmiarze około 15 eksabajtów, co w przeliczeniu na zetabajty daje 0.015. Swoją wagę Internet w dużej mierze zawdzięcza zwyczajnym użytkownikom, których aktywność podsumowuje opublikowany przez firmę Domo raport „Data Never Sleeps 5.0”. Wynika z niego, że w ciągu minuty internauci publikują ponad 46 tys. zdjęć na Instagramie, korzystają z wyszukiwarki Google ponad 3,5 mln razy i umieszczają ponad 74 tys. postów w mikroblogowym serwisie Tumber. Według Domo światowa populacja internautów wzrosła w 2017 r. o 17 proc. i liczy już ponad 3.7 miliarda ludzi.

Najwięksi gracze zadowoleni

Stabilny wzrost rynku Big Data jest pochodną udanych implementacji zaawansowanych rozwiązań analitycznych. O ich skuteczności świadczy chociażby przeprowadzone przez NewVantage Partners badanie „Big Data Executive Survey for 2017”, w którym wzięło udział m.in. 50 z 1000 największych firm w USA. Ponad 80 proc. respondentów wyraziło zadowolenie ze zrealizowanych inicjatyw Big Data twierdząc, że okazały się sukcesem. Nie wszystko jednak idzie jak po maśle. Uczestnicząca w badaniu kadra kierownicza zwróciła uwagę na trudności we wprowadzaniu zmian w organizacji i kulturze przedsiębiorstwa, koniecznych do pełnego korzystania z możliwości, jakie daje firmom zaawansowana analityka wielkich zbiorów danych. Ich zdaniem problem nie tkwi w samej technologii, lecz w nierozumiejącym jej zarządzie, spójności organizacyjnej i ogólnym, wewnętrznym oporze.

W zasadzie cała cyfrowa transformacja opiera się o dane. Jeśli firma nie potrafi przetwarzać ich na korzyści to wciąż funkcjonuje jak w poprzedniej epoce. Brak strategii digitalizacji procesów wewnętrznych i implementacji rozwiązań analitycznych to spore zaniedbanie, którego firmy powinny wystrzegać się jak ognia. Na szczęście coraz więcej producentów jest tego świadoma i sięga po stosowne oprogramowanie –  uważa Piotr Rojek z DSR, firmy dostarczającej zaawansowane rozwiązania IT dla przemysłu.

W podobnym duchu wypowiada się prezes zarządu Cloud Technologies. Jego zdaniem okiełznanie danych wewnętrznych to zaledwie wstęp do cyfryzacji. Prawdziwy potencjał analityki objawia się dopiero, gdy w grę wchodzą wielkie, nieustrukturyzowane zbiory danych, z których człowiek nie jest w stanie wyciągnąć znaczących wniosków bez pomocy nowych technologii. Mowa tu o uzbrojonych w uczenie maszynowe, będące zaawansowaną formą sztucznej inteligencji, platformach DMP (Data Management Platform). Wykorzystuje się je m.in. do wyszukiwania powiązań i patentów w wolumenach Big Data. Największym obszarem zastosowania takich systemów jest reklama internetowa.

– Analizując dane o internautach w czasie rzeczywistym możemy kierować przekaz marketingowy do osób, które faktycznie mogą być nim zainteresowane. Spersonalizowana, szyta na miarę reklama behawioralna to kierunek, w którym nieuchronnie zmierzamy. Charakteryzuje się ona najwyższą skutecznością przy stosunkowo niewielkim nakładzie finansowymtłumaczy Prajsnar.

 

W ubiegłym roku zaledwie 6% polskich firm analizowało duże zbiory informacji – wynika z danych Eurostatu. Daje nam to przedostatnie miejsce w unijnym rankingu, przed Cyprem. Liderami pod względem digitalizacji i korzystania z Big Data jest Malta i Holandia. W tych krajach niemal już co piąta firma analizuje cyfrowe informacje.

Dane Eurostatu nie napawają optymizmem. W ubiegłym roku, zaledwie co trzecia firma działająca w UE, zatrudniająca co najmniej 10 osób, posiadała stronę internetową. Choć znacznie lepiej wyglądają  wskaźniki wykorzystana mediów społecznościowych w działaniach biznesowych – przyznaje się do tego już połowa firm – to ten wyjątek tylko potwierdza regułę: cyfryzacja to pięta achillesowa wielu przedsiębiorstw. Nie tylko polskich. Najlepiej ilustrują to dane na temat wykorzystania Big Data.

Daleko za liderami

Jak wynika z opublikowanego przez firmę Domo raportu „Data Never Sleeps 5.0”, w ciągu minuty internauci publikują ponad 46 tys. zdjęć na Instagramie, korzystają z wyszukiwarki Google ponad 3,5 mln razy i umieszczają ponad 74 tys. postów w mikroblogowym serwisie TumbIr. To kopalnia wartościowych informacji. Jednak póki co wykorzystywana rzadko. Jak wynika z unijnych danych, w UE tylko 10% firm analizuje duże zbiory informacji – o klientach, rynku czy konkurencji.

– To oczywiście średnia, są kraje, gdzie z danych korzysta się znacznie częściej, niemniej te liczby pokazują, że Big Data znajduje się na podobnym etapie rozwoju jak kilka lat temu chmura obliczeniowa. Biznes do cloud computingu podchodził na początku bardzo ostrożnie, dopiero gdy zobaczył efekty wdrożenia chmury, znacznie szybciej zaczął adaptować tę technologię. Podobnie będzie z Big Data. zwraca uwagę Piotr Prajsnar, CEO Cloud Technologies, notowanej na NewConnect spółki, która zarządza jedną z największych na świecie hurtowni danych.

Ten wzrost już widać, co dobrze ilustrują dane spółki, która jeszcze w II kwartale ubiegłego roku z usług opartych o Big Data wygenerowała 12 mln zł, a rok później już 16,7 mln zł. Póki co, w unijnym rankingu Polska wypada jednak bardzo słabo. Tylko 6% polskich firm korzysta z analityki Big Data, co daje nam w ogólnej klasyfikacji 24, przedostatnie miejsce przed Cyprem. Lepiej wypada od nas m.in. Rumunia, Czechy, Słowacja czy Bułgaria. Podium zajmują Malta, Holandia i Belgia, kolejne pozycje zajęły takie państwa jak Finlandia, Wielka Brytania czy Estonia.

Marketing korzysta z danych

Dystans jaki dzieli nas od dobrze zinformatyzowanych, ucyfrowionych państw, dobrze pokazuje nasycenie rozwiązaniami Big Data w dużych firmach. W Polsce z analityki danych korzysta 5% małych, 8% średnich i 18% dużych, zatrudniających powyżej 250 osób przedsiębiorstw. Dla porównania, na Malcie takich firm jest 42%, w Danii i Finlandii 40% a u naszych południowych sąsiadów – Słowaków i Czechów – odpowiednio 24% i 22%.

Najczęściej firmy analizują dane geolokalizacyjne z urządzeń przenośnych, do czego przyznaje się aż 46% przedsiębiorstw, a także dane generowane w mediach społecznościowych (45% wskazań). Co trzecia firma analizuje dane własne pozyskane ze smart urządzeń i sensorów. Dla porównania, w Polsce dane z urządzeń smart pozyskuje 10% firm, tyle samo wykorzystuje informacje geolokalizacyjne. Co ciekawe, dane pozyskane z mediów społecznościowych analizuje zaledwie 5% firm.

Najczęściej po dane sięga branża marketingowa, a w szczególności e-commerce, bo mają one największą świadomość korzyści. Dzięki analizie informacji z różnych źródeł można bardzo dobrze poznać zainteresowania i potrzeby klienta i tym samym znacząco zwiększyć skuteczność kampanii reklamowych i sprzedaż produktu. Widzimy także rosnące zainteresowanie analizą danych ze strony instytucji finansowych oraz firm działających w segmencie B2C, które wzbogacają nimi swoje systemy CRM – tłumaczy Piotr Prajsnar z Cloud Technologies.

Zewnętrzne

Firma analityczna IDC szacuje, że rynek Big Data rośnie dziś w tempie 11,7, proc. rdr i w 2020 r. osiągnie wartość 203 miliardów dolarów. Jaka część tego tortu przypadnie Polsce? Jak wynika z unijnych danych, proces digitalizacji polskich przedsiębiorstw postępuje dużo wolniej niż ma to miejsce w większości innych państw UE. To o tyle ciekawe, że autorzy rankingu Digital Economy and Society Index 2017 (w którym że Polska zajmuje odległe 23 miejsce), zwracają uwagę na to, że poczyniliśmy postępy m.in. w obszarze cyfryzacji społeczeństwa, wdrażania szybkich połączeń internetowych czy korzystania z mobilnych usług szerokopasmowych. Jednak wprowadzanie technologii cyfrowych przez przedsiębiorstwa idzie nam wyjątkowo opornie.

– Podczas gdy unijny wskaźnik w tym obszarze rośnie nieprzerwanie od 2014 r., to w Polsce od ubiegłego roku utrzymuje się na niemal na tym samym poziomie. Oznacza to, że dystans dzielący nas od liderów systematycznie się powiększa. W tej sytuacji warto zastanowić się nad skorzystaniem z usług Data as a Service, w tym modelu nie trzeba inwestować we własne rozwiązania – zwraca uwagę Piotr Prajsnar z Cloud Technologies.

Jak wynika z danych Eurostatu, z zewnętrznych źródeł danych korzysta jedna czwarta firm. W Polsce, to zaledwie 1%.

 

Źródło: materiały prasowe firmy

Sztuczna inteligencja (AI) jest już dziś częścią rzeczywistości biznesowej, a w najbliższych latach należy spodziewać się, że w znaczącym stopniu będzie decydować o konkurencyjności firm. Aż 37 proc. przedsiębiorstw już w tej chwili wykorzystuje sztuczną inteligencję dzięki dostępnym na rynku rozwiązaniom jak np. CRM. Kolejnych 22 proc. planuje zrobić to w najbliższym czasie.

Przełom w technologii cloud, social media oraz mobile dały klientom dostęp do informacji oraz możliwości wyboru, a także elastyczność większą niż kiedykolwiek wcześniej. W rezultacie ponad połowa konsumentów (58 proc.) przyznaje, że technologia znacząco zmieniła ich oczekiwania wobec tego jak przedsiębiorstwa powinny się z nimi komunikować – 55 proc. z nich liczy na personalizację oferty. Co piąty klient oczekuje, że do 2020 roku, firmy będę wyprzedać jego potrzeby i zgodnie z nimi sugerować odpowiedni produkt. Co więcej, ponad połowa klientów deklaruje, że zmieni markę, jeśli ta nie spełni ich potrzeb.

Big data odpowiedzią na personalizację

Personalizacja nie jest możliwa bez danych dotyczących zachowań i wyborów klientów. Samodzielnie nie da się przeanalizować wszystkich dostępnych danych oraz wyciągnąć na ich podstawie odpowiednich wniosków – szczególnie przy ogromnej liczbie klientów. Według badania Salesforce tylko 12 proc. działów obsługi klienta oraz 18 proc. z działów sprzedaży ocenia swoje umiejętności do gromadzenia wiedzy na temat cyklu życia klienta, jako doskonałe bądź wybitne.

Tutaj z pomocą przychodzi sztuczna inteligencja. Na rynku pojawiają się systemy, które dzięki rozwiązaniom oferującym zaawansowane mechanizmy analityczne, nie tylko podpowiadają określone rozwiązania w oparciu o analizę danych, ale także pokazują prawdopodobieństwo osiągnięcia sukcesu przy zastosowaniu zaproponowanych rozwiązań. Przykładem jest np. system Einstein – szuka on wzorców w posiadanych danych oraz rekomenduje kolejne kroki, jakie powinniśmy podjąć – mówi Jan Michalski, Lider Salesforce w Deloitte Digital

Korzyść dla konsumentów

Inteligentna sprzedaż zwiększa wydajność i skraca czas pracy zespołom ds. sprzedaży i obsługi klienta. 80 proc. oddziałów korzystających z metod opartych na AI, przyznaje, że ma ona pozytywny wpływ na produktywność ich przedstawicieli handlowych, a 74 proc. z nich odnotowuje wzrost sprzedaży. Co jednak ważniejsze, sztuczna inteligencja pozwala firmom, budować trwałą i pogłębioną relację z konsumentami. Jest to możliwe, bo systemy oparte o AI mogą czasie rzeczywistym gromadzić informacje o klientach i podejmować z nimi indywidualny dialog – na masową skalę. 83 proc. sprzedawców, którzy korzystają z inteligentnej sprzedaży, odnotowało, iż pozwoliła im ona „zatrzymać klientów”. Natomiast 80 proc. przyznało, że umożliwiło im pielęgnowanie relacji z klientami (również tymi potencjalnymi).

AI zabierze miejsca pracy?

Często się mówi, że sztuczna inteligencja zastąpi pracowników, chociaż już w tym roku Gartner powiedział, że wcale tak nie będzie. Sztuczna inteligencja tak jak maszyny parowe albo Windows spowoduje wybuch kolejnych miejsc pracy i jej nowych rodzajów, o których dzisiaj jeszcze nie wiemy. Na przykład osoby, które będą trenować sztuczną inteligencję albo wymyślać nowe sposoby ich użycia. AI nie zastąpi sprzedawców, a e wspomagać sprzedaż podpowiadając np. jaki następny produkt mogą zaproponować klientowi i jak go przedstawić w sposób bardziej interesujący – mówił w newsrm.tv Jan Michalski.

 

Źródło: materiały prasowe firmy

Rozwój technologii analitycznych i ich szerokiego zastosowania w biznesie jest ściśle związany ze współpracą przedsiębiorstw z sektorem akademickim. Nowoczesne i szeroko dostępne programy kształcenia dla programistów i analityków mają ogromne znaczenie dla rozwoju biznesu. W erze big data firmy gromadzą ogromne ilości danych, ale nie są w stanie wykorzystać ich potencjału, gdyż brak jest wykwalifikowanych kadr. Piąta edycja międzynarodowej konferencji „Advanced Analytics and Data Science” organizowana 7 listopada 2017 r. przez Szkołę Główną Handlową w Warszawie we współpracy z SAS będzie poświęcona korzyściom wynikającym z kooperacji środowisk akademickich i biznesowych.

Szkoła Główna Handlowa jako pierwsza uczelnia w Polsce rozpoczęła współpracę z SAS i od ponad 20 lat jest jednym z głównych ośrodków kształcenia analityków oraz menedżerów rozumiejących znaczenie analityki w procesach podejmowania decyzji. W dowód uznania tych dokonań, w 2004 roku Szkoła otrzymała „SAS Academic Intelligence Award” dla najbardziej innowacyjnej uczelni w Europie, a w 2014 roku nagrodę za 20 lat innowacyjnej współpracy z SAS w Polsce.

Organizowana od 2013 roku międzynarodowa konferencja „Advanced Analytics and Data Science” to wyjątkowe wydarzenie dla przedstawicieli świata nauki i biznesu. Jego celem jest zaprezentowanie wymiernych korzyści wynikających z zastosowania zaawansowanych rozwiązań analitycznych w biznesie oraz dyskusja na temat wyzwań związanych z realizowaniem nowatorskich programów studiów i kształceniem specjalistów posiadających odpowiednie kompetencje analityczne, informatyczne i biznesowe dostosowane do zmieniających się potrzeb cyfrowej gospodarki.

Nasza konferencja na stałe wpisała się w kalendarz bardzo ważnych spotkań przedstawicieli nauki i biznesu w Polsce. Co roku gromadzi wybitnych gości i prelegentów, reprezentujących najważniejsze ośrodki akademickie z całego świata oraz wiodące firmy, które na zaawansowanej analizie danych opierają swoje strategie biznesowe. Wymiana wiedzy i doświadczeń pozwala zlokalizować realne potrzeby i problemy oraz inspiruje do współpracy – mówi profesor Ewa Frątczak, Kierownik Zakładu Analizy Zdarzeń i Analiz Wielopoziomowych, w Instytucie Statystyki i Demografii, Szkoły Głównej Handlowej w Warszawie.

Data Scientist – analityk naszych czasów

Przyszłość kształcenia analityków jest ściśle związana z rozwojem nowych technologii, takich jak big data. Potrzeba zarządzania coraz większą ilością danych i informacji przyczyniła się do powstania specjalizacji – Data Scientist – na którą sukcesywnie rośnie zapotrzebowanie na rynku analityki. Specjalista data science zajmuje się analizą danych i powinien posiadać wszechstronne umiejętności, łącząc w sobie cechy programisty, analityka czy statystyka. Jednak najważniejszymi cechami „mistrza danych” jest łatwość prezentowania wniosków wyciągniętych na podstawie analizy informacji tak, aby były one zrozumiałe dla szerokiego grona członków organizacji, a także umiejętność pracy w zespole.

Studia data science na SGH

Szkoła Główna Handlowa w Warszawie jest prekursorem kształcenia specjalistów data science w Polsce. Od 2015 roku został uruchomiony nowy kierunek studiów „Analiza Danych Big Data”, który od początku cieszył się ogromnym zainteresowaniem kandydatów. Jedna trzecia przedmiotów kierunkowych realizowana jest przy wykorzystaniu oprogramowania i technologii SAS. W ramach podpisanego w 2017 roku porozumienia, w nowym roku akademickim absolwenci tego kierunku uzyskują Certyfikat „Data Scientist z Systemem SAS”. Ponadto, zostanie również wprowadzony Certyfikat „SAS Statistical Analyst” dla studentów Studiów Podyplomowych „Analiza Statystyczna i Data Mining w Biznesie” oraz „Analityk Statystyczny z Systemem SAS” dla absolwentów studiów licencjackich. W Szkole Głównej Handlowej działa także koło naukowe Biznes Analytics, które co roku organizuje konferencje i inne wydarzenia.

Realizacja programów kształcenia w Szkole Głównej Handlowej gwarantuje studentom dostęp do nowoczesnych technologii i narzędzi analitycznych. Nasi studenci już na ostatnich latach studiów są rozchwytywani przez pracodawców i praktycznie mogą przebierać w ofertach pracy. Co roku nasze mury opuszcza pokaźna liczba absolwentów z Certyfikatem SAS i praktycznie wszyscy znajdują zatrudnienie w silnych komórkach analitycznych w wiodących firmach na rynku. Oprócz programów kształcenia staramy się również aktywnie wspierać rozwój rynku analitycznego w Polsce poprzez publikacje książek i wyników badań naukowych oraz organizację spotkań i wydarzeń, takich jak konferencja „Advanced Analytics and Data Science” – dodaje profesor Ewa Frątczak.

Konferencja „Advanced Analytics and Data Science” odbędzie się 7 listopada 2017 roku w Szkole Głównej Handlowej w Warszawie. Konferencja objęta jest patronatem honorowym Rektora Szkoły Głównej Handlowej w Warszawie – profesora Marka Rockiego. Patronat medialny nad wydarzeniem objęły redakcje ITwiz i fintek.pl.

Źródło;  SAS

 

Porządkowanie mnożących się wirtualnych danych jest jednym z największych problemów w świecie IT. Twórcy nowoczesnych technologii dwoją się i troją w poszukiwaniu rozwiązań, które na lata zaspokoją potrzeby rynku analizy i wizualizacji cyfrowych danych. Polscy dostawcy nie odstają od swoich europejskich czy światowych konkurentów i stworzyli nowatorski system, który znajdzie zastosowanie w wielu branżach przemysłu i biznesu. Targi Hannover Messe będą okazją dla firmy APA Group do zaprezentowania innowacyjnej platformy, która może zrewolucjonizować świat automatyki.

Inteligentne technologie to w dużej mierze praca na gigantycznych zbiorach danych. Wedle szacunków firmy analitycznej Oracle, Internet powiększa się o ponad 40 proc. nowych danych w skali roku. W każdej chwili globalna sieć po raz pierwszy w historii może przekroczyć próg 10 zettabajtów danych, a już w 2020 r. będzie liczyć aż 45 zettabajtów. Tak liczne zbiory danych zmiennych nazywamy Big Data. To termin odnoszący się do przetwarzania i analizy danych, dzięki którym możliwe jest zdobycie i wykorzystanie nowej wiedzy.

W kontekście społecznym Big Data ma duży wkład w rozwój systemów zarządzania  budynkami czy całą infrastrukturą miejską, które są bezpośrednio odpowiedzialne za tworzenie rozwiązań polepszających jakość życia. Mogą być nimi systemy automatycznego sterowania, opomiarowania, bezpieczeństwa, zarządzania parkingami, ruchem miejskim i wiele innych, dzięki którym oszczędzamy czas i pieniądze.

Drogą do wykorzystania Big Data w celu poprawy jakości życia, optymalizacji kosztów utrzymania czy ochrony środowiska są m.in. systemy BMS (Building Management System). To rozwiązania, które pozwalają na integrowanie, monitorowanie oraz kontrolowanie pracy urządzeń i instalacji technicznych w budynkach. Takie systemy, korzystając z zaawansowanych technologii Big Data, integrują i przetwarzają ogromne ilości informacji dotyczących zużycia energii, bezpieczeństwa, ogrzewania, wentylacji czy monitoringu.

Jednym z tego typu systemów jest NAZCA, który w formie przedpremierowej zostanie zaprezentowany podczas hanowerskich targów. To funkcjonalne oprogramowanie do automatyzacji procesów i analizy danych cechuje łatwość obsługi, skalowalność i wieloserwerowość. NAZCA to system zaprojektowany by współpracować między innymi z  chmurą Azure firmy Microsoft. Może rozwiązywać problemy i realizować zadania w ramach mniejszych podsystemów funkcjonalnych o charakterze określanym jako  BMS, SMS i EMS – czyli kolejno systemu zarządzania budynkiem, zarządzania bezpieczeństwem oraz zarządzania jakością i zużyciem energii. Oprócz aspektów technologicznych, działająca zgodnie z założeniami normy ISO 5001 NAZCA, potrafi przynieść wymierne korzyści finansowe poprzez kontrolowanie zużycia mediów, a w konsekwencji obniżyć koszty utrzymania obiektu.

Rozwiązania IoT będą tylko wstępem do świata inteligentnych rozwiązań. Na stoisku oprócz premiery systemu będzie można podziwiać działanie robota zaprojektowanego przez firmę KUKA, z którą polska firma współpracuje już ponad 3 lata. APA Group jako firma integratorska zrealizowała szereg projektów obejmujących programowanie robotów KUKA. Obie firmy postanowiły pochwalić się swoją współpracą wykorzystując platformę NAZCA do pozyskania danych dotyczących robota, a następnie zaprezentować wnioski i wizualizację jego pracy podczas targów.

Efektem współpracy systemu z robotem będzie pełna symulacja procesu pozyskania danych zwanych popularnie analizą Big Data. Proces będzie polegał na zgromadzeniu informacji  z robota,  przetworzenia ich, oraz przeprowadzenia wnioskowania na ich podstawie. Dodatkowo, zaprezentowany zostanie predictive maintenance, czyli szereg procesów pozwalających określić stan urządzenia w trakcie eksploatacji, po to aby przewidzieć, kiedy należy przeprowadzić konserwację. Zaletą takiego podejścia jest oszczędność, ponieważ w przeciwieństwie do konserwacji rutynowej lub prewencyjnej, zadania są wykonywane tylko w uzasadnionych przypadkach i opierają się na rzeczywistej kondycji sprzętu.

Źródło: apagroup.pl

 

Zbierają dane o użytkownikach sieci w 187 państwach, a ich autorska platforma DMP – OnAudience.com – przetwarza już ponad 3 mld profili internautów. Pokornie przyznają, że nie monitorują jeszcze aktywności sieciowej mieszkańców San Escobar, ale i tu obiecują rychłą poprawę. Warszawska spółka Cloud Technologies swój biznes zaczynała jako start-up w garażu. Dziś, po 6 latach działalności ma pozycję polskiego lidera analityki Big Data, posiadającego największą hurtownię danych w Europie. W tym roku spółka planuje opuścić NewConnect na rzecz głównego parkietu GPW.

Talmud głosi, że biedny jest tylko ten, kto nie ma wiedzy. Jeśli wiedza jest walutą, to Cloud Technologies jest jedną z najbogatszych firm na świecie. Warszawska spółka przetwarza już ponad 3 mld anonimowych profili internautów, wie sporo o ich zainteresowaniach, decyzjach i preferencjach zakupowych, zna ich wiek, płeć, geolokalizację i historię surfowania w sieci.

Czyny, nie dane

Umiejętne gromadzenie danych to prawdziwe błogosławieństwo, jednak data harvesting nie wystarczy, jeśli dane są nieaktualne lub nie wiadomo, jak je wykorzystać. Potwierdza to stare arabskie przysłowie: „Najlepszą wiedzą jest ta, która się łączy z czynem”. Gdy chodzi o dane, taki czyn to inaczej ich monetyzacja, według ekspertów z IDC jedna z najważniejszych zdolności, jakie współczesne firmy powinny posiadać, by odnieść sukces w cyfrowej gospodarce. Nie można odmówić tej zdolności zespołowi Cloud Technologies, który przy pomocy swojej autorskiej platformy OnAudience.com (Data Managing Platform) ze gromadzonych danych robi użytek na wiele różnych sposobów. To dzięki niej notowana na NewConnect spółka przetwarza już dane z ponad 3 mld profili internautów. Na bieżąco aktualizowane zbiory nieustrukturyzowanych cyfrowych informacji w większości pochodzą z plików cookies, a ich rozmiar dał Cloud Technoologies pozycję największej hurtowni danych w Europie, która monitoruje aktywność użytkowników sieci już w 187 państwach. Na ich długiej liście znalazła się nawet teoretycznie zupełnie zamknięta Korea Północna z kilkoma internautami, a niebawem – jeśli wierzyć śmiało rzuconej obietnicy – pojawi się również San Escobar. W państwach, gdzie danych zbiera się najwięcej, ilość aktywnych plików cookies liczy się w dziesiątkach milionów.

Wielkie małe początki

Tak jak w przypadku Google, Apple czy Amazon, początki firmy założonej w 2011 roku przez zafascynowanego cyfrowym światem Piotra Prajsnara były raczej skromne. Najpierw start-up w garażu, potem biuro w niewielkim mieszkaniu w Warszawie bez recepcji i ekspresu do kawy. Na początku krzątało się tam 2, a chwilę później już 6 oddanych sprawie pracowników. Dziś firma zatrudnia już ponad 50 osób.

Internet kusił mnie od zawsze i zdawał się być idealnym miejscem na założenie biznesu. Już w trakcie studiów fascynowało mnie maszynowe uczenie, inteligentne algorytmy oraz Big Data i w tym kierunku chciałem się rozwijać, bo wiedziałem, że to rynek bardzo perspektywiczny. Naturalnym środowiskiem dla analityki Big Data wydał mi się marketing i reklama internetowa. W tamtym okresie polska sieć zdominowana była przez reklamę masową w większym stopniu niż dzisiaj, a osoby, które na poważnie myślały o tajemniczym zjawisku, jakim było Big Data, dało się policzyć na palcach jednej ręki – wspomina Piotr Prajsnar, CEO Cloud Technologies S.A.

Na sukces nie trzeba było długo czekać, bo już w 2012 r. spółka zadebiutowała na NewConnect. Jeśli ktoś zainwestował w jej akcje 100 tys. zł, to dziś jest milionerem. Kurs w ciągu zaledwie kilku lat wzrósł z około 1 zł do blisko 100 zł. Polski lider analityki danych nie spoczął jednak na laurach, o czym świadczą m.in. jego wyniki za ostatni kwartał 2016 r. W porównaniu z analogicznym okresem poprzedniego roku, przychody zwiększyły się o 64,7% a zysk netto wzrósł aż o 78%, do poziomu 7,4 mln zł netto. To najlepsze wyniki w historii firmy, która jeszcze w tym roku planuje przejście z NewConnect na Rynek Główny GPW.

Analityka na eksport

Nim transfer dojdzie do skutku, firma założona przez Prajsnara znacznie się powiększy. Niebawem ma zostać sfinalizowana rekordowa transakcja. Jej przedmiotem jest przejęcie działającej na 36 rynkach agencji nowych technologii Imagine The Future, która 95% kampanii realizuje poza granicami Polski. Cloud Technologies ma przejąć w niej wszystkie udziały za niebagatelną kwotę 320 mln zł. Zakup ma charakter strategiczny i jak przekonują nabywcy, przyczyni się do rozwoju ich międzynarodowej działalności oraz dystrybucji produktów i usług związanych z performance marketingiem, który już teraz generuje większość przychodów Cloud Technologies. To też olbrzymia szansa dla UnBlocka, innowacyjnego narzędzia, umożliwiającego wydawcom wyświetlanie reklam pomimo zainstalowanych wtyczek blokujących reklamy i dopasowanie ich do zainteresowań internautów. UnBlock potrafi odblokować praktycznie każdy format reklamowy, włącznie z kreacjami typu Rich Media, czyli np. reklamą video. Może też przetworzyć kreację reklamową i wyeliminować dużą część operacji obliczeniowych z przeglądarki użytkownika, co zapobiega spowolnieniu w ładowaniu witryny na jego komputerze. Opracowana nad Wisłą technologia, którą interesują się już wydawcy na całym świecie, przechodzi właśnie międzynarodową procedurę patentową.

Działalność warszawskiej spółki to nie tylko Big Data marketing i reklama internetowa. Cloud Technologies w ramach usług consultingowych wspiera inne firmy w zakresie gromadzenia i analityki danych, dostarczając cyfrowe informacje o sieciowej aktywności internautów do ich systemów BI, CRM i ERP. To nic innego, jak usługa Big Data as a Service. Przedsiębiorcy w coraz większym stopniu dostrzegają potencjał analityki dużych zbiorów nieustrukturyzowanych danych. Coraz częściej również zdają sobie sprawę z ograniczeń ich aktualnych systemów IT, ale niekoniecznie chcą inwestować we wdrożenia własnych narzędzi. Stąd zapotrzebowanie na takie usługi. Z raportu MarketsAndMarkets wynika, że do 2020 rynek BDaaS ma rosnąć do 2020 r. aż o 31% rocznie. To najszybciej rozwijająca się gałąź IT, w której na naszym podwórku Cloud Technologies pozostaje niekwestionowanym liderem.

Źródło: Cloud Technologies

Chociaż segment Big Data rozwija się nieprzerwanie niemal 6-krotnie szybciej niż cały rynek IT, na wymierne rezultaty przyjdzie nam jeszcze poczekać. Jak wynika z badania przeprowadzonego w USA na zlecenie SAS, 49% przedsiębiorstw twierdzi, że jest za wcześnie, aby ocenić zwrot z inwestycji w projekty Big Data. Jedynie co trzecia firma odnotowała zyski wynikające z wykorzystania rozwiązań do analizy dużych zbiorów danych.

Biznes doskonale zna korzyści związane z wykorzystaniem Big Data. Informacje zawarte w dużych zbiorach danych pochodzą z różnych źródeł i wciąż podlegają aktualizacji, dzięki czemu pozwalają uzyskać pełen obraz sytuacji wewnątrz firmy lub dokonać kompleksowej analizy rynku. W oparciu o Big Data podejmowane są najważniejsze decyzje biznesowe dotyczące planów rozwoju, strategii sprzedaży czy kampanii marketingowych. Nie dziwi zatem fakt, że aż 83% firm ze Stanów Zjednoczonych przebadanych przez SAS inwestuje w projekty związane z Big Data.

Mimo, że inicjatywy te są na różnym stopniu zaawansowania, respondenci zgodnie przyznają, że na ich efekty trzeba będzie jeszcze poczekać. Osiągnięcie szybkich rezultatów ogranicza niski stopień wykorzystania technologii chmurowych i machine learning, a także brak wykwalifikowanych pracowników oraz powszechnego dostępu do danych.

Kto korzysta z Big Data?

Stopień implementacji rozwiązań z zakresu Big Data jest w dużej mierze zależny od branży. Prym wiodą firmy z sektora usług finansowych, które wykorzystują analizę wielkich zbiorów danych między innymi w procesie oceny ryzyka kredytowego, czy selekcji klientów, którym zostanie przedstawiona oferta konkretnego produktu bankowego. Tego typu analizy, które wcześniej trwały nawet kilka dni, dzięki algorytmom umożliwiającym przetworzenie i analizę wszystkich niezbędnych danych, odbywają się teraz w czasie rzeczywistym.

Firmy, które z równym powodzeniem co sektor finansowy wdrażają rozwiązania Big Data to przedsiębiorstwa zajmujące się handlem detalicznym. Kolejną branżą, która w największym stopniu korzysta z potencjału gromadzonych informacji jest telekomunikacja. Firma analityczna IDC przewiduje natomiast, że znaczny popyt będzie także generowany ze strony firm wytwórczych. Ma to związek z upowszechnieniem idei Przemysłu 4.0, która zakłada wykorzystanie m.in. Internetu Rzeczy do poprawy sprawności linii produkcyjnych, a w efekcie zmiany modelu biznesowego przedsiębiorstw, które rozbudowują swoją ofertę w oparciu o nowe technologie. Wdrażając rozwiązania z zakresu Big Data, firmy wytwórcze mogą obniżyć koszty operacyjne średnio o 20 procent, odnotowując przy tym ok. 30 procentowy wzrost zysków. IDC przewiduje, że do końca tego roku przedsiębiorstwa wytwórcze będą odpowiadały za ponad 20 procent wydatków na projekty związane z Big Data.

Duże zbiory danych – umiarkowane rezultaty

Jedną z największych barier rozwoju rynku systemów analitycznych jest brak wykwalifikowanych specjalistów. Firmy zgłaszają coraz większe zapotrzebowanie na osoby, które potrafią przełożyć wnioski z danych na konkretne decyzje biznesowe. Według raportu SAS, tylko co druga firma posiada w swoich szeregach osobę odpowiedzialną za proces ochrony i przetwarzania danych w ramach całej organizacji (Chief Data Officer). Inną barierą jest niski stopień demokratyzacji danych.

Dostęp do informacji mają głównie wykwalifikowani specjaliści z zakresu data science i analitycy biznesowi. Z badania SAS wynika, że jedynie 13% firm umożliwia pracownikom samodzielny dostęp do danych bez wsparcia lub nadzoru zespołu IT.

Problemem jest również czas potrzebny na uzyskanie konkretnych informacji. Różnice w przebadanych firmach były bardzo duże, co z pewnością wynikało z różnego stopnia zaawansowania technologicznego. Jedna trzecia respondentów przyznała, że może liczyć na natychmiastowy dostęp do danych, jednak podobna grupa (28%) wskazała, że może to zająć nawet tydzień. Biorąc pod uwagę dynamikę współczesnego rynku i rosnącą w ogromnym tempie ilość informacji pochodzących z Internetu, możliwość dokonywania szybkich analiz zyskuje kluczowe znaczenie w kontekście podnoszenia konkurencyjności.

Szerszą możliwość wykorzystania narzędzi analitycznych stwarza technologia cloud computing. Dzięki chmurze, osoby decyzyjne mogą mieć dostęp do zintegrowanych informacji w czasie rzeczywistym. Niestety tempo wdrażania usług chmurowych jest nadal bardzo wolne. Jedynie co piąte przedsiębiorstwo przebadane przez SAS korzysta z modelu chmury obliczeniowej, podczas gdy pozostałe firmy przechowują dane na własnych serwerach. Trend ten z pewnością będzie ulegał odwróceniu. Według MarketandMarkets, rynek Cloud Analytics, który w 2013 roku był wart 5,25 mld dolarów, do 2018 roku zwiększy się ponad trzykrotnie, osiągając wartość 16,5 mld dolarów.

Innym rozwiązaniem ułatwiającym wykorzystanie potencjału drzemiącego w danych jest platforma Hadoop umożliwiająca przechowywanie i szybkie przetwarzanie zbiorów Big Data. Z badania SAS wynika, że coraz więcej przedsiębiorstw docenia jej zalety. Aż 56 procent respondentów, którzy aktywnie zaangażowali się implementację projektów z zakresu Big Data zdecydowało się na wykorzystanie tego narzędzia. Z kolei 40 procent przebadanych firm rozważa zastąpienie obecnych rozwiązań hurtowni danych platformą Hadoop.

Machine learning automatyzuje analizę dużych zbiorów danych

Przyszłością Big Data jest sztuczna inteligencja, a dokładniej technologia machine learning, która wpływa na automatyzację i przyśpieszenie procesów analitycznych. Coraz więcej firm dostrzega potencjał związany z wykorzystaniem uczenia maszynowego w zastosowaniach biznesowych. Dzięki wykorzystaniu samouczących się algorytmów, komputery mogą samodzielnie analizować dane oraz dostosowywać modele do zmiennych zjawisk i wymagań w celu szybkiego znalezienia optymalnego rozwiązania. Technologia machine learning wspiera proces decyzyjny oraz umożliwia skuteczne tworzenie predykcji biznesowych. Z raportu SAS wynika, że co piąte przedsiębiorstwo wdrożyło rozwiązania z zakresu machine learning lub sztucznej inteligencji (AI), podczas gdy 23 procent firm eksperymentowało z uczeniem maszynowym. Największy odsetek przebadanych organizacji rozważa wprowadzenie tych rozwiązań w przyszłości, co powinno wpłynąć na przyśpieszenie efektów analizy dużych zbiorów danych.

Źródło: SAS Institute

 

Polski rynek telekomunikacyjny należy do kilku najważniejszych graczy, którzy w najbliższych latach stawiają na startupy jako źródło nowych pomysłów i technologii.

Pod koniec 2016 r. w Polsce zarejestrowanych było ok. 2,7 tys. startupów, z których większość zajmuje się tworzeniem oprogramowania dla firm (dane Startup Poland). Najwięcej powstałych aplikacji jest kierowanych do branży telekomunikacyjnej. Jednak polskie startupy również aktywnie starają się wdrażać światowe trendy IT, takie jak Internet Rzeczy czy Big Data, czyli przetwarzanie wielkiej ilości danych.

Obserwując ten nieustannie rozwijający się rynek, polscy giganci telko postanowili wyciągnąć rękę do startupów. W dniach 6-7 marca w Warszawie odbędzie się największa ogólnopolska konferencja dla branży telekomunikacyjnej PLNOG, podczas której reprezentanci m.in. Orange, T-Mobile oraz UPC odpowiedzą na pytania dotyczące tego jak poszukują oraz wspierają działalność startupów, dlaczego zdecydowali się wesprzeć innowacyjne projekty oraz na jakie korzyści liczą w tym zakresie. – PLNOG-a organizujemy już od 9 lat, a w tym roku po raz pierwszy zdecydowaliśmy się sięgnąć po tematykę startupów w telekomunikacji. To z jednej strony efekt obserwacji i znajomości prężnie rozwijającego się rynku startupowego, a z drugiej – zapotrzebowania na innowacyjne rozwiązania ze strony korporacji telekomunikacyjnych. Chcemy stworzyć miejsce, gdzie te dwie strony dialogu spotkają się osobiście. Mamy nadzieję, że dzięki takim spotkaniom rozwój rynku telekomunikacyjnego w Polsce przyspieszy – mówi Jakub Kozioł, COO PROIDEA i PLNOG.

Giganci o innowacjach w startupach

Obecnie T-Mobile aktywnie prowadzi program akceleracyjny hub:raum WARP Sprints, który jest skierowany do startupów z całej Europy. Program gwarantuje zasoby, infrastrukturę i mentoring, co pozwala na rozwój produktu oraz szybsze wejście na europejskie rynki. Dotychczas we wcześniejszej wersji programu – WARP Accelerator –  przeanalizowanych zostało 3 tys. projektów, z czego akceleracji poddanych zostało 58 startupów z 18 krajów. Wg T-Mobile współpraca dużych korporacji, zwłaszcza telekomunikacyjnych, ze startupami może być idealnym połączeniem. Najważniejsze jest tutaj obustronne zrozumienie – zarówno wzajemnych potrzeb, oczekiwań, jak i różnic dzielących obie strony. Bardzo ważne w korporacyjnej akceleracji jest przygotowanie samej korporacji do absorpcji innowacji i wyznaczanie obszarów, w których są one najbardziej poszukiwane. Zbliżająca się edycja WARP Sprints obejmie trzy obszary: smart city, transport i logistykę oraz omnichannel, które zostały wyselekcjonowane w pełnej zgodzie ze strategią T-Mobile. – W hub:raum poszukujemy projektów, których telekom naprawdę potrzebuje i zgłasza gotowość do współpracy z zespołami z danego obszaru. Przed faktycznym rozpoczęciem akceleracji przygotowujemy także struktury wewnątrz korporacji, aby być gotowymi do absorpcji innowacji. Takie podejście jest korzystne zarówno dla T-Mobile, jak i dla współpracujących z nami startupów – mówi Jakub Probola, dyrektor zarządzający Hub:raum dla regionu Europy Środkowo-Wschodniej.

Równolegle do T-Mobile swój program prowadzi Orange – Orange Fab, który jest adresowany do małych i średnich firm, z którymi operator chce wspólnie rozwijać zaawansowane technologicznie rozwiązania. – W Orange Polska już od 3 lat rozwijamy program akceleracyjny dla startupów, Orange Fab. W każdej edycji zapraszamy do współpracy 4 młodych przedsiębiorców z potencjałem rozwojowym, wybranych spośród wielu zgłaszających się do programu. Warto przy tym podkreślić, że nie jesteśmy funduszem kapitałowym, ale akceleratorem, co oznacza, że startupom dajemy nie rybę, a wędkę. Zapraszamy ich do firmy, oferujemy spektrum możliwości – dystrybucję, infrastrukturę, badana marketingowe, doświadczenie ekspertów. Zapraszamy na duże imprezy branżowe (m.in. Wolves Summit, czy Viva Tech w Paryżu), kontaktujemy z inwestorami – ale to w ich rękach pozostaje odpowiedzialność za produkt i zakres naszej współpracy. Te 3 lata intensywnych doświadczeń utwierdziły nas w przekonaniu, że takie podejście, choć bardziej wymagające, finalnie przynosi korzyści obu stronom – mówi Piotr Muszyński, Wiceprezes Zarządu ds. Strategii i Transformacji Orange Polska.

UPC ze swoim programem Think Big z kolei chce dawać szanse przedsiębiorcom z regionu Europy Środkowo-Wschodniej, którzy mogą skorzystać z globalnego doświadczenia i wiedzy ekspertów firmy, a w którym walczą również o wsparcie finansowe. Dotychczas w ich programie udział wzięło ponad 500 przedsiębiorców, a wśród projektów wyróżnionych znalazło się m.in. rozwiązanie z zakresu smart security: pierwszy inteligentny system alarmowy dla mieszkań Elephant Door. – Idea programu THINK BIG narodziła się 4 lata temu. Dla wielu startupów stał się on przepustką do globalnego rozwoju ich biznesu. Uczestnicy Think Big nie tylko nawiązują w trakcie jego trwania nowe kontakty, ale także przyciągają uwagę inwestorów i najważniejszych mediów śledzących biznesowe trendy. W tym roku postanowiliśmy wspierać innowacje, które są bliskie temu, co robimy i po raz pierwszy, oprócz nagrody pieniężnej, chcemy zaoferować współpracę z nami. Przyglądamy się zatem przede wszystkim rozwiązaniom wykorzystującym możliwości szybkiego internetu i bogactwo treści wideo, które sprawdzą się w obszarze B2B, a także usprawniającym obsługę klientów i budującym pozytywne relacji z nimi. Chcemy też przyczynić się do dalszego wzrostu gospodarki cyfrowej zarówno w Polsce, jak i w całym regionie Europy Środkowo-Wschodniej – komentuje Frans-Willem de Kloet, Prezes UPC Polska.

Jedno jest pewne: startupy to obecnie źródło innowacyjnych i przyszłościowych pomysłów, które operatorzy chcą wdrażać do swoich struktur.

 

Źródło: PROIDEA

 

W 2020 r. już 67% wszystkich wydatków firm na infrastrukturę IT i oprogramowanie pochłonie chmura obliczeniowa. Według najnowszych prognoz IDC, w nadchodzących latach czeka nas również dynamiczny rozwój rozwiązań kognitywnych i sztucznej inteligencji. Technologie cyfrowe zostaną połączone z ludzkim ciałem a rozwiązania wirtualnej i rozszerzonej rzeczywistości coraz częściej będą wykorzystywane w działaniach marketingowych. Oto 10 najważniejszych zmian jakie dokonają się na globalnym rynku w obszarze technologii według IDC.

Od blisko 10 lat IDC śledzi i opisuje rozwój Trzeciej Platformy, która oparta jest na usługach przetwarzania danych w chmurze, technologiach mobilnych, analizie Big Data i mediach społecznościowych. W ostatnich latach technologie te są wdrażane znacznie szybciej, a przedsiębiorstwa masowo przeprowadzają cyfrową transformację i dołączają do Trzeciej Platformy. IDC przewiduje, że w ciągu najbliższych 3-4 lat, cyfrowa transformacja osiągnie skalę makroekonomiczną, zmieniając kształt globalnej gospodarki. W praktyce oznacza to początek „gospodarki cyfrowej transformacji”.

Frank Gens, wiceprezes i główny analityk w IDC twierdzi, że znaleźliśmy się w bardzo ciekawym momencie w historii. Jego zdaniem, cyfrowa transformacja przestaje być już projektem czy niezależną inicjatywą wewnątrz organizacji, a staje się biznesowym imperatywem. Dzisiaj każde przedsiębiorstwo, niezależnie od branży, w której działa, rynkowego stażu, aby się rozwijać, musi myśleć i funkcjonować jakby urodziło się w cyfrowej gospodarce. Determinuje to nie tylko sposób myślenia menedżerów oraz szeregowych pracowników, ale także sposób w jaki oni działają i tworzą rozwiązania.

Eksperci są zgodni co do tego, że konsumenci już dawno stanęli po cyfrowej stronie mocy i oczekują zarówno od firm jak i instytucji niekomercyjnych oferty, która zaspokoi ich „digitalowy” apetyt. W rezultacie, mamy do czynienia z sytuacją, w której cała gospodarka staje się ekosystemem, budowanym przy pomocy cyfrowych technologii. O tym, jak będzie ona wyglądać na świecie, mówią najważniejsze prognozy IDC:

  1. W 2020 roku sukces połowy z 2000 największych firm świata, będzie zależał od umiejętnego tworzenia produktów, usług i sposobów obsługi z wykorzystaniem technologii cyfrowych. Jednym z kluczowych obszarów będzie rozwijanie oferty w oparciu o posiadane dane. W firmach będących liderami w swoich branżach, przychody z produktów i usług „napędzanych danymi” będą rosły najszybciej. Rozwój w tym obszarze oznacza znaczące inwestycje związane z cyfrową transformacją, które w 2019 roku osiągną poziom 2,2 bln USD. Oznacza to, że będą o prawie 60% wyższe niż w 2016 r.
  2. Usługi Trzeciej Platformy, chmura publiczna, zaawansowana analityka, rozwiązania mobilne, akceleratory innowacji, systemy kognitywne, sztuczna inteligencja, rzeczywistość rozszerzona/ wirtualna (AR/VR) czy bezpieczeństwo nowej generacji to obszary, które będą wkrótce stanowić prawie 75 proc. wydatków na wszystkie technologie informatyczne. Wskaźnik ich wzrostu będzie dwukrotnie wyższy niż dla całego rynku informatycznego. Oznacza to znaczące przyspieszenie. Wcześniejsze prognozy IDC mówiły o ponad 60 proc. udziale technologii Trzeciej Platformy w wydatkach na technologie informatyczne.

Ta prognoza wydaje się szczególnie istotna dla tych dostawców rozwiązań IT, którzy nadal uważają, że tradycyjne produkty i konserwatywne podejście do dostarczania rozwiązań pozwolą im przetrwać na zmieniającym się rynku.

  1.  W 2020 roku technologie chmurowe pochłoną aż 67 proc. wszystkich wydatków przedsiębiorstw na infrastrukturę informatyczną i oprogramowanie. Filozofia „przede wszystkim chmura” staje się dominującym podejściem do infrastruktury informatycznej i oprogramowania, a w niektórych krajach ustępuję już miejsca modelowi „tylko chmura”. Analitycy przewidują również przeobrażenia samych chmur. Prognozy zakładają, że staną się one bardziej rozproszone, bezpieczniejsze, inteligentniejsze i lepiej dostosowane do wymagań konkretnych branż.
  2. Dynamicznie będzie rosła rola rozwiązań kognitywnych i sztucznej inteligencji. Narzędzia te już w 2019 roku będą wspierać 40 proc. inicjatyw dotyczących cyfrowej transformacji oraz 100 proc. działań w obszarze Internetu Rzeczy. Podobnie jak rozwiązania cyfrowe, IoT generuje ogromne ilości danych, których użyteczność i monetyzacja jest uzależniona w ogromnej mierze od wykorzystania sztucznej inteligencji. Z tego powodu, narzędzia pozwalające na efektywną analizę i wyciągnie wniosków z danych będą coraz powszechniejsze. AI staje się gorącym tematem dla programistów. W najbliższych latach rozpocznie się poważna walka między dostawcami rozwiązań AI o ekspertów wyspecjalizowanych w technologiach kognitywnych i sztucznej inteligencji. Do 2018 r. 75 proc. zespołów programistycznych włączy je w co najmniej jedną aplikację.
  3. W 2017 roku 30 proc. przedsiębiorstw z rankingu Global 2000, które obsługują bezpośrednio klientów, będzie eksperymentalnie wykorzystywać technologie rzeczywistości rozszerzonej lub wirtualnej w kampaniach marketingowych. Następuje dynamiczny rozwój technologii, który umożliwi klientom korzystanie z AR/VR. IDC przewiduje, że w 2021 roku ponad miliard osób na całym świecie będzie regularnie uzyskiwać dostęp do aplikacji, treści i danych za pośrednictwem platform AR/VR.
  4. Do 2018 roku trzykrotnie, bo aż do ponad 450 wzrośnie liczba chmur, które IDC określa mianem Industry Collaborative Cloud. Są to platformy chmurowe, na których przedsiębiorstwa z tej samej branży mogą współpracować z myślą o realizacji wspólnych celów. Przykładem może być zwiększenie efektywności czy dostępu do informacji. Budowa i korzystanie z rozwiązań tego typu wymaga otwartości i dużego zaufania do operatora chmury i innych podmiotów z niej korzystających, co stawia pod znakiem zapytania szanse na rozwój takich inicjatyw w Polsce. IDC przewiduje, że w najbliższych latach takich branżowych platform współpracy będzie coraz więcej, a do końca roku 2018 liczba chmur ICC wzrośnie trzykrotnie, z 50 w roku 2016 do ponad 150. Do 2020 r. już ponad 80% firm z listy Global 50 będzie dostarczała cyfrowe usługi za ich pośrednictwem.
  5. IDC przewiduje, że do końca 2017 roku ponad 70 proc. Przedsiębiorstw, spośród 500 największych organizacji, zatrudni zespoły wyspecjalizowane w cyfrowej transformacji i innowacjach. Do 2018 r. prognozowany jest 2-3 krotny wzrost zatrudnienia w działach programistycznych. Powód takiego stanu rzeczy jest łatwy do wytłumaczenia: sukces transformacji będzie zależał od nabywanych przez organizacje kompetencji i doświadczenia, bez nich rozwój nowych produktów i usług będzie niemożliwy. Z jednej strony firmy będą więc budować odpowiednie zespoły wewnętrzne, ale z drugiej będą musiały nauczyć się współpracy i korzystania z zewnętrznych zasobów programistycznych.
  6. Zmiany dotkną także rynek dostawców technologii. W 2020 roku 70 proc. przychodów dostawców usług przetwarzania danych w chmurze będzie generowane przez partnerów handlowych i innych pośredników. IDC spodziewa się, że do roku 2018, co najmniej jedna trzecia obrotów największych partnerów handlowych generowanych do tej pory ze sprzedaży sprzętu, będzie pochodziła ze sprzedaży lub pośrednictwa w sprzedaży usług opartych o technologię chmury. Dla partnerów oznacza to konieczność inwestycji w rozwój oferty oraz kompetencji w zakresie obsługi klienta, a często także zmiany sposobu działania firmy i jej przedstawicieli. Będą oni musieli skupić się bardziej na proponowaniu klientowi usługi, a nie tylko konkretnego produktu.
  7. W cyfrowej gospodarce niezbędne okażą się nowe narzędzia pozwalające określić efektywność działania firm. W 2020 roku wydajność będzie mierzona za pomocą narzędzi zorientowanych na cyfrową transformację. Spełnienie nowych standardów będzie wymagało zwiększenia wydajności biznesowej od 20 do 100 proc. Aby z powodzeniem funkcjonować i konkurować w gospodarce cyfrowej, przedsiębiorstwa będą musiały myśleć jak cyfrowa firma. Decydenci powinni rozumieć najważniejsze technologie informatyczne i posiadać doświadczenie w zarządzaniu nimi. Wzrost będą generowały produkty oparte na danych, konieczne więc będzie zbudowanie rozwiązań zwiększających zaangażowanie klientów oraz podnoszących wydajność operacyjną organizacji. Warunki te nie będą łatwe do spełnienia, przez co wiele firm zakończy swoją działalność. IDC szacuje, że co najmniej jedna trzecia spośród 20 największych firm, niezależnie od branży, w której działają, nie spełni oczekiwań. Zaostrzy to konkurencję i spowoduje duże zmiany na rynku.
  8. Najbardziej futurystyczne wydają się przewidywania dotyczące produktów i usług, które połączą technologie cyfrowe z ludzkim ciałem. Do 2020 r. jedna trzecia przedsiębiorstw działających w obszarze zdrowia i nauk biologicznych oraz produktów konsumpcyjnych zacznie tworzyć pierwszą falę usług i rozwiązań łączących technologie Trzeciej Platformy z ludzkim ciałem. W połowie lat 2020. technologie „rozszerzonego człowieka” staną się powszechnie dostępne. Integracja technologii cyfrowych z biosystemem człowieka oraz ich wykorzystywanie do inżynierii systemów biologicznych na poziomie komórkowym i subkomórkowym znajdują się dziś w początkowej fazie badań i rozwoju. Najbliższe cztery lata będą okresem testowania prototypów. Prawdopodobnie pojawią się pierwsze firmy nowej ery będące odpowiednikami Amazona, Google’a i Facebooka.

Źródło: International Data Corporation (IDC)

W ciągu najbliższych dziesięciu lat aż 40% spółek z indeksu S&P 500 przestanie istnieć, jeśli nie uda im się przeprowadzić cyfrowej transformacji swojego biznesu. O czym warto pamiętać w kontekście wdrażania rozwiązań łączących technologie Big Data i chmury obliczeniowej z mediami społecznościowymi?
W Polsce, wg Deloitte, zaledwie 41% polskich firm dysponuje planem inwestycyjnym odnośnie cyfrowej transformacji, 36% ustaliło plan operacyjny w tym zakresie, na wdrażanie i monitorowanie etapów transformacji jest natomiast gotowych jedynie 29% przedsiębiorstw.
Po pierwsze – jasny cel
– Organizacje powinny jasno określić cel, który zamierzają osiągnąć dzięki cyfrowej transformacji – w taki sposób, by ocena jego realizacji była wymierna i łatwa do wyliczenia. Dobrym rozwiązaniem będzie wspólne wybranie przez menadżerów nadzorujących proces digitalizacji jednego kluczowego obszaru i skupienie wokół niego działań transformacyjnych. Może być to zwiększenie wartości marż, satysfakcji klientów, optymalizacja kosztów lub poprawa szybkości wprowadzania produktów na rynek (time to market) – przekonuje Jacek Bykowski z Atmana, największego polskiego operatora centrum danych.
Przykładów, gdzie udało się precyzyjnie wskazać korzyści wynikające z wykorzystania technologii tzw. Trzeciej Platformy, nie brakuje. Firma kurierska UPS, adaptując technologie IoT i Big Data, uzyskała możliwość szczegółowej analizy parametrów swoich 46 tysięcy dostawczych aut. Dzięki temu może efektywniej planować kolejne trasy – każdego roku udaje się dzięki temu ograniczyć wydatki, gdyż zużycie paliwa potrafi spaść nawet o 30 milionów litrów. Tesco Bank, Generali Group czy Progressive Corporation, wykorzystując technologie Trzeciej Platformy, postanowiły obliczać koszty polis ubezpieczeniowych na podstawie monitorowanego przy pomocy sensorów IoT stylu jazdy swoich klientów. Analiza informacji pozyskanych od wielu ubezpieczonych pozwoliła na stworzenie pewnego rodzaju profilu ryzyka, na podstawie którego spółki indywidualnie wyliczają ceny, oferując nawet 40-procentowe rabaty kierowcom podróżującym najbezpieczniej.
Po drugie – łączenie technologii
Cyfrowa transformacja biznesu opiera się na technologiach Trzeciej Platformy – mobilności, z IoT włącznie, chmurze obliczeniowej i Big Data. Podczas gdy część menadżerów poziomu C stara się dostrzegać korzyści płynące z ich zbiorczego zastosowania, inni skupiają się wyłącznie na jednym obszarze. Jednak w obecnej erze technologiczny „monoteizm” nie ma szans na powodzenie – Nawet jeśli decydenci IT z danej spółki są przekonani do jednej technologii, powinni analizować, w jaki sposób inne mogłyby wpłynąć na poprawę efektywności firmy. Dla przykładu – strategia wykorzystania chmury obliczeniowej może jednocześnie łączyć w sobie strategię dla środowiska mobilnego, z opracowywaniem i testowaniem aplikacji biznesowych włącznie, oraz strategię analityki Big Data – tłumaczy Jacek Bykowski, dyrektor marketingu i rozwoju biznesu w Atmanie.
Gdzie sprawdza się zbiorcze wykorzystanie Trzeciej Platformy? Kanadyjski dostawca energii elektrycznej BC Hydro jakiś czas temu przeprowadził modernizację swoich liczników, czyniąc je „inteligentnymi” poprzez instalację sensorów i uruchomienie modułu analitycznego. Klienci mogą dzięki temu szczegółowo kontrolować zużycie energii co do godziny, a przede wszystkim śledzić jego zmiany za pośrednictwem prostej w obsłudze platformy korzystającej z analityki zebranych w założonym czasie danych. System umożliwia również automatyczne zaalarmowanie firmy w chwili, gdy na danym obszarze dojdzie do przerwy w dostawie energii, przez co może ona zareagować zdecydowanie szybciej. Wszystko to w efekcie pozwala na poprawę jakości usług przy zachowaniu konkurencyjności cenowej.
Jedną z większych inwestycji we wdrożenie rozwiązań Trzeciej Platformy, której wartość osiągnęła ponad 1 miliard dolarów, jest przykład urządzenia wearable o nazwie MagicBand, stanowiącego wyposażenie każdego odwiedzającego Disney World Resort. Za pomocą mobilnej opaski rezydenci obiektu mogą zameldować się w pokoju, zamówić lunch czy zarezerwować wybrane miejsce na jednym z wielu organizowanych wydarzeń. Ponadto system analizuje dane o ruchu odwiedzających park rozrywki, dzięki czemu władze obiektu są w stanie poprawić efektywność zakwaterowania, poznać stopień zainteresowania poszczególnymi atrakcjami czy lepiej zaplanować zaopatrzenie częściej i rzadziej odwiedzanych sklepów i restauracji.
Po trzecie – strategiczni partnerzy
Generowanie dużych zbiorów informacji, których ilość w związku z cyfrową transformacją ma zgodnie z prognozą IDC do 2018 roku powiększyć się nawet 500-krotnie, determinuje potrzebę dysponowania odpowiednimi zasobami informatycznymi do ich gromadzenia i przetwarzania. Stąd w dobie transformacji coraz większe znaczenie odgrywa outsourcing IT.
Jak wynika z raportu KPMG „Outsourcing metodą na cyfrową transformację”, choć koszty nadal są najważniejszym aspektem przy wyborze modelu funkcjonowania IT, to coraz większe znaczenie ma możliwość korzystania z usług wysokiej jakości i dostęp do specjalistycznej wiedzy. Znaczenie ma również elastyczność finansowa i dążenie do skrócenia czasu wdrożeń.
– Zdanie się na zewnętrznego partnera i przejście na model outsourcingu zasobów IT w zdecydowanej większości przypadków wiązać się będzie z niższymi kosztami. Dobrze widać to w przypadku kolokacji. Niezależnie od tego, czy spółka planuje wybudować nową serwerownię, czy już ją posiada i zamierza ją utrzymywać we własnym zakresie, oba te rozwiązania w perspektywie TCO (Total Cost of Ownership) będą droższe niż outsourcing powierzchni serwerowej. Zaletą kolokacji jest także przewidywalność finansowa, która w przypadku outsourcingu jest stosunkowo łatwo osiągana ze względu na skalowalność – firma płaci tylko za te zasoby, których w danym okresie potrzebuje i może swobodnie zarządzać ich zakresem – przekonuje Jacek Bykowski z Atmana.
Po czwarte – odpowiedzialne przywództwo
Pomyślne wdrażanie rozwiązań związanych z cyfrową transformacją wymaga odpowiedniego poprowadzenia tego procesu – w taki sposób, by wszyscy pracownicy przedsiębiorstwa mieli świadomość zachodzących zmian i ich znaczenia dla przyszłości firmy – Częstą praktyką jest ograniczenie zaangażowania w transformację jedynie do działów IT, co jest błędem, gdyż zmiany wpływają na całą strukturę spółki.
Menadżerowie poziomu C mogą natknąć się na problemy związane z oporem bądź obawami części kadry przed planem transformacyjnym, jednak silni liderzy wiedzą, jak przezwyciężyć te przeciwności – organizując warsztaty i szkolenia wyjaśniające w możliwe najprostszy sposób korzyści wynikające z cyfrowej transformacji. Jeśli pracownicy nie będą rozumieć, co ona oznacza i dlaczego jest tak istotna, bardzo trudno będzie płynnie wprowadzić szereg kluczowych zmian – zwraca uwagę Jacek Bykowski z Atmana.
Nie warto też digitalizować wszystkich procesów biznesowych równocześnie, lepiej działać stopniowo, i zacząć od drobnych zmian, do których zespół łatwo się zaadaptuje. Dla przykładu: system przechowywania danych firmowych w chmurze połączony z już istniejącymi w organizacji rozwiązaniami jest ważnym krokiem w kierunku jej cyfryzacji, a przy tym w żaden sposób nie wpływa na realizację codziennych zadań poszczególnych członków kadry.
Po piąte – czas reakcji
Mimo że aktywna odpowiedź na zmieniające się w związku z cyfrową transformacją środowisko biznesu może nieść za sobą pewne ryzyko, nie warto zwlekać. Nie należy bać się spojrzeć na swoją spółkę z zupełnie nowej perspektywy. Jak pokazują przykłady adaptacji nowych technologii, to one stają się głównym orężem w walce z konkurencją, więc większe szanse na zwycięstwo zyskają lepiej uzbrojone w nie przedsiębiorstwa.

Yahoo! ogłosiło właśnie stworzenie największego w swojej historii i jednego z największych na świecie zbiorów samo-uczących się danych o internautach. Platforma zarządzania danymi (DMP, Data Management Platform) autorstwa Yahoo! to „myśląca maszyna”, która zasięgiem obejmuje 20 milionów użytkowników i waży 13,5 TB danych, oczywiście zaszyfrowanych i anonimowych. Z kolei w naszej części świata największą platformę samo-uczących się danych (Big Data) stworzyli… Polacy. Oto ranking 5 kluczowych systemów Big Data na świecie, które wiedzą o internautach całkiem sporo.

DMP – co to takiego?

Data Management Platform to – w dosłownym tłumaczeniu – „platforma zarządzania danymi”. DMP to cyfrowe encyklopedie wiedzy o internautach, które swój rozkwit zawdzięczają rynkowi Big Data. Wedle analiz IDC ten ostatni rozwija się już w tempie sześciokrotnie szybszym niż cała branża IT.

Ilość danych w Sieci rośnie w zawrotnym tempie. Oracle twierdzi, że Internet z rok na rok powiększa swoją objętość o ponad 40 proc. Obecnie liczy ponad 8 ZB danych, jednak już w 2020 roku rozrośnie się do 45 ZB. Te cyfrowe informacje trzeba jednak gdzieś magazynować. Takim miejscem są właśnie platformy DMP, działające głównie w chmurze obliczeniowej (cloud computing). DMP to zatem nic innego, jak zewnętrzne hurtownie czy magazyny internetowych danych (third party data), dzięki którym firmy mogą rozbudować swoje własne cyfrowe zasoby (tzw. first party data), uzyskując w ten sposób bardziej precyzyjne informacje o klientach. Co więcej – mechanizmy zawarte w platformach DMP pozwalają gromadzić w jednym miejscu informacje o konkretnym użytkowniku nawet wówczas, gdy ten korzysta z różnych urządzeń: tabletu, notebooka czy smartfona.

Dzięki specjalnym algorytmom DMP pozyskują, sortują i kategoryzują wielkie zbiory internetowych danych (Big Data) z różnych źródeł, a następnie analizują je i przetwarzają. Efektem ich pracy są tzw. Smart Data, czyli użyteczne biznesowo informacje (dotyczące zachowań użytkowników czy procesów firmy), które można monetyzować w ramach działań marketingowych. Dzięki nim cyfrowe dane stają się rzeczywistym kapitałem firmy, zaś Internet ulega personalizacji. Namacalnym efektem działań DMP są np. spersonalizowane reklamy wyświetlane w przeglądarce, które dzięki wykorzystaniu danych stają się coraz lepiej dopasowane do zainteresowań i zachowań konkretnych użytkowników Sieci. Z danych przesianych przez platformy DMP korzysta już nie tylko branża marketingowa, lecz także instytucje bankowe, sektor ubezpieczeniowy czy telekomunikacyjny, a także maklerzy giełdowi czy politycy.

Mark Zagorski, CEO w eXelate twierdzi, że obecnie od 8 do nawet 10 proc. firm z listy Fortune 100 wykorzystuje platformy DMP, a w ciągu najbliższych 2-3 lat przynajmniej połowa firm z tej listy będzie skorzysta z zewnętrznych hurtowni Big Data. Przyjrzyjmy się zatem samym platformom DMP. Które z nich przechowują najwięcej danych? Innymi słowy: gdzie w Internecie wiedzą o nas najwięcej?

  1. Yahoo!

Platforma DMP autorstwa Yahoo!, której powstanie portal ogłosił na początku tego roku, swoim zasięgiem obejmuje 20 milionów użytkowników. Dziennie gromadzi i przetwarza ponad 13,5 TB danych o zachowaniach i zainteresowaniach internautów, głównie ze Stanów Zjednoczonych. Yahoo! od lutego do maja 2015 roku gromadziło anonimowe dane użytkowników, którzy odwiedzali strony takie jak strona główna samego Yahoo, a także Yahoo News, Yahoo Sports, Yahoo Finance oraz Yahoo Real Estate. Yahoo stworzyło tę platformę z myślą o społeczności akademickiej, w celu dostarczenia aktualnej bazy danych dla młodych naukowców, prowadzących badania oraz projekty dotyczące m.in. maszynowego uczenia. W tym celu firma uruchomiła inicjatywę Yahoo Labs Webscope, w ramach której badacze uzyskują otwarty dostęp do anonimowych i zaszyfrowanych wielkich zbiorów danych o internautach, które wykorzystywać wyłącznie do celów naukowych. Komercyjne korzystanie z tych zasobów jest zabronione.

Jak tłumaczy Suju Rajan, Director w dziale Personalization Science w Yahoo Labs oraz główny koordynator platformy DMP Yahoo: – Dane stanowią dziś siłę napędową badań nad uczeniem maszynowym (machine learning). Jednak dostęp do wielkich zbiorów danych był tradycyjnie przywilejem zarezerwowanym dla badaczy i naukowców pracujących w dużych firmach, niedostępnym dla większości badaczy akademickich.

Jak piszą przedstawiciele Yahoo – celem ich platformy jest wspieranie niezależnych badań i studiów nad dziedziną maszynowego uczenia, a także znalezienie wspólnej płaszczyzny współpracy na linii biznes-nauka, w ramach której obie strony korzystałyby ze swoich zasobów.

  1. Oracle

Platforma DMP autorstwa Oracle należy do jednych z największych na świecie i jest częścią Oracle Marketing Cloud. Samo Oracle tytułuje swoją platformę zarządzania danymi mianem największej platformy marketingowej świata, co według amerykańskiej firmy stało się możliwe dzięki przejęciu BlueKai, czyli firmy, która w skali globy była twórcą największej platformy danych typu third party. Prócz BlueKai platformę DMP autorstwa Oracle w dane zasila ponad 30 dostarczycieli danych typu third party, zaś łączna baza anonimowych profili internautów przekracza już 700 mln. Użytkownicy posegregowani są według ponad 40 tysięcy szczegółowych atrybutów, pozwalających na personalizację programów do marketingu, a tym samym – na zwiększenie precyzji komunikatów reklamowych, wyświetlanych internautom.

  1. Google

W tym zestawieniu nie mogło oczywiście zabraknąć Google, czyli – przypuszczalnie – największego agregatora danych na świecie oraz jego serwisów do analityki danych, utrzymywanych w chmurze obliczeniowej, czyli: BigQuery, Cloud Data Flow oraz Cloud Pub/Sub. Google kusi swoich klientów tym, że w każdym miesiącu 1 TB danych będzie przetwarzany za darmo. Już teraz z hurtowni danych największej wyszukiwarki świata korzystają zarówno młode startupy, jak i międzynarodowe koncerny. Google to właściciel i zarazem generator gigantycznego zasobu danych: obsługuje ponad 100 miliardów zapytań w wyszukiwarce w skali miesiąca, spośród których aż 1,17 mld to zapytania unikatowe. To dostęp do danych ponad 187 mln unikalnych użytkowników miesięcznie, a łącznie ponad 1 mld użytkowników. Już teraz Google odpowiada za ponad 75 proc. ruchu w wyszukiwarkach w USA.

Nic dziwnego, że firma z Mountain View już wielokrotnie była posądzana o praktyki monopolistyczne. Teraz czeka ją kolejna batalia z politykami Unii Europejskiej. A konkretnie z duńską komisarz ds. konkurencji: Margrethe Vestager, która wyraziła ostatnio głośno swoje zaniepokojenie faktem, że firmy IT przechowujące i przetwarzające ogromne ilości danych o internautach (jak np. Google czy Facebook), mogą stanowić zagrożenie dla konkurencyjności innych podmiotów działających na rynku Big Data. Unijna komisarz walcząca z monopolem stwierdziła: – Jeśli raptem kilka firm ma możliwość kontrolowania danych, które są potrzebne innym podmiotom w działaniach pro-klienckich czy obniżeniu ich kosztów, to oznacza to, że dysponują one możliwością rozprawienia się z rynkową konkurencją.

Szacuje się, że „żelazna dama z Danii”, nazywana również „goblinem pod łóżkiem Google’a”, może mocno uderzyć po kieszeni firmę Sundara Pichaia i jej gałąź związaną z analityką Big Data. Jeśli unijna komisarz postawi na swoim, to strata największej wyszukiwarki świata może sięgnąć nawet 6,6 mld dolarów. Nie wspominając już o konieczności zastosowania się do regulacji prawnych dotyczących dostępu i przetwarzania internetowych danych przez Google.

  1. Microsoft

Gigant z Redmond również może pochwalić się własną platformą DMP. I to nie byle jaką. Niezależna firma analityczna Gartner w swoich raportach „Magic Quadrants” twierdzi, że to właśnie rozwiązania chmurowe autorstwa Microsoft, pozwalające przetwarzać dane i zarządzać nimi w chmurze obliczeniowej (jak np. Azure czy SQL Server), zaliczają się dziś do jednych z najskuteczniejszych sposobów szyfrowania cyfrowych informacji dostępnych na rynku. Firma z Redmond, jako pierwsza na świecie, wdrożyła również międzynarodową normę przetwarzania danych w chmurze publicznej i jako jedyna legitymuje się certyfikatem ISO 27018, gwarantującym bezpieczne i przejrzyste zasady ochrony poufności danych.

Microsoft nie ukrywa, że cloud computing i Big Data to klucz do zrozumienia jego aktualnej strategii biznesowej. Satya Nadella, CEO Microsoft, mówi otwarcie, że strategia jego firmy opiera się właśnie na rozwijaniu rozwiązań chmurowych oraz technologii mobilnych, w myśl zasady: „Cloud-first, mobile-first”. Najwyraźniej te działania wychodzą firmie Billa Gatesa na zdrowie, ponieważ z chmury obliczeniowej Microsoft korzysta dziś ponad 80 proc. firm z listy Fortune 500. Dlatego nie powinien chyba dziwić fakt, że to właśnie na chmurze Microsoft zarabia dzisiaj krocie: przychody z cloud computingu w przypadku firmy Nadelli stanowią prawie 30 proc. całościowego przychodu Microsoftu i przekroczyły już 8 mld dolarów. CEO Microsoft nie zamierza jednak zwalniać tempa i mówi: – Robimy ogromne postępy, chcąc osiągnąć nasz cel, czyli 20 miliardów USD w rocznym komercyjnym przychodzie z chmury, który obecnie przekracza 8,2 miliardy dolarów. To może się udać, ponieważ w kwietniu zeszłego roku Microsoft przejął Revolution Analytics, dostawę platformy Revolution R Enterprise (RRE), na której oparła swój nowy produkt, nazywając go „Microsoft R Server”. To open source’owa platforma, która opiera się na dość popularnym języku programowania „R”. Jej głównym odbiorcą ma być biznes.

Z kolei Joseph Sirosh, Corporate Vice President w Microsoft, podczas konferencji PASS Summit 2015 bardzo mocno podkreślał, że to właśnie za sprawą rozwiązań takich jak cloud computing oraz analityki danych w chmurze obliczeniowej wkraczamy w „epokę danych”. Według szacunków ekspertów rynku, na które powoływał się Sirosh, do 2025 wielkie zbiory danych (Big Data) będą przechowywane niemal wyłącznie w chmurze obliczeniowej i tym samym całkowicie zdominują rynek, wypierając z niego inne (klasyczne) metody przechowywania danych na lokalnych (firmowych) serwerach.

  1. Cloud Technologies

Polacy również należą do grona największych graczy rynku platform zarządzania danymi, a jednocześnie – do głównych innowatorów w tej dziedzinie. Behavioralengine.com to platforma DMP autorstwa warszawskiej firmy Cloud Technologies, która jest również najszybciej rosnącą spółką na giełdzie NewConnect. Warszawscy programiści rozpoczęli prace nad tą platformą już w 2011 roku, jeszcze jako mały startup, gdy w Polsce o Big Data mało kto słyszał i niewielu widziało sens w analityce cyfrowych informacji, ani marketingu z wykorzystaniem danych. Po kilku latach behavioralengine.com stał się największym zbiorem samo-uczących się danych o internautach w Europie Środkowo-Wschodniej, który zaopatruje w dane samego Google’a. Obecnie platforma skonstruowana przez warszawskich badaczy danych przetwarza dziennie ponad 5 TB informacji i monitoruje 0,5 mln witryn. W jej zasięgu znajduje się aż 70 mln urządzeń i 20 mln realnych użytkowników. Oznacza to, że zaprogramowana przez Cloud Technologies „myśląca maszyna danych” zna zachowania i preferencje praktycznie każdego polskiego internauty. Dzięki zastosowanym w niej algorytmom potrafi sama dopasować reklamę do konkretnego internauty. Dostarcza również Smarta Data, czyli cennych biznesowo informacji o internetowych konsumentach, które wykorzystywane są przez polską branżę marketingową, bankową, ubezpieczeniową i telekomunikacyjną. Teraz polska spółka zamierza podbić swoim rozwiązaniem rynki zachodnio-europejskie, co może okazać się strzałem w dziesiątkę, ponieważ do platformy Yahoo! brakuje jej naprawdę niewiele. Jak tłumaczy Piotr Prajsnar, CEO Cloud Technologies i główny pomysłodawca warszawskiej platformy DMP: – Wkraczamy w drugą epokę cyfrową, nazywaną w branży również „cyfrowym humanizmem”. Kluczową rolę odgrywają w niej właśnie dane oraz to, co możemy z ich pomocą zdziałać. W grę wchodzą tu zarówno cele dalekosiężne, jak np. analityka predyktywna, która pozwala przewidywać przyszłe zdarzenia z większą dozą skuteczności, ale również cele bliższe, takie jak np. większa personalizacja Internetu. Treści wyświetlane w Sieci, dzięki odpowiedniej analityce danych, będą spersonalizowane, a tym samym – będą lepiej odpowiadały zainteresowaniom samych internautów.

DMP: Dane. Monetyzacja. Przyszłość.

Zgodnie z badaniem przeprowadzonym przez Infogroup, 62 proc. marketerów na całym świecie twierdzi, że stosuje marketing z wykorzystaniem danych (Big Data), zaś kolejne 26 proc. planuje w ciągu najbliższych 2 lat wypróbować takie rozwiązania i skorzystać z platform DMP. Marketerzy zdają sobie sprawę, że im więcej danych – tym większa wiedzy o kliencie, jego zainteresowaniach, zachowaniach, potrzebach itp. A to oznacza większą szansę na zaangażowanie klienta w interakcję z marką, uzyskanie jego pełnego, 360-stopniowego profilu, a tym samym – większy potencjał monetyzacji.

Z kolei według badania IDG Enterprise w najbliższych latach wydatki na projekty związane z Big Data spajał będzie jeden wspólny mianownik: monetyzacja danych. Podobnie twierdzi Deloitte, który w raporcie „Analytics Trends 2015” określa monetyzację danych jednym z najważniejszych trendów biznesowych w najbliższych latach. W „The Industrial Insights Report for 2015” 3 na 4 firmy IT (75 proc.) przyznają, że odnotowały wzrost przychodów, właśnie dzięki wykorzystaniu analityki danych.

„Internet Trends Report 2015” donosi natomiast, że wykorzystanie analityki Big Data w procesach biznesowych i prowadzonych przez firmę projektach, pozwala na znaczącą redukcję kosztów operacyjnych. Wydatki na utrzymanie infrastruktury IT w firmach, które wdrożyły u siebie tę technologię, zmniejszyły się w skali roku o 33 proc, zaś koszty przechowywania danych przedsiębiorstwa spadły o 38 proc. Monetyzacja danych oznacza zatem nie tylko wzrost przychodów, lecz również – redukcję kosztów biznesowych. W ankiecie „18th Global CEO Survey” przeprowadzonej przez PwC aż 80 proc. prezesów firm określiło analitykę, przetwarzanie i monetyzację danych – jako istotne działania z punktu widzenia strategii przedsiębiorstwa.

Platformy DMP to zatem przyszłość biznesu i główny motor przychodów w firmach. IDC twierdzi, że w ciągu najbliższego roku aż 30 proc. wszystkich danych, jakimi będą dysponowały przedsiębiorstwa, będzie pochodziło właśnie z zewnętrznych hurtowni Big Data. Według amerykańskiego ośrodka badawczego już teraz w skali globu 70 proc. dużych firm posiłkuje się danymi o użytkownikach gromadzonymi i przetwarzanymi przez DMP, zaś do 2019 roku tym tropem mają pójść już wszystkie duże organizacje.

 

Cloud Technologies

Rozwiązania z zakresu analityki wielkich zbiorów danych oraz chmury obliczeniowej stają się coraz popularniejsze w biznesie. Według badania przeprowadzonego przez Computing Technology Industry Association (CompTIA), 3 na 4  (75 proc.) ekspertów IT uważa, że ich firma rozwijałby się lepiej, gdyby tylko udało jej się w pełni wykorzystać potencjał cyfrowych danych. Z kolei aż 72 proc. ankietowanych specjalistów z branży IT twierdzi, że efekty wdrożenia mechanizmów do analityki Big Data przyniosły firmie sukces. W badaniu wzięło udział 402 specjalistów IT z całego świata.

Według Setha Robinsona, Senior Director Technical Analysis w CompTIA, głównym wyzwaniem dla przedsiębiorców stanie się konsolidacja zgromadzonych przez firmę danych, które przez wiele lat były zaniedbywane z powodu braku sensownej polityki danych w firmie. W rezultacie doszło do nagromadzenia różnych, niesprzężonych ze sobą źródeł danych wewnątrz przedsiębiorstwa:

Firmy muszą nauczyć się patrzeć na dane inaczej. Teraz starają się je uporządkować oraz zrozumieć ich strukturę, co okazuje się nie lada wyzwaniem. Największy problem stanowią bowiem dla przedsiębiorstw tzw. „silosy danych”, czyli niezintegrowane ze sobą skupiska informacji, powstałe w różnych działach czy departamentach firmy, gromadzonych niezależnie od siebie i często nieprzetworzonych. Już 42 proc. ekspertów IT deklaruje, że to właśnie integracja różnych źródeł danych w firmie będzie największą trudnością. Jeszcze dwa lata temu takiej odpowiedzi udzieliło „tylko” 29 proc. ankietowanych – mówi Seth Robinson z CompTIA.

Z ankiety CompTIA wynika również, że biznes wkracza w kolejny etap implementacji narzędzi do analityki Big Data. Zamierza wykorzystywać jej potencjał częściej oraz w większym zakresie. 63 proc. respondentów stwierdziło, że posiłkuje się danymi podczas wykonywania codziennych operacji, 61 proc. ekspertów IT deklaruje, że stało się bardziej ostrożnymi i czułymi na punkcie kwestii prywatności danych, a 59 proc. ankietowanych przyznaje, że pogłębiona analityka internetowa pozwala im lepiej zrozumieć ich klientów.

Z tą tezą zgadza się również Piotr Prajsnar, CEO Cloud Technologies, warszawskiej spółki zajmującej się analityką i monetyzacją danych, która z małego startupa wyrosła na największą hurtownię Big Data w tej części Europy, korzystając z eksplozji danych w Sieci.

Popyt na mechanizmy pozwalające analizować i monetyzować dane rośnie, ponieważ cała gospodarka nieuchronnie zmierza ku cyfryzacji. Analityka Big Data oraz chmura obliczeniowa odgrywają w tym procesie nieocenioną rolę. Boston Consulting Group w raporcie „The Value of Our Digital Identity” twierdzi, wartość wszystkich anonimowych danych zgromadzonych o internautach z obszaru całej Unii Europejskiej, w 2020 roku zbliży się do okrągłego biliona euro. Dane stają się nową walutą biznesu, który za ich sprawą zmierza w kierunku większej automatyzacji procesów – mówi Piotr Prajsnar – Big Data nie zwalnia tempa. Już teraz Internet rozrasta się w tempie 40 proc. w skali roku, ale blisko 90 proc. danych ma charakter „dark data”, czyli takich informacji, których biznesowy potencjał nie został jeszcze zidentyfikowany. Oracle prognozuje, że w 2016 roku po raz pierwszy w historii ruch IP przekroczy próg 1 ZB (Zettabajta) danych, a w ciągu kolejnych 3 lat w dodatku ta liczba podwoi się. Z kolei rozmiary samego Internetu szacuje się już na ponad 8 ZB, ale w 2020 roku będzie liczył już 45 ZB danych. Internet zaczyna pękać w szwach, a rozsadza go właśnie Big Data – dodaje CEO Cloud Technologies.

Nie bez powodu firma analityczna Gartner mówi dzisiaj o czekającej nas drugiej epoce cyfrowej. Jednak jej nadejście może się opóźnić, ponieważ rynek zmaga się z deficytem specjalistów. W badaniu CompTIA eksperci IT podkreślają, że problemem będzie biznesowe opanowanie lawinowo rosnącej ilości danych w Sieci, do czego mocno przyczyni się tzw. „luka kompetencyjna”. Największe braki eksperci IT dostrzegają w następujących obszarach: bieżąca analityka danych (42 proc.), relacyjne bazy danych (41 proc.), bezpieczeństwo danych (36 proc.), analityka predyktywna (35 proc.), oraz data mining (30 proc.).

– Narzędzia pozwalające obsługiwać i analizować duże zbiory danych ciągle są czymś stosunkowo nowym, więc ich potencjał nie jest jeszcze wykorzystywany w wystarczającym stopniu. W grę wchodzą tu również kwestie pewnego biznesowego doświadczenia, którego wciąż brakuje wielu analitykom. Chodzi o pewien zestaw umiejętności biznesowych. Analityk danych powinien posiadać nie tylko kompetencje informatyczne, lecz także potrafić mówić językiem biznesu. Tymczasem od wielu firm słyszymy, że poszukując pracowników tego sektora w swoim otoczeniu biznesowym, często napotykają na lukę kompetencyjną – twierdzi Seth Robinson, Senior Director Technical Analysis w CompTIA.

Biznes rozgląda się więc zarówno za danymi, jak i za analitykami danych. Potrzebuje ich dzisiaj nawet wydawałoby się „mało analityczna” branża HR. Chorzowska firma BPSC dostarczająca rozwiązania wspierające zarządzanie kapitałem ludzkim przeanalizowała w ubiegłym roku ogłoszenia o pracę. Wyniki nie pozostawiają złudzeń: już w ponad 20% analizowanych przypadków pracodawcy oczekiwali od kandydatów – HR-owców umiejętności analitycznych.

Wśród pracodawców pożądana jest umiejętność tworzenia raportów, prognoz i analiz m.in. w oparciu o dane zawarte w systemie ERP, istotne są kwalifikacje w obszarze oceny efektywności i osiągnięć pracowników oraz monitorowania kluczowych wskaźników HR. Widać, że pracodawcy wracają do podstaw analizy i wyceny pracy, odchudzania działań i procesów HR oraz badania ich efektywności. Niestety, HR-owcy sami przyznają, że tylko 19 proc. z nich czuje się gotowa do tego, by zmierzyć się z wyzwaniami w obszarze analityki – zauważa Anna Węgrzyn, kierownik projektu mHR w BPSC i wieloletni praktyk HR.

Big Data staje się elementem powszednim w biznesie, a nasycenie Sieci informacjami potencjalnie cennymi dla przedsiębiorstwa może tylko sprawić, że w najbliższych latach inwestycje w Big Data będą rosły. Już teraz IDC szacuje, że rynek analityki danych rozwija się w tempie sześciokrotnie szybszym niż cała branża IT. Tę sytuację dodatkowo napędza fakt, że na przestrzeni ostatnich lat koszty przechowywania i transmisji wielkich zbiorów danych radykalnie spadły.

Jeszcze w 1995 roku za przechowanie 1 GB danych firma musiała płacić blisko 1 000 USD. Za dostęp do Internetu polskie przedsiębiorstwa musiały zapłacić w 1993 r. co najmniej 500 tys. zł miesięcznie, czyli po denominacji 50 zł. Teoretycznie niewiele, pamiętajmy jednak, że średnia pensja wynosiła wówczas zaledwie 400 zł. Dzisiaj dzięki rozwojowi technologii i cloud computingu, a także spadkom cen transmisji danych, koszty przechowywania i przetwarzania danych spadły drastycznie. Dodatkowo można je jeszcze obniżyć, korzystając z usług zewnętrznych centrów danych, które rozwijają się w błyskawicznym tempie – zauważa Robert Mikołajski, kierownik Zespołu Rozwoju Biznesu w Atmanie, największym operatorze centrum danych w Polsce i jednym z największych w Europie Środkowo-Wschodniej. – W sierpniu ubiegłego roku oddaliśmy do użytku nowy obiekt kolokacyjny o powierzchni 3 tys. mkw. Spodziewamy się, że w tym roku zostanie on wypełniony serwerami klientów. Myślę, że jest to dobra ilustracja tego, w jakim tempie przyrastają dziś dane – tłumaczy Robert Mikołajski z Atmana.

Jak wynika z badania „Rynek przetwarzania danych w chmurze w Polsce 2014. Prognozy rozwoju na lata 2014-2018” autorstwa PMR, polskie firmy coraz chętniej inwestują w cloud computing. Przedsiębiorcy z ponad 300 przebadanych firm IT jako czynniki skłaniające do sięgnięcia po chmurę wymieniali najczęściej: oszczędności związane z jej wdrożeniem w firmie (31 proc. respondentów), rosnące znaczenie Internetu mobilnego oraz rynku aplikacji mobilnych (25 proc. ankietowanych) oraz lawinowy przyrost Big Data w Sieci (23 proc. firm), z którymi tradycyjne systemy typu BI nie będą w stanie sobie poradzić, jeśli nie zostaną wsparte specjalistycznymi narzędziami do analityki danych.

 

Cloud Technologies

Już nie tylko zasobność naszego portfela ma znaczenie dla sektora bankowego. Branża bankowa zaczyna odkrywać potencjał kapitału cyfrowego, czyli danych internetowych, z których korzysta coraz częściej. Bank posiadający narzędzia służące analityce Big Data, może wykorzystać dane o swoich klientach do usprawnienia procesów scoringowych oraz lepszego dopasowania swojej oferty. W praktyce oznacza to, że uzyskanie bankowego kredytu może stać się po prostu szybsze i łatwiejsze.

Według raportu „Banks Betting Big on Big Data and Real-Time Customer Insight”, autorstwa Bloomberg Businesweek oraz SAP, aż 86 proc. największych banków na świecie deklaruje, że w najbliższych latach priorytetem będzie dla nich zorientowanie działań na konsumenta („customer centricity”), w tym przede wszystkim: dopasowanie oferty do konkretnych, indywidualnych potrzeb klienta. Z drugiej strony połowa banków przyznaje, że nie wdrożyła jeszcze zaawansowanych technologii, pozwalających na realizację tego celu. Upatrują ich jednak w rozwiązaniach z zakresu analityki Big Data.

Big Data zmienia reguły biznesu. To właśnie wielkie analityka wielkich zbiorów danych w najbardziej znaczący sposób przemodeluje biznesowy ekosystem w najbliższych latach. IDC oszacowało, że tylko w zeszłym roku rynek analityki danych rozwijał się w tempie sześciokrotnie szybszym niż cały sektor IT. Z kolei Gartner podaje, że dzięki danym do 2020 roku aż 80 proc. procesów biznesowych zostanie zmodernizowanych. Obecnie – jak twierdzi Gartner – nad rozwiązaniami związanymi z wdrożeniem narzędzi do analityki danych pracuje 64 proc. firm. Wśród nich największy procent wypełniają dwie branże: bankowość oraz ubezpieczenia. To one zmienią się pod wpływem big Data najwyraźniej, ponieważ to właśnie w nich potencjał związany z analityką danych jest największy.

Dzięki danym bank ma możliwość przeprowadzenia procesu scoringowego klienta w ciągu dosłownie kilku minut. Big Data to nie tylko zautomatyzowanie procesów bankowych i usprawnienie pracy samego banku. To przede wszystkim korzyść dla klienta. Jeszcze kilka lat temu osoby ubiegające się o kredyt musiały przedstawić w placówce banku tony dokumentów. Dzisiaj całym procesem zarządzają skomplikowane algorytmy, które analizują wiele różnych parametrów – tłumaczy Piotr Prajsnar, CEO Cloud Technologies, największej platformy Big Data w tej części Europy i spółki zajmującej się analityką danych – Profil internauty często dostarcza bankowcom cenniejszych informacji, niż zgromadzone w teczkach dokumenty. Dlatego kluczowe dla banku jest pozyskiwanie danych o swoim kliencie z wielu różnych źródeł, również tych zewnętrznych. To zaś wymaga implementacji systemów klasy DMP, czyli Data Management Platform – dodaje Piotr Prajsnar.

Platformy DMP to systemy gromadzące i przetwarzające dane o anonimowych internautach z różnych źródeł, również tych zewnętrznych względem banku. Dzięki ich integracji za pomocą platformy DMP bank zyskuje pełny, 360-stopniowy portret swojego klienta. W ten sposób platformy DMP tworzą precyzyjne profile klientów, zawierające informacje o ich zachowaniach oraz preferencjach. Dzięki tym danym banki wiedzą, który klient rozważa obecnie zakup mieszkania, a który zastanawia się nad wzięciem kredytu na remont. Dysponując taką wiedzą bank może wówczas zwrócić się do klienta ze spersonalizowaną ofertą kredytową. Dzięki integracji własnych danych z tymi pochodzącymi z zewnętrznych źródeł, bank może lepiej targetować swój przekaz i docierać do konkretnych klientów.

Internet to dzisiaj przede wszystkim zbiór nieuporządkowanych, ale potencjalnie cennych biznesowo danych. IBM szacuje, że dziennie generujemy ponad 2,5 mld GB danych. Z roku na rok wolumen ten rośnie w Sieci o ponad 40 proc. Według IDC w 2020 roku na każdego internautę przypadnie około 5,2 ZB danych. To w nich zakodowane będą cenne informacje, kluczowe zwłaszcza dla branży bankowej, ale też ubezpieczeniowej czy marketingowej. Jednak ani branża bankowa, ani ubezpieczeniowa, ani marketingowa, nie będą w stanie poradzić sobie z taką ilością danych w ramach własnych, wewnętrznych systemów BI. Dlatego w kolejnych latach dojdzie do integracji bankowych systemów CRM z platformami DMP, które pozwolą przekształcić nieuporządkowane Big Data w wartościowe Smart Data – mówi Piotr Prajsnar, CEO Cloud Technologies.

W Polsce prekursorem analityki Big Data w sektorze bankowości był Alior Bank. To właśnie ten bank opracował własne algorytmy przetwarzania i analizy danych o klientach, budując dedykowany zespół ekspertów, specjalizujących się w tej tematyce. Z kolei Bank Smart przy decyzji kredytowej bierze pod uwagę informacje o użytkownikach pochodzące z serwisów społecznościowych. To tzw. social scoring, szczególnie popularny na Zachodzie. Jeśli internauta zaloguje się do banku za pośrednictwem serwisu społecznościowego (np. Facebook czy LinkedIn) oraz zgodzi się na wykorzystanie danych (np. adresu e-mail, roku urodzenia, etc.), to bank automatycznie uwzględni te dane we wniosku kredytowym.

– Dla banku kluczowa jest integracja jego systemu CRM z platformą DMP. Załóżmy, że w swoim systemie CRM bank posiada 10 mln potencjalnych klientów. Przeważnie nie wie jednak dokładnie, którzy z nich mogą być aktualnie zainteresowani ofertą kredytową czy zakupem mieszkania. Dzięki zharmonizowaniu CRM i DMP, czyli uwzględnieniu analityki Big Data w relacjach z klientami, odsłaniają się przed bankiem nowe zależności, które wcześniej nie były mu znane – mówi Piotr Prajsnar – Wykorzystując Big Data systemy scoringowe banku mogą przetwarzać informacje o internautach, pozyskane przede wszystkim z plików cookies, jak również profili w social media czy portali zakupowych (np. historii zakupów). Analiza profilu internauty na Facebooku, a także np. grona jego znajomych, może pomóc bankowi w ocenie wiarygodności finansowej klienta i zminimalizować ryzyko związane np. z udzieleniem pożyczki klientowi, który może jej nie spłacić – dodaje Piotr Prajsnar.

Oczywiście bank, który wykorzystuje Big Data do procesów scoringowych powinien wskazać klientowi, jakie dane klienta oraz w jakiej formie będzie wykorzystywał – i wytłumaczyć, jakie korzyści klient będzie miał z takiego rozwiązania. Sam klient powinien również mieć możliwość wglądu w swój profil, skonstruowany przez analityków banku. Powinien również każdorazowo zachować możliwość wycofania swojej zgody na przetwarzanie danych przez bank.

Podczas gdy polska bankowość dopiero odkrywa zalety analityki Big Data, na Zachodzie rozwiązania tej klasy stają się już powszechnym zjawiskiem i stają się coraz bardziej zaawansowane. Eric Barba, Digital Marketing Lead w banku Barclaycard US, twierdzi, że to właśnie upowszechnienie wdrożeń analityki Big Data będzie stanowiło kolejne wyzwanie dla działów marketingu cyfrowego w instytucjach finansowych. Dzięki temu bowiem możliwe stanie się stworzenie wielowymiarowych profili klientów.

Z możliwości oferowanych przez analitykę Big Data mogą korzystać dziś nie tylko duże banki, lecz również bankowość spółdzielcza. Narzędzia do analityki danych są bowiem plastyczne i z łatwością dopasowują się do specyfiki każdej instytucji, nawet małego banku spółdzielczego. Platformy DMP można swobodnie zintegrować z systemami takich banków – mówi Piotr Prajsnar.

Skądinąd to właśnie banki spółdzielcze często bywają pionierami we wdrażaniu zaawansowanych rozwiązań technologicznych. Przykładowo – pierwsze rozwiązania biometryczne wdrożył w Polsce Podkarpacki Bank Spółdzielczy w Sanoku.

Według badań przeprowadzonych przez NGData na 183 bankach na całym świecie niemal co drugi (55 proc.) przyznawał, że przetwarzanie danych o klientach w czasie rzeczywistym stanowi obecnie kluczową przewagę konkurencyjną na rynku. Przeszło 76 proc. banków twierdzi, że wdrożenie rozwiązań z zakresu Big Data przyczyniło się do znacznego rozbudowania ich systemów CRM, co z kolei wpłynęło w pozytywny sposób na relacje z klientami i ich lojalność względem banku. 7 na 10 banków (71 proc.) odpowiedziało, że Big Data pozwoliło im na lepsze zrozumienie potrzeb swoich klientów, a tym samym umożliwiło wzrost zysków.

 

źródło: Cloud Technologies

 

 

Każdego dnia firmy produkują ogromne ilości danych. Pojedynczo nie mają one wielkiej wartości, jednak odpowiednia selekcja i analiza czyni z nich prawdziwą skarbnicę wiedzy na temat aktualnych trendów rynkowych, preferencji zakupowych klientów czy procesów zachodzących wewnątrz przedsiębiorstwa. Coraz więcej firm traktuje Big Data, czyli ogromne zbiory informacji, jako złoty środek na poprawę skuteczności i uzyskanie przewagi konkurencyjnej na rynku.

W dużym skrócie – Big Data oznacza poszukiwanie i wykorzystywanie w biznesie zawartości potężnych wolumenów danych, pochodzących ze źródeł wewnętrznych i zewnętrznych, takich jak Internet, media społecznościowe, systemy sprzedaży, a nawet odbiorniki GPS w urządzeniach mobilnych. W zależności od branży, liczbę zbieranych informacji liczy się już w terabajtach lub petabajtach. Oczywiście nie wszystkie mają jednakową wartość, stąd pod pojęciem „Wielkiego Zbioru” rozumie się także możliwość przetwarzania i analizy informacji, co jest równoznaczne z wykorzystywaniem coraz bardziej skomplikowanych narzędzi analitycznych.

Badanie zbiorów danych pozwala firmom i organizacjom opracowywać skuteczniejsze zasady działania dla wielu kluczowych obszarów i procesów. Big Data sprawia, że dane są bardziej przejrzyste i dostępne z większą częstotliwością, co pozwala szybko wychwycić zachodzące zmiany. Umożliwia m.in. trafniejszą ocenę potrzeb klientów lub rynku, lepsze dopasowanie produktów i usług do aktualnych trendów oraz skuteczniejsze gospodarowanie zasobami i łańcuchem dostaw. Wspomaga też rozwój kolejnych generacji produktów lub usług.

W firmach takich jak nasza, analiza wielu parametrów, pochodzących zarówno z wnętrza naszej organizacji, jak i z samego rynku, umożliwia skuteczne zarządzanie zasobami i dopasowanie się do oczekiwań klientów czy partnerów. Budowanie odpowiednich planów sprzedażowych i projektowych, bazujących na analizach danych i odkrywaniu asocjacji, pozwala na osiągnięcie sukcesu w dzisiejszym świecie IT.

Nie ma wątpliwości, że Big Data ułatwia i usprawnia wiele procesów. Mimo to firmy nadal podchodzą do tego trendu z rezerwą, obawiając się nadmiernych kosztów związanych z inwestycjami w sprzęt, personel czy zmiany w strukturze organizacji i jej strategii. Oczywiście, na początku dostosowanie się do nowej rzeczywistości wiąże się z pewnymi inwestycjami i wymaga przekształceń. Jednak technologia dynamicznie się rozwija, dzięki temu korzystanie z możliwości Big Data jest dużo łatwiejsze. Oczywiście należy pamiętać, że maszyny i systemy mogą dokonać za nas obliczeń, znaleźć korelacje pomiędzy danymi, a nawet podać wstępne rozwiązanie, jednak aby były one w pełni wartościowe, konieczna jest ich weryfikacja i interpretacja ze strony doświadczonych specjalistów.

Big Data nie należy już oceniać w perspektywie przyszłości biznesu, lecz jego teraźniejszości. Przedsiębiorcy powinni dostrzec, że jest to jeden z największych i najważniejszych czynników wpływających na biznes. Podmioty, które nie będą chciały korzystać z możliwości, jakie daje analiza „Wielkiego Zbioru”,  bardzo szybko poniosą straty, pozostając daleko w tyle za konkurencją.

autor: Jakub Sierak, Dyrektor Zarządzający Komputronik Biznes

 

Eksperci

Ten tydzień pod znakiem USA, Wielkiej Brytanii oraz Chin

W przyszłym tygodniu uwaga rynków najpierw skupi się na wynikach wyborów do Kongresu USA, gdzie wiel...

Niewiele potrzeba, by zburzyć spokój

Rynkowi z łatwością przychodzą zmiany kierunku, co podkreśla, z jak niskim przekonaniem odbywa się h...

Inflacja nie odpuszcza

We wrześniu wskaźnik cen towarów i usług konsumpcyjnych wzrósł o 1,9 proc., a więc tylko minimalnie ...

Moryc: Podatek Exit Tax wejdzie w życie choć jest krytykowany nawet przez członków rządu

Nowy podatek tzw. “exit tax”, który ma zostać wprowadzony do końca tego roku wzbudza kontrowersje ni...

Pistolet przystawiony do głowy, czyli walutowe zawirowania kluczowych rynków

Globalny rynek finansowy pozostaje obciążony asymetrią ryzyk, gdyż najwyraźniej w temacie wojen hand...

AKTUALNOŚCI

Przedsiębiorcy przeciwni zmianom w ordynacji podatkowej

W dniu 23 października 2018 roku Sejm RP przegłosował rządowy projekt ustawy o zmianie ustawy o poda...

Eksport to jeden z motorów polskiej gospodarki

Po I półroczu 2018 r. eksport osiągnął wartość 107,6 mld EUR, poziom o 5,7% wyższy niż przed rokiem ...

Tauron i KGHM łączą siły na rzecz rozwoju elektromobilności

TAURON i KGHM Polska Miedź rozpoczną współpracę w obszarze budowania infrastruktury ładowania pojazd...

Jesienne spowolnienie dynamiki PKB

Wyraźnie niższe niż się spodziewano okazały się wrześniowe dane o produkcji przemysłowej i budowlano...

Polskie startupy coraz śmielej zdobywają zagranicę

45 proc. właścicieli startupów chce rozwijać swoją działalność nie tylko na rodzimym rynku, ale takż...