Na efekty projektów Big Data trzeba będzie jeszcze poczekać

27 lutego 2017

Chociaż segment Big Data rozwija się nieprzerwanie niemal 6-krotnie szybciej niż cały rynek IT[1], na wymierne rezultaty przyjdzie nam jeszcze poczekać. Jak wynika z badania przeprowadzonego w USA na zlecenie SAS, 49% przedsiębiorstw twierdzi, że jest za wcześnie, aby ocenić zwrot z inwestycji w projekty Big Data. Jedynie co trzecia firma odnotowała zyski wynikające z wykorzystania rozwiązań do analizy dużych zbiorów danych.

Biznes doskonale zna korzyści związane z wykorzystaniem Big Data. Informacje zawarte w dużych zbiorach danych pochodzą z różnych źródeł i wciąż podlegają aktualizacji, dzięki czemu pozwalają uzyskać pełen obraz sytuacji wewnątrz firmy lub dokonać kompleksowej analizy rynku. W oparciu o Big Data podejmowane są najważniejsze decyzje biznesowe dotyczące planów rozwoju, strategii sprzedaży czy kampanii marketingowych. Nie dziwi zatem fakt, że aż 83% firm ze Stanów Zjednoczonych przebadanych przez SAS inwestuje w projekty związane z Big Data.

Mimo, że inicjatywy te są na różnym stopniu zaawansowania, respondenci zgodnie przyznają, że na ich efekty trzeba będzie jeszcze poczekać. Osiągnięcie szybkich rezultatów ogranicza niski stopień wykorzystania technologii chmurowych i machine learning, a także brak wykwalifikowanych pracowników oraz powszechnego dostępu do danych.

Kto korzysta z Big Data?

Stopień implementacji rozwiązań z zakresu Big Data jest w dużej mierze zależny od branży. Prym wiodą firmy z sektora usług finansowych, które wykorzystują analizę wielkich zbiorów danych między innymi w procesie oceny ryzyka kredytowego, czy selekcji klientów, którym zostanie przedstawiona oferta konkretnego produktu bankowego. Tego typu analizy, które wcześniej trwały nawet kilka dni, dzięki algorytmom umożliwiającym przetworzenie i analizę wszystkich niezbędnych danych, odbywają się teraz w czasie rzeczywistym.

Firmy, które z równym powodzeniem co sektor finansowy wdrażają rozwiązania Big Data to przedsiębiorstwa zajmujące się handlem detalicznym. Kolejną branżą, która w największym stopniu korzysta z potencjału gromadzonych informacji jest telekomunikacja. Firma analityczna IDC przewiduje natomiast, że znaczny popyt będzie także generowany ze strony firm wytwórczych. Ma to związek z upowszechnieniem idei Przemysłu 4.0, która zakłada wykorzystanie m.in. Internetu Rzeczy do poprawy sprawności linii produkcyjnych, a w efekcie zmiany modelu biznesowego przedsiębiorstw, które rozbudowują swoją ofertę w oparciu o nowe technologie. Wdrażając rozwiązania z zakresu Big Data, firmy wytwórcze mogą obniżyć koszty operacyjne średnio o 20 procent, odnotowując przy tym ok. 30 procentowy wzrost zysków. IDC przewiduje, że do końca tego roku przedsiębiorstwa wytwórcze będą odpowiadały za ponad 20 procent wydatków na projekty związane z Big Data.

Duże zbiory danych – umiarkowane rezultaty

Jedną z największych barier rozwoju rynku systemów analitycznych jest brak wykwalifikowanych specjalistów. Firmy zgłaszają coraz większe zapotrzebowanie na osoby, które potrafią przełożyć wnioski z danych na konkretne decyzje biznesowe. Według raportu SAS, tylko co druga firma posiada w swoich szeregach osobę odpowiedzialną za proces ochrony i przetwarzania danych w ramach całej organizacji (Chief Data Officer). Inną barierą jest niski stopień demokratyzacji danych.

Dostęp do informacji mają głównie wykwalifikowani specjaliści z zakresu data science i analitycy biznesowi. Z badania SAS wynika, że jedynie 13% firm umożliwia pracownikom samodzielny dostęp do danych bez wsparcia lub nadzoru zespołu IT.

Problemem jest również czas potrzebny na uzyskanie konkretnych informacji. Różnice w przebadanych firmach były bardzo duże, co z pewnością wynikało z różnego stopnia zaawansowania technologicznego. Jedna trzecia respondentów przyznała, że może liczyć na natychmiastowy dostęp do danych, jednak podobna grupa (28%) wskazała, że może to zająć nawet tydzień. Biorąc pod uwagę dynamikę współczesnego rynku i rosnącą w ogromnym tempie ilość informacji pochodzących z Internetu, możliwość dokonywania szybkich analiz zyskuje kluczowe znaczenie w kontekście podnoszenia konkurencyjności.

Szerszą możliwość wykorzystania narzędzi analitycznych stwarza technologia cloud computing. Dzięki chmurze, osoby decyzyjne mogą mieć dostęp do zintegrowanych informacji w czasie rzeczywistym. Niestety tempo wdrażania usług chmurowych jest nadal bardzo wolne. Jedynie co piąte przedsiębiorstwo przebadane przez SAS korzysta z modelu chmury obliczeniowej, podczas gdy pozostałe firmy przechowują dane na własnych serwerach. Trend ten z pewnością będzie ulegał odwróceniu. Według MarketandMarkets, rynek Cloud Analytics, który w 2013 roku był wart 5,25 mld dolarów, do 2018 roku zwiększy się ponad trzykrotnie, osiągając wartość 16,5 mld dolarów.

Innym rozwiązaniem ułatwiającym wykorzystanie potencjału drzemiącego w danych jest platforma Hadoop umożliwiająca przechowywanie i szybkie przetwarzanie zbiorów Big Data. Z badania SAS wynika, że coraz więcej przedsiębiorstw docenia jej zalety. Aż 56 procent respondentów, którzy aktywnie zaangażowali się implementację projektów z zakresu Big Data zdecydowało się na wykorzystanie tego narzędzia. Z kolei 40 procent przebadanych firm rozważa zastąpienie obecnych rozwiązań hurtowni danych platformą Hadoop.

Machine learning automatyzuje analizę dużych zbiorów danych

Przyszłością Big Data jest sztuczna inteligencja, a dokładniej technologia machine learning, która wpływa na automatyzację i przyśpieszenie procesów analitycznych. Coraz więcej firm dostrzega potencjał związany z wykorzystaniem uczenia maszynowego w zastosowaniach biznesowych. Dzięki wykorzystaniu samouczących się algorytmów, komputery mogą samodzielnie analizować dane oraz dostosowywać modele do zmiennych zjawisk i wymagań w celu szybkiego znalezienia optymalnego rozwiązania. Technologia machine learning wspiera proces decyzyjny oraz umożliwia skuteczne tworzenie predykcji biznesowych. Z raportu SAS wynika, że co piąte przedsiębiorstwo wdrożyło rozwiązania z zakresu machine learning lub sztucznej inteligencji (AI), podczas gdy 23 procent firm eksperymentowało z uczeniem maszynowym. Największy odsetek przebadanych organizacji rozważa wprowadzenie tych rozwiązań w przyszłości, co powinno wpłynąć na przyśpieszenie efektów analizy dużych zbiorów danych.

 

Źródło: Badanie zostało przeprowadzone przez firmę SAS wśród przedstawicieli dużych przedsiębiorstw działających na terenie Stanów Zjednoczonych.

[1] „Worldwide Semiannual Big Data and Analytics Spending Guide”, IDC, 2016

 

Bądź pierwszy, który skomentuje ten wpis!

Dodaj komentarz

Twój adres email nie zostanie opublikowany.


*