Big Data? To przeżytek. Dziś liczy się Fast Data

2 marca 2017

O tym, że biznes kładzie dzisiaj coraz większy nacisk na szybkość analizowania danych, świadczy najnowsza inicjatywa sprzedażowego giganta Amazona, który postanowił transportować ogromne ilości danych… ciężarówką. Mobilne centrum danych jest w stanie jednorazowo zabrać „na pokład” sto pettabajtów (100 mln GB) danych ulokowanych w niemal czternastometrowym kontenerze. Zdaniem ekspertów firmy przesyłanie informacji za pośrednictwem sieci jest szybką metodą transferu danych z przedsiębiorstw do chmury, lecz ta jest jeszcze szybsza i pozwala na skrócenie czasu wymaganego do pozyskania cennych wniosków biznesowych z analityki.

130 mld dolarów – tyle wydadzą w tym roku firmy na rozwiązania Big Data. Bynajmniej nie w Polsce, gdzie, jak wynika z danych IDC, zaledwie 8% firm analizuje ogromne zbiory danych. Wbrew pozorom to jednak dobra informacja, bo na analitykę wiele firm nie jest jeszcze gotowych – zgodnie z raportem Capgemini Big & Fast Data jedynie 27% badanych przedsiębiorstw uznało wdrożone projekty Big Data za udane.

Dlaczego? Jednym z powodów jest to, że firmy przetwarzają nieaktualne informacje. Obecnie ponad 60% przechowywanych danych stanowią kopie przestarzałych rekordów. Tymczasem decyzje, niezależnie od branży, muszą być podejmowane w czasie rzeczywistym: firma odzieżowa powinna wiedzieć w jakim tempie sprzedaje się jej najnowsza kolekcja, pracownicy opieki zdrowotnej muszą możliwe najszybciej zidentyfikować ognisko choroby zakaźnej, by zapobiec jej dalszemu rozprzestrzenianiu, banki powinny na bieżąco śledzić sytuację geopolityczną, by trafnie podejmować działania inwestycyjne w skali makro, natomiast przedsiębiorstwo produkcyjne dzięki odpowiednio szybkiemu wykryciu wady zareagować w mgnieniu oka tak, by kolejny produkt trafiający na taśmę montażową był jej pozbawiony. Do tego potrzebne są jak najświeższe dane.

Dane z datą ważności

Największe korporacje zdają się mieć tego świadomość, czego przykład może stanowić handlowy gigant – sieć sklepów Walmart, zatrudniająca obecnie ponad 2 mln pracowników. Analitycy danych firmy podjęli ostatnio decyzję, że będą brali pod uwagę jedynie informacje wygenerowane maksymalnie kilka tygodni temu – wszystkie starsze i tzw. historyczne dane, ich zdaniem, nie mają żadnej wartości dla przygotowywania prognoz rynkowych i planowania działalności operacyjnej.

– To dobra decyzja, bo przechowywanie danych kosztuje. Z naszych analiz wynika, że utrzymanie we własnym zakresie 3 szaf serwerowych na przestrzeni 20 lat oznacza wydatki na poziomie 36,6 mln zł. Kolokacja będzie w tym przypadku wprawdzie o niemal 20 mln tańsza, ale koszty można jeszcze bardziej ograniczyć, rezygnując z utrzymania i przetwarzania nieprzydatnych danych – zwraca uwagę Robert Mikołajski z Atmana, lidera polskiego rynku data center.

Podobnie jak Walmart do kwestii analityki podchodzi sektor finansowy – HDFC Bank czy OCBC Bank dobierają ofertę i specjalne promocje pod kątem stylu życia i aktualnych wydarzeń zaczerpniętych bezpośrednio z życia klientów, którymi ci dzielą się w mediach społecznościowych. Aktywni użytkownicy social media udostępniają nawet kilkadziesiąt postów dziennie, analitycy muszą więc szybko pozyskać istotne dla nich informacje i zrobić z nich użytek, zanim te znikną w gąszczu pozostałych danych. American Express dokonuje bieżącej analizy operacji finansowych swoich klientów z uwzględnieniem aż 115 zmiennych, by możliwie dokładnie przewidzieć moment ich rezygnacji. Dzięki temu jest w stanie zidentyfikować 24% kont, które prawdopodobnie zostaną zamknięte w ciągu najbliższych czterech miesięcy, i podjąć wobec ich właścicieli działania zapobiegające takiej decyzji.

Jeden z banków uwzględnianych w rankingu Fortune 500 przetwarza ponad bilion dolarów w funduszach każdego dnia. Kilka razy dziennie jest zobowiązany do uzgadniania swoich ogromnych ksiąg rachunkowych z regulacjami Systemu Rezerwy Federalnej. Bank dzięki analizowaniu wszystkich transakcji na bieżąco jest w stanie przetwarzać je w kolejności priorytetowej – niektóre mogą być opóźnione, podczas gdy inne ze względu na swoją wartość muszą być zgłoszone do FED natychmiast. Brak zachowania zgodności przy takiej skali operacji finansowych miałby bardzo niekorzystny wpływ na sytuację ekonomiczną banku.

Outsourcingowy pit stop

Zdaniem ponad połowy (54%) respondentów badania Capgemini Big & Fast Data: The Rise of Insight-Driven Business, wykorzystanie potencjału Fast Data jest bardziej istotne dla efektywności biznesowej przedsiębiorstwa niż sama analityka dużych zbiorów danych. Eksperci zwracają jednak uwagę, że wyzwań związanych z analizą informacji stale przybywa, co utrudnia szybkie pozyskanie wartościowych wniosków. Szacuje się, że 90% wszystkich istniejących w dzisiejszej cyberprzestrzeni danych zostało wygenerowanych w ciągu ostatnich dwóch lat, a do 2020 roku każdy użytkownik sieci będzie już wytwarzał 1,7 MB informacji na sekundę. To oznacza, że liczba danych sięgnie 44 trylionów gigabajtów. – W takiej sytuacji coraz większe znaczenie odgrywać będzie elastyczność – możliwość zwiększenia mocy obliczeniowej i pojemności serwerów na żądanie. Serwery dedykowane i chmura będą wykorzystywane częściej, bo budowanie infrastruktury na własność jest opłacalne i sensowne tylko w szczególnych przypadkach – przekonuje Robert Mikołajski z Atmana.

Ilustracja: Pixabay

Bądź pierwszy, który skomentuje ten wpis!

Dodaj komentarz

Twój adres email nie zostanie opublikowany.


*