Czy ufamy danym i analityce?

Paweł Potasiński, Clouds On Mars

W ubiegłym miesiącu miałem przyjemność zapoznać się z opublikowanym przez firmę KPMG raportem „Guardians of trust”. Raport dotyczył interesującego zagadnienia zaufania do danych i analityki w organizacjach, a bazował na wynikach badania przeprowadzonego przez Forrester Consulting wśród niemal 2200 osób dyrektorów IT i osób decyzyjnych w średnich i dużych organizacjach. W niniejszym artykule przedstawiam i komentuję wybrane elementy tego raportu.

Co to znaczy „mieć zaufanie do danych i analityki”?

W dobie cyfrowej transformacji organizacje wykorzystują analizy ogromnych ilości danych do wspierania procesów biznesowych i podejmowania – krytycznych niekiedy – decyzji. Rozwiązaniom analitycznym i raportowym stawiane są liczne wymagania, spośród których cztery zostały – według mnie słusznie – wyróżnione przez analityków KPMG:

  • Jakość. Jakość danych ma kluczowe znaczenie dla analityki. Danym słabej jakości nie ufamy. Takich danych na ogół nie da się użyć w modelach i algorytmach, by dostarczyć biznesowi prawdziwe wnioski i wspierać procesy decyzyjne.
  • Efektywność. Zaufanie do rozwiązania analitycznego jest budowane przez dostarczanie osobom podejmującym decyzje biznesowe odpowiednich informacji i wniosków płynących z analizy danych. Jeśli proces dostarczania informacji jest nieefektywny, zaufanie do rozwiązania zazwyczaj błyskawicznie spada.
  • Etyka. W szczególności zgodność z normami etycznymi, zgodność z regulacjami prawnymi, a także poszanowanie prawa do ochrony danych osobowych. Zaufana analityka musi działać w zgodzie z wszechobecnymi regulacjami i politykami prywatności.
  • Elastyczność. Rozwiązania analityczne muszą być projektowane i optymalizowane pod kątem długoterminowego wykorzystania. Dotyczy to głównie potencjalnych zmian skali rozwiązania (więcej danych, więcej użytkowników), zmian w źródłach danych, a także zmian zakresu wykorzystania informacji przez użytkowników rozwiązania.

Ufać czy nie?

Jak wygląda zaufanie do analityki w organizacjach? W badaniu ankietowanym osobom zadano pytanie:

Do jakiego stopnia ufasz temu, w jaki sposób Twoja organizacja wykorzystuje różne rodzaje analiz?

Odpowiedzi na powyższe pytanie prezentowały się następująco:

Wysoki poziom zaufania do analiz ujawniło 35% ankietowanych. To mało i dużo jednocześnie. Mało, ponieważ oznacza to, że w większości przypadków decyzje biznesowe w organizacjach są wspierane przez rozwiązania analityczne w sposób niewystarczający. Dużo, gdyż jeśli do tego dodać odpowiedź 40% ankietowanych, którzy odpowiedzieli, że zazwyczaj mają zaufanie do analiz, otrzymujemy znaczącą populację 75% osób uczestniczących w badaniu, które uznają, że rozwiązania analityczne w sposób zauważalny mogą wspierać procesy i decyzje biznesowe.

Interesująco wygląda rozkład odpowiedzi według krajów, z których pochodzili ankietowani:

 

 

Największe zaufanie do analityki wykazują osoby z Indii, podczas gdy u ankietowanych z Wielkiej Brytanii i Stanów Zjednoczonych zaufanie było najmniejsze. W krajach europejskich jako jedną z przyczyn hamujących wzrost zaufania do analityki podawano regulacje, w szczególności General Data Protection Regulation (GDPR).

Czy jest szansa na poprawę sytuacji? Na podstawie moich obserwacji uważam, że tak. Cyfrowa transformacja w organizacjach nabiera tempa. Z miesiąca na miesiąc obserwuję coraz większą świadomość wartości, jaką może przynieść biznesowi odpowiednie wykorzystanie danych i analityki. Coraz więcej firm zdaje sobie sprawę z tego, jak ważne jest zbudowanie strategii zarządzania danymi i informacją. A pojawiające się nowe regulacje, jak na przykład GDPR, coraz częściej traktowane są jako szansa na uporządkowanie chaosu panującego w organizacji (chaosu w procesach biznesowych i w danych).

Kto jest winny braku zaufania?

Brak zaufania bierze się zazwyczaj z doświadczeń – sytuacji, w których na podstawie danych i analiz zostały podjęte błędne decyzje biznesowe. Czy można wskazać winnych w takich sytuacjach? W ankiecie padło pytanie:

A jeśli w oparciu o analizę danych zostanie podjęta zła decyzja biznesowa, to kto powinien ponosić i kto ponosi odpowiedzialność?

Odpowiedzi kształtowały się następująco:

 

 

Czyli w większości przypadków odpowiedzialnością obarczano szeroko rozumiane IT (działy IT, dostawcy usług i oprogramowania, firmy integratorskie). Moim zdaniem, taki stan rzeczy jest następstwem tego, że dzisiaj rozwiązania analityczne są w większości przypadków tworzone i rozwijane przez osoby techniczne. Ponadto, sporą odpowiedzialność zrzuca się na technologię (czy słusznie…?). Patrząc na rozwój nowoczesnych narzędzi self-service BI i coraz bardziej przystępnych zastosowań uczenia maszynowego, myślę, że ciężar odpowiedzialności za skuteczność analiz będzie stopniowo przesuwał się w kierunku pracowników i zespołów z biznesu. Czas pokaże, czy miałem rację.

Natomiast niewątpliwie wraz ze wzrostem zastosowań szeroko rozumianej sztucznej inteligencji, będą coraz częściej pojawiały się pytania natury etycznej. Na przykład, ankietowanych zapytano:

Jeśli wypadek (bez skutku śmiertelnego) był spowodowany przez autonomiczny pojazd, podczas gdy człowiek-kierowca nie miał kontroli, kogo powinno się obarczyć odpowiedzialnością za wypadek? (można wskazać wiele odpowiedzi naraz)

 

Odpowiedzi na powyższe pytanie w zasadzie idą w parze z odpowiedziami na pytanie poprzednie:

 

Czyli według ankietowanych winni są przede wszystkim ludzie produkujący oprogramowanie i integrujący je z autem. A więc ponownie ludzie odpowiedzialni za technologię.

Kto odpowiada za zaufanie do analityki w organizacjach?

W takim razie, kto odpowiada za poziom zaufania do danych i analityki w organizacjach?

Aby się tego dowiedzieć, w badaniu zadano pytanie:

Kto w Twojej organizacji ponosi główną odpowiedzialność za zapewnienie wiarygodności / dokładności zaawansowanej analityki i modeli?

10 najczęściej udzielonych odpowiedzi:

 

 

A więc znów – głównie ludzie ze świata IT (CIO, osoby pracujące z danymi lub tworzące rozwiązania analityczne) lub jego pogranicza (CDO). Ciekawe, że wśród ankietowanych znalazło się 7% osób, które wskazały zarząd jako osoby odpowiedzialne za wiarygodność analiz. Czyżby te 7% osób biorących udział w badaniu dostrzegało potrzebę budowania strategii wykorzystania danych i informacji na poziomie całej organizacji?

Czy kiedyś zaufamy analityce?

Przyszłość nie jest oczywista. Analityka z pewnością niesie za sobą ogromny potencjał dla organizacji. Stwarza szansę na budowanie zupełnie nowych, niekiedy bardzo innowacyjnych usług i modeli biznesowych. Daje możliwość budowania przewag konkurencyjnych tym firmom, które podejmą ryzyko i – najczęściej na drodze pełnej prób i błędów – z powodzeniem wdrożą rozwiązania analityczne, wykorzystają skutecznie połączenie wiedzy biznesowej i danych. Jednocześnie jednak analityka jest zależna od wielu czynników, od jakości danych zacząwszy (żeby wnioski były prawdziwe), a na dobrze zorganizowanych procesach biznesowych skończywszy (wnioski trzeba jeszcze umieć wykorzystać). Badanie przeprowadzone przez firmę KPMG pokazuje, że często winą za niewykorzystanie potencjału drzemiącego w danych obarczani są ludzie z zespołów IT. Podobnie w przypadku zastosowania sztucznej inteligencji – za ewentualne niepowodzenia obwiniamy twórców rozwiązania. To pokazuje, że świat rozwiązań z zakresu przetwarzania danych potrzebuje zupełnie nowego podejścia do przydzielania odpowiedzialności za błędy autonomicznych maszyn i inteligentnych programów komputerowych. I, moim zdaniem, zawsze ta odpowiedzialność finalnie będzie spoczywała na człowieku. Dlatego budując rozwiązania analityczne lub wykorzystujące sztuczną inteligencję nie zapominajmy o aspekcie ludzkim –BUILD AI, STAY HUMAN.

Przeczytaj także:

Analityka w Polsce: poziom średni, wyzwania wyraźne

Wszystkie wykresy pochodzą z badania KPMG „Guardians of trust”

Ilustracja główna: Pixabay

Bądź pierwszy, który skomentuje ten wpis!

Dodaj komentarz

Twój adres email nie zostanie opublikowany.


*