Uczenie maszynowe i sztuczna inteligencja w opiniach polskich CIO

Robert Jesionek

Gdy niecałe dwa lata temu rozpoczynałem pracę dla grupy Empik usłyszałem jasny komunikat: stawiamy na innowacje, nowe technologie, analizę i eksplorację danych, elementy sztucznej inteligencji – wszystko co wiąże się z transformacją cyfrową. Tego samego dnia w domu zajrzałem do swojego starego, ‘analogowego’ indeksu studenta Politechniki Warszawskiej i zacząłem czytać: Data Mining – rok 1999, Machine Learning – rok 1998, Sztuczna inteligencja – rok 1999, Przetwarzanie i Rozpoznawanie obrazów – 1998 r. Trzeba było 20 lat, aby tematy z akademickiej teorii przeniosły się do konkretnych zastosowań biznesowych. Tymi słowami Rafał Zbiróg, CIO w Grupie Empik rozpoczął dyskusję w czasie debaty redakcyjnej o sztucznej inteligencji i uczeniu maszynowym.

To prawda, zaawansowana analityka rodzi się od dawna i choć na polskie areny biznesowe wcale nie wbiega sprintem, to jednak ma ogromny wpływ na jakość zarządzania organizacjami. Trzeba jednak zaznaczyć, że globalne trendy i prognozy są obiecujące. Wg International Data Corporation (IDC) wydatki na uczenie maszynowe z 8 mld USD w 2016 r. wzrosną do 47 mld USD w 2020 r. 89% dyrektorów IT planuje dziś korzystać lub już korzysta z uczenia maszynowego w swoich organizacjach. 53% dyrektorów IT twierdzi, że uczenie maszynowe jest jednym z ich głównych priorytetów. Również tegoroczne badanie firmy SAS pokazuje, że 68% firm postrzega machine learning jako bardzo ważny trend. 39% biorących w nim udział podkreśla jego pozytywną rolę we wzroście cyberbezpieczeństwa. 37% zwraca uwagę na podejmowanie bardziej trafnych decyzji w oparciu o dane, a 35% wyróżnia istotny wpływ na poprawę jakości obsługi klienta.

W głębi od lewej: Marcin Choiński, Robert Jesionek, Rafał Zbiróg, Andrzej Czechowski

Poziom realizacji projektów opartych o AI i machine learning w Polsce odbiega od wyników globalnych. Dowodzi to, że wciąż jesteśmy w początkowym stadium ich zaawansowania lub wręcz w czasie planowania. I – jak wynika z deklaracji menedżerów – nie chodzi wcale o to, że brakuje nam technologii, narzędzi IT – one już są dostępne na rynku. Barierą okazuje się raczej brak specjalistów data science, a także ograniczenia organizacyjne lub nawet społeczne i psychologiczne.

Są też różnice, które można umownie nazwać ‘międzykontynentalnymi’, istniejące pomiędzy firmami z Polski i USA, a o których mówił Dominik Kaczmarek, wiceprezes Clouds on Mars: Amazon, Microsoft, Google, Tesla – to przykładowe firmy, dla których sztuczna inteligencja jest absolutną podstawą działania. Druga grupa to startupy, które również ją bardzo doceniają i to niezależnie, czy zlokalizowane są nad Wisłą, czy za Oceanem. O ile w Polsce jeszcze nam daleko do firm z tej pierwszej grupy, to w gronie startupów jest dużo bardziej optymistycznie i naprawdę nie mamy się czego wstydzić. Trzecia grupa, to klienci gdzieś ze środka rynku. Tu dostrzegam zasadniczą różnicę między firmami z USA i z Polski. Firmy w Ameryce, z którymi rozmawiam chętniej stosują rozwiązania wykorzystujące machine learning. Natomiast w Polsce często słyszę: To wspaniałe rozwiązania, ale dla nas jeszcze jest na nie za wcześnie.

Marcin Choiński, Head of Big Data and Analytics Ecosystem w TVN wylicza powody, dla których wg niego firmy w Polsce wciąż nie decydują się na inwestycje w machine learning, sztuczną inteligencję, zaawansowaną analitykę: Poziom zaawansowania analitycznego oraz informatyzacji naszych przedsiębiorstw ciągle pozostawia wiele do życzenia, jedynie jedna na pięć firm ma system ERP, a jedna na cztery system CRM. Wciąż mamy też do czynienia z niską i niestety malejącą skłonnością rodzimych firm do innowacji, o czym świadczy fakt, że tylko 10% z nich planuje w tym roku wypuścić na rynek nowy produkt. Brakuje zrozumienia i umiejętności, a niejednokrotnie po prostu możliwości przełożenia wartości zaawansowanej analityki na realne zyski dla firmy. I na koniec – na rynku brakuje specjalistów o odpowiednich kompetencjach zarówno technicznych, jak i biznesowych, którzy są w stanie wprowadzać realne zmiany w organizacjach.

Dominik Kaczmarek, Małgorzata Olszewska

Z kolei o barierach prawnych mówi Małgorzata Olszewska, CIO z firmy Agora SA: Trzeba pamiętać, że takie kwestie jak RODO i np. e-privacy na pewno utrudnią nam wykorzystanie machine learning oraz AI, przede wszystkim z powodu ograniczeń np. w profilowaniu na potrzeby automatycznie podejmowanych decyzji (sklepy internetowe, reklama, mechanizmy rekomendacji). Jednocześnie trudno sobie wyobrazić, że np. autonomiczne samochody nie będą mogły przetwarzać danych wrażliwych takich jak wiek, niepełnosprawność itp. w celu zapewnienia bezpieczeństwa uczestników ruchu drogowego. Reasumując – akty prawne, o których wspomniałam na pewno utrudnią nam wykorzystanie możliwości AI i machine learning, ale mimo tego ich przyszłość jest nieuchronna, a firmy znajdą ‘obejścia’ dla tych zapisów.

Dominik Kaczmarek opowiada też o tym, że na konferencjach często pyta uczestników: Kto z Państwa realizuje projekty machine learning – i zgłasza się wtedy całkiem sporo osób. A kto z Państwa produkcyjnie, nie tylko na poziomie proof of concept wdrożył rozwiązania machine learning? I wtedy okazuje się, że nie widać prawie wcale podniesionych rąk. Staram się zrozumieć, dlaczego tak jest – mówi wiceprezes Clouds on MarsFirmy początkowo podejmują się przecież takich projektów, widzą ich atrakcyjność na etapie studium wykonalności, po czym odkrywają, że aby osiągnąć najlepsze wyniki potrzebują mieć porządek w danych, co często powoduje, że wdrożenie jest odwlekane w czasie. Brakuje nam konsekwencji, determinacji, czy może wiary w biznesowe powodzenie projektu?  

Porządek w danych

Skoro przygotowanie danych do projektu machine learning wymaga sporo czasu, to może warto zadać sobie pytanie o prawdziwą wagę tego elementu. Rafał Zbiróg mówi, że porządek w danych jest oczywiście ważny, ale też nie jest konieczny, by rozwijać machine learning, czy też wykorzystać w pełni zbiory typu Big Data: Pamiętajmy, że w obecnym wyjątkowo konkurencyjnym świecie umiejętność zebrania dużej ilości danych, a także elastyczność i zdolność do adaptacji jaką oferuje model typu Data Lake są często ważniejsze, niż stosowanie się do przemyślanego modelu i struktur definiowanych w typowej hurtowni danych – mówi CIO z Empiku. Wtóruje mu Andrzej Czechowski, Chief Data Officer w Samsung Electronics, choć nieco inaczej rozkłada akcenty: Danych jest coraz więcej, a ich słaba jakość może spowodować, że mimo świetnych  dashboard’ów nie wszystko będzie się zgadzało w liczbach. Bo od porządku w danych, przez dobrze działające business intelligence do machine learning jest jednak długa droga. Integracja danych w firmie jest ogromnym wyzwaniem, zwłaszcza tam, gdzie ich źródeł jest kilka. To bardzo ważna kwestia, ale również uważam, że nie należy jej demonizować.

Często mówi się, że to, czy w danych musi się zgadzać więcej, czy mniej, zależy także od branży. Niektórzy uważają, że dużo większej dokładności oczekuje się od bankowości, na nieco większą elastyczność można sobie pozwolić w niektórych innych sektorach.

Łukasz Krause, Tomasz Garbowski

Janusz Hadryś, dyrektor IT w OBI Centrala Systemowa: Jako osoba pracująca w retailu muszę powiedzieć, że moja branża nie może sobie pozwolić na elastyczność w zarządzaniu danymi. Jednolity Plik Kontrolny wymaga od nas, by wszystko zgadzało się i to z dużą dokładnością. Na szczęście mamy system BI, który pozwala nam dokładnie odpowiedzieć na zapotrzebowanie urzędu skarbowego i uniknąć kar za ewentualne niezgodności.

Specjalizujemy się w systemach geoprzestrzennych – mówił Marek Godala, IT and Controlling Director w firmie GlobemaNasze rozwiązania dostarczają wartość biznesową dbając, by dane klientów były w możliwie największym porządku, łącząc dokładną lokalizację z precyzyjnym opisem innych parametrów modelowanych obiektów. Niedokładność w najmniejszych szczegółach bardzo utrudniałaby życie naszym klientom, a nawet mogłaby stwarzać niebezpieczne sytuacje.

Działamy w branży medycznej, w oparciu o model abonamentowy – mówił Tomasz Garbowski, CIO, członek zarządu ds. IT i projektów LUX MEDW takim wypadku potrzebna jest bardzo precyzyjna i aktualna, niemalże w czasie rzeczywistym informacja na temat tego, jaki jest popyt i jaką podaż powinniśmy dostarczyć, aby spełnić SLA umów z klientami. Wyzwań w zakresie analizy danych jest wiele, m.in. konieczność poradzenia sobie z tym, że definicje wskaźników zdrowotnych, czy segmentacyjnych na przestrzeni kilku lat się zmieniają, a my badając trendy porównujemy się również do poprzednich okresów. Kalibracja wskaźników i wyciąganie na ich podstawie prawdziwych wniosków, które będą słuszne również w perspektywie średnioterminowej – to jedno z tych wyzwań i obszar działań, które stale doskonalimy.

Trzeba zachować zdrowy rozsądek. Są miejsca, w których dane muszą być naprawdę restrykcyjnie ustrukturyzowane, ale jest dużo takich obszarów, gdzie można sobie pozwolić na sporą przestrzeń błędów i mimo tego całkiem dobrze oceniać np. trendy – podsumowuje Piotr Orłowski, CIO w Medicover Healthcare Services.

Piotr Orłowski

Między marketingiem a biznesową rzeczywistością

Łukasz Krause, CIO w firmie Polpharma zauważa: W mediach i na konferencjach bardzo mocno eksploatowane są pojęcia, o których dziś rozmawiamy – sztuczna inteligencja, nauczanie maszynowe, internet rzeczy…. Ludzie są tymi tematami przesiąknięci i chcieliby je natychmiast realizować, a tu przychodzą do pracy i okazuje się, że trzeba się zająć codziennymi rzeczami. Firmy aspirują do wielkich rozwiązań, pracownicy mają ambicje, a my wszyscy za mało chyba uświadamiamy sobie, że te drobne rzeczy, którymi się zajmujemy, to też są kwestie bardzo istotne i prowadzą do ważnych celów. Pojęcia, o których jest dziś głośno tak bardzo ‘puchną’ w naszej świadomości, że każdy z nas chce od razu pracować niemal wyłącznie w spektakularnych projektach. Uważam jednak, że bez poddawania się przesadnie optymistycznym nastrojom warto uczyć się robić rzeczy wielkie przez realizację także tych drobniejszych.

Podobne zjawisko dostrzega również Marek Godala z Globemy: Przychodzą do nas często młodzi inżynierowie, a nawet studenci i są tak nasiąknięci marketingowymi hasłami, że chcą pracować wyłącznie w projektach związanych z tymi modnymi tematami. Dużo uwagi przykładamy do uświadomienia im, by słuchali co mówi do nich nasz konkretny biznes i jakie są jego realne potrzeby. Umiejętność zachowania równowagi między innowacyjnymi ambicjami a rzeczową współpracą z biznesem nie jest łatwa, ale jest bardzo ważna.

Tomasz Garbowski z LUX MED: Dylematem dzisiejszych CIO’s jest to, na ile zajmować się sztuczną inteligencją i machine learning, a na ile zainwestować w redukcję długu technologicznego, który przecież w wielu organizacjach bywa znaczący.

Nasi rozmówcy wyraźnie dostrzegali różnicę między marketingowym przekazem i medialnym szumem a realiami biznesu. I choć dalecy byli od hurraoptymizmu, to jednak podkreślali, że w ich organizacjach nowe trendy wcale nie pozostają martwe. Nasza strategia rozwoju w zasadzie pozostaje ta sama – mówił Piotr Orłowski z Medicover Healthcare Services – ale komponent automatyzacji staje się dla nas coraz bardziej widoczny i ważniejszy. On bardzo pomoże tej strategii wzrastać i optymalizować biznes. Tak, bierzemy pod uwagę to co się dzieje w świecie machine learning i sztucznej inteligencji.

Podobnie mówił Andrzej Czechowski z Samsung Electronics: Moja firma również zdecydowanie docenia i wspiera te rozwiązania, widać je już w naszej sieci sklepów firmowych, ale przede wszystkim w mierzeniu kampanii marketingowych, ich optymalizowaniu i próbie odpowiedzi na pytanie o najlepszy sposób dotarcia do klienta – przez telewizję, prasę, internet. To ważny temat do analizy i dyskusji.

W retailu wszyscy mówią ‘omnichannel’podkreślał Janusz Hadryś z OBIkażdy się zastanawia, jak klienta zatrzymać przy sobie na dłużej, niż tylko jedne zakupy. My również nad tym pracujemy i angażujemy w to informatykę.

Jak zatrzymać pracowników?

Już w pierwszych akapitach tego artykułu podkreśliliśmy, że jedną ze znaczących barier w rozwoju zaawansowanej analityki w Polsce są deficyty kadrowe. Problemem wciąż pozostaje nie tylko zatrudnienie, ale i zatrzymanie w firmie na dłużej wartościowych pracowników tego obszaru. Jak to zrobić? Opinie CIO na pozór mogą się wydawać proste, ale tak naprawdę zawierają w sobie esencję tego, co warto w tej kwestii wiedzieć.

Andrzej Czechowski: Zatrzymanie i pozyskanie pracowników jest bardzo trudne. Nowe pokolenia wchodzące na rynek pracy mają swoje wartości i nowe wyobrażenie chociażby o dyspozycyjności względem pracodawcy. Potrafią z dnia na dzień podjąć decyzję o zmianie miejsca zamieszkania w skali globu, a nie tylko miasta. By być atrakcyjnym pracodawcą musimy wykonać niemały wysiłek zrozumienia tych ludzi i świata ich wartości.

Piotr Orłowski: Z moich doświadczeń wynika, że jest bardzo wielu ludzi zatrudnionych w firmie, którym jeżeli da się szanse i chwilę oddechu, to chętnie się rozwiną i poświęcą czas na zrobienie czegoś więcej dla firmy.

Piotr Orłowski, Rafał Zbiróg (tyłem na pierwszym planie), Marek Godala, Janusz Hadryś, Dominik Kaczmarek, Małgorzata Olszewska, Marcin Choiński

Marek Godala: Ludzie potrzebują wyzwań i poczucia wartości wykonywanej pracy, mają swoje projekty marzeń i chcą dążyć do ich realizacji, a my jako liderzy powinniśmy ich w tym wspierać.

Dominik Kaczmarek: Pamiętajmy, że zmienia się także profil ludzi, których potrzebują firmy. Coraz częściej szukamy tych, którzy rozumieją biznes, znają to co jest dostępne na rynku i potrafią łączyć jedno z drugim.

Z badania firmy PwC wynika, że 77% prezesów dostrzega wyzwanie w pozyskaniu kandydatów z odpowiednimi kompetencjami. Jeśli weźmiemy pod uwagę fakt, że strata firmy wynikająca z zatrudnienia niewłaściwego kandydata może wynieść nawet 5-krotność jego rocznego wynagrodzenia, to doskonale poczujemy, jak ważne są to decyzje. Szefowie firm zdają się wyciągać wnioski z tych danych. 79% z nich uważa, że technologia spowoduje likwidację miejsc pracy w niektórych obszarach biznesu w ciągu najbliższych 5 lat, a 75% już zmieniło strategię zarządzania talentami i strukturę zatrudnienia w związku z rozwojem nowoczesnych technologii. Są to wyniki globalne i musimy o tym pamiętać, by nie popaść w fałszywy optymizm. Wg danych Eurostatu, w roku 2016 ledwie 6% polskich firm analizowało duże zbiory informacji. Plasuje nas to na przedostatnim miejscu w tym rankingu, za nami jest tylko Cypr (liderami zestawienia w zakresie digitalizacji i korzystania z Big Data są Malta i Holandia). Nie zmienia to jednak faktu, że także na naszym rynku zapotrzebowanie na specjalistów i menedżerów z zakresu zarządzania danymi jest ogromne. Należy mieć nadzieję, że pracodawcy nie będą o nich między sobą konkurować wyłącznie wysokością wynagrodzenia, co potwierdzali także dyskutanci w czasie naszej debaty…

Zdjęcia: Hanna Najgebauer

Przeczytaj także:

Biznesowa wartość danych w branży FMCG

Bądź pierwszy, który skomentuje ten wpis!

Dodaj komentarz

Twój adres email nie zostanie opublikowany.


*