Etyka i sztuczna inteligencja – czy to połączenie się opłaca?

Czy sztuczna inteligencja generuje problemy etyczne? Zdecydowanie tak. Właśnie w ten sposób myśli 9 na 10 badanych menedżerów. Aż 77% z nich ma wątpliwości, czy AI w ich firmach zachowuje zasady etyki i czy jest wystarczająco transparentna. Przyjrzyjmy się badaniu Capgemini.

Najwięcej odpowiedzi dotyczących negatywnych kontaktów z AI – aż 74%, pojawiło się w Chinach, a wśród przebadanych krajów europejskich prym wiedzie Francja – 49%. Również pracownicy firm, które korzystają z rozwiązań wspieranych przez sztuczną inteligencję wskazują na jej niewłaściwe użycie. Co najmniej 40% pracowników natknęło się na jakąś formę użycia sztucznej inteligencji, które spowodowało problemy etyczne. 44% pracowników zgłasza też obawy dotyczące potencjalnie szkodliwego działania systemów sztucznej inteligencji, a 42% pracowników sprzeciwia się niewłaściwemu wykorzystaniu danych osobowych i informacji przez AI. 76% konsumentów oczekuje od rządów oraz niezależnych organizacji opracowania przepisów dotyczących sztucznej inteligencji.

Biznes potrzebuje etycznego AI

Firmy zdają sobie sprawę z powagi sytuacji, ale nie zawsze potrafią sobie z nią poradzić. Ponad połowa kadry zarządzającej postrzega transparentność i etykę systemów sztucznej inteligencji za ważną kwestię. Organizacje podejmują również konkretne działania, kiedy już pojawiają się problemy związane z AI.  64% opracowuje długofalową strategię związaną z ich rozwiązywaniem i zapobieganiem, ponad połowa spowalnia prace nad systemami i wprowadza ich mniej zaawansowane wersje. Dwóch na pięciu menedżerów przyznaje, że w ogóle porzuciło projekty związane ze sztuczną inteligencją po ujawnieniu kwestii etycznych.

– Etyka w AI to temat nowy i pojawiające się problemy do tej pory spotykały się raczej z działaniem reaktywnym. Są oczywiście pozytywne przykłady – firma GE Healthcare zobowiązała się do zatrudniania zdywersyfikowanego zespołu pracującego nad sztuczną inteligencją, żeby zapobiec możliwej dyskryminacji. Osiemdziesiąt procent grupy zajmującej się data science rekrutuje się spośród mniejszości, 44% osób przebywa poza USA, a 26% to kobiety. Firma wprowadziła również dojrzałe praktyki w zakresie analizy danych – muszą pochodzić ze sprawdzonych źródeł i mieć jasno zdefiniowane możliwości wykorzystania. Etyczne AI jest również praktykowane w mniejszych firmach, które dopiero wchodzą na rynek i postrzegają w tym możliwość zyskania przewagi konkurencyjnej – mówi Mirosław Bartecki, główny architekt AI w Capgemini Business Services – jeden z twórców opartej na sztucznej inteligencji aplikacji Cash Collector, nagrodzonej Artificial Intelligence Breakthrough Award 2019.

Mają rację, bowiem badanie jasno wskazuje, że etyczne działania AI budują zaufanie i satysfakcję klientów. Niemal dwie trzecie twierdzi, że zgodna z kodeksem etycznym interakcja ze sztuczną inteligencją jest powodem ich większego zaufania do organizacji, a niemal tyle samo osób jest skłonna podzielić się tym faktem z przyjaciółmi i rodziną oraz deklaruje większą lojalność wobec marki. 55% kupi więcej produktów i podzieli się pozytywnym doświadczeniem w social mediach. Organizacje, których systemy sztucznej inteligencji konsumenci uważają za etyczne, cieszą się 44-punktową przewagą Net Promoter Score (NPS®) nad innymi firmami (NPS® jest podstawową miarą dla programów zarządzania doświadczeniami klientów na całym świecie).

Jak dyskryminuje AI?

Gdzie AI najczęściej nie zdawało egzaminu z etyki – czyli doprowadziło do rezultatów, które są niewytłumaczalne, niesprawiedliwe, nieprzejrzyste lub stronnicze wobec pewnej grupy użytkowników? Wśród 10 najczęściej wymienianych obszarów na najwyższym miejscu znalazło się nadmierne poleganie na decyzjach kierowanych przez maszyny bez ujawniania informacji na ten temat w sektorze bankowym, następnie zbieranie i przetwarzanie danych osobowych pacjentów w algorytmach sztucznej inteligencji bez ich zgody oraz niejednoznaczne lub niejasne zalecenia z systemu opartego na sztucznej inteligencji dotyczące diagnostyki, opieki czy leczenia.

Wśród konkretnych przykładów również z innych obszarów znalazło się korzystanie z opartego na sztucznej inteligencji systemu, który nie jest w stanie wyjaśnić, na jakiej podstawie podjął decyzję o odmowie udzielenia kredytu lub wypłaty odszkodowania lub nie można go poddać audytowi przy podejmowaniu decyzji, wykorzystanie sztucznej inteligencji w rekrutacji, co skutkuje dyskryminacją kandydatów pod kątem płci, pochodzenia etnicznego, wieku lub innych czynników czy dyskryminacyjna polityka cenowa wynikająca z automatycznych decyzji AI.

Mirosław Bartecki wskazuje, że główną przyczyną tego typu problemów jest brak odpowiedniej kontroli czy interpretacji ludzkiej – Nie da się zagwarantować, że AI będzie etyczne, jeśli nie podlega ludzkiej kontroli. Samo w sobie AI nie ocenia ludzi na podstawie kryteriów dyskryminacyjnych, ale kieruje się danymi statystycznymi, które mogą być mylące. Przykład? Analiza procesów biznesowych, które przeprowadzamy w dwóch różnych centrach Capgemini na świecie  – w obu przypadkach mamy 5 rzeczy do procesowania, ale w pierwszym wykonano 22 telefony, załatwiając wszystkie, a w drugim jeden godzinny, ale załatwiając tylko dwie – za to bardzo ważne sprawy. AI wyciągnie tu oczywisty wniosek o efektywności, bo jest jeszcze zbyt mało zaawansowane żeby przeanalizować faktyczną wagę rozmów. Nie ma AI, które by odwzorowało człowieka – to co nie jest abstrakcyjne i jest pozbawione jakichkolwiek ocen i uczuć, nie może być do końca etyczne – komentuje Mirosław Bartecki.

Dlaczego firmy nie potrafią sobie z takimi problemami radzić? 34% kadry kierowniczej wskazało presję rynku na implementację AI celem szybkiego uzyskania związanych z tym benefitów, bez odpowiednio zaadresowanych kwestii etycznych. 33% przyznało, że zagadnienia etyczne w ogóle nie były rozpatrywane przy implementacji AI. 31% nie miało zasobów w postaci specjalistów i technologii odpowiednich do rozwijania etycznej sztucznej inteligencji, a 29% nie zapewniło odpowiedniej dywersyfikacji pod kątem rasy czy płci w zespole projektującym rozwiązania z użyciem AI.

Kliknij i zobacz infografikę ilustrującą całe badanie:

Pierwsze kroki do etycznego AI

W jaki sposób organizacje mogą budować etyczne systemy oparte na sztucznej inteligencji? Capgemini zaleca trójstopniowe podejście do budowania strategii etyki w AI, która obejmuje wszystkich kluczowych interesariuszy:

  • Wskazówki dla CXO, liderów biznesu i osób posiadających kompetencje w zakresie zaufania i etyki: powinni stworzyć silną podstawę ze strategią i kodeksem postępowania w zakresie etyki AI; opracować zasady definiujące dopuszczalne praktyki dla pracowników i aplikacji AI; tworzyć struktury zarządzania etyką i zapewnić odpowiedzialność za systemy sztucznej inteligencji; budować różnorodne zespoły, aby zapewnić wrażliwość AI na pełne spektrum problemów etycznych
  • Dla zespołów obsługujących klientów i pracowników, takich jak HR, marketing, komunikacja i obsługa klienta: powinni upewnić się na temat etycznego wykorzystania aplikacji AI; edukować i informować użytkowników na temat budowania zaufania do systemów sztucznej inteligencji; zapewnić użytkownikom większą kontrolę oraz możliwość szukania pomocy; proaktywnie komunikować w sprawach AI wewnętrznie i zewnętrznie, aby budować zaufanie
  • Dla zespołów budujących rozwiązania AI, analityków danych oraz innych specjalistów AI: powinni sprawić, aby systemy sztucznej inteligencji były przejrzyste i zrozumiałe, aby zyskać zaufanie użytkowników; praktykować dobre zarządzanie danymi i ograniczyć potencjalne błędy w danych, jak też wykorzystywać narzędzia technologiczne do budowania etyki w sztucznej inteligencji.

Jak podkreśla Mirosław Bartecki, współdziałanie z etycznym zespołem jest kluczowe dla wsparcia podejmowania właściwych decyzji przez sztuczną inteligencję

– AI samo w sobie nie ocenia na podstawie domysłów, uprzedzeń, bierze pod uwagę tylko czyste fakty i działa zgodnie z zadanymi regułami – problemem jest na przykład etyczne zastosowanie tych wyników. To człowiek musi być na końcu elementem kontrolnym. Trudno oczekiwać, żeby AI miało współczucie. Trudno wymagać od AI takich kompetencji, chociaż – przewrotnie – logiczne i bazujące na faktach AI często jest bardziej etyczne w ocenie niż ludzie – tak może się dziać na przykład w przypadku kobiet, które mają wyższe kompetencje niż mężczyźni, ale często stają w obliczu społecznych stereotypów, których AI nie zna.

Jest więc oczywiste, że w AI drzemie ogromny potencjał i że sztuczna inteligencja zmieni relacje między konsumentami a organizacjami. Ten związek będzie jednak tylko tak silny, jak etyka, która za nim stoi.

 

Czytaj także:

Zhakowanie mózgu to kwestia czasu

Źródło: Capgemini

Ilustracja: Pixabay

Bądź pierwszy, który skomentuje ten wpis!

Dodaj komentarz

Twój adres email nie zostanie opublikowany.


*