Joanna Jastrząb i Xawery Konarski Traple Konarski Podrecki i Wspólnicy
Powszechna obecność sztucznej inteligencji w różnych jej formach staje się dziś faktem. Szacowane jest przy tym, że do końca 2021 r. przedsiębiorstwa wydadzą na badania nad AI ponad 60 mld dolarów. Tak szybko rozwijająca się technologia prowadzi do prawdziwej transformacji, zarówno w dziedzinie gospodarki, społeczeństwa, etyki, ale i w wymiarze prawnym.
Pełna transformacja jest wciąż przed nami, chociaż prowadzone już są pewne działania w tym obszarze. Przykładowo, zarówno w ramach Unii Europejskiej, jak i w Polsce, podejmowane są liczne inicjatywy mające na celu stworzenie ram prawnych dla rozwoju AI. Takie ramy w Polsce wyznacza Polityka Rozwoju Sztucznej Inteligencji na lata 2019–2027, obszerny dokument wydany przez Ministerstwo Cyfryzacji i stanowiący rezultat prac grup roboczych, przedstawiający ambitne cele dotyczące budowy potencjału Polski w obszarze AI.
Wciąż jednak rezultatem takich inicjatyw są jedynie ogólne dokumenty, które w większości przypadków nie przekładają się na konkretne zmiany prawne. Ani w prawie polskim, ani w aktach europejskich, nie ma bowiem definicji sztucznej inteligencji, a szczególne uregulowania, które jej wprost dotyczą, są wciąż rzadkością.
AI, uczenie maszynowe, deep learning…
Stworzenie jednolitej definicji AI jest przy tym trudne, zwłaszcza wobec zróżnicowania przejawów tej technologii. Obecnie pod tym pojęciem najczęściej rozumie się uczenie maszynowe, czyli algorytmy, które są „uczone” czy „trenowane” do wykonywania określonych zadań poprzez przedstawienie im zbiorów danych. Szczególnym przejawem uczenia maszynowego są jest deep learning, czyli bardziej skomplikowane i złożone algorytmy, inspirowane budową ludzkiego mózgu (sieci neuronowe). Są one dedykowane bardziej złożonym zadaniom i są przy tym bardziej samodzielne – potrafią także uczyć się bez wsparcia człowieka, który je programuje.
Przykładem wykorzystania uczenia maszynowego są używane w medycynie algorytmy rozpoznające anomalie na obrazach RTG czy algorytmy-malarze, które zaczęły już robić karierę na aukcjach. W 2018 r. za niebagatelną kwotę sięgającą prawie pół miliona dolarów sprzedany został obraz stworzony przez sztuczną inteligencję.
Powyższe przykłady jednak jasno wskazują, że obecnie AI jest jedynie narzędziem w rękach człowieka, a nie odrębnym, autonomicznym bytem. Prace jednak w tym kierunku są prowadzone, a prognozy wskazują że tzw. „silne AI” czy „Artificial General Intelligence”, odpowiadające inteligencji człowieka lub ją przewyższające, zostanie osiągnięte do 2060 r.
Wobec tak odległej perspektywy, można spodziewać się że przepisy prawne w najbliższej przyszłości nie będą odnosić się do kwestii osobowości prawnej sztucznej inteligencji. Takiej koncepcji sprzeciwia się zresztą Polska, choć inne kraje jej nie wykluczają, lecz jedynie w przypadku zaawansowanych, samodzielnych algorytmów.
Nowe podejście do przepisów
Powyższe nie oznacza bynajmniej, że prawo w najbliższych latach nie powinno w ogóle zająć się problemami wynikającymi z wykorzystania sztucznej inteligencji. Ta bowiem stawia wiele wyzwań, dotyczących przede wszystkim odpowiedzialności za jej użycie.
Częściowo zresztą, niektóre akty prawne regulują te zagadnienia, w sposób który ma chronić człowieka przed działaniem AI. Za przykład może posłużyć RODO i regulacja dotycząca zautomatyzowanego podejmowania decyzji. Przepisy w tym zakresie powstały w odpowiedzi na powszechne wykorzystanie systemów scoringowych, opartych o dane osobowe użytkowników, służących kalkulacji składek ubezpieczeniowych lub ocenie zdolności kredytowej. RODO nakazuje zagwarantować, że takie wykorzystanie algorytmów nie zawsze będzie wyłączną podstawą ostatecznej decyzji – użytkownik ma prawo, aby człowiek zweryfikował decyzję podjętą przez AI.
Wdrożenie RODO do regulacji bankowych zaowocowało także prawem do poznania powodów, dla których odmówiono przyznania kredytu czy pożyczki. Obecnie nie wystarczy, aby bank poinformował wyłącznie o odmownej decyzji – musi wskazać, co na nią wpłynęło. Przepisy prawne zostały wdrożone w połowie br. i ich skutkiem jest zapewnienie, że algorytmy scoringowe nie będą działać w oparciu o dyskryminujące reguły – np. płeć czy wiek. Być może istnienie analogicznych regulacji za oceanem pozwoliłoby uniknąć skandalu, o którym ostatnio mogliśmy usłyszeć – algorytm Goldman Sachs wykorzystywany dla Apple Card, miał dyskryminować ze względu na płeć przy przyznawaniu limitów kredytowych (sprawa jest obecni wyjaśniana).
Niemniej jednak, w przeważającym zakresie, przepisy powstały w czasach kiedy algorytmy AI nie były szeroko wykorzystywane, więc regulacje wprost nie odnoszą się sztucznej inteligencji. Ich przegląd jest wobec tego konieczny, tak aby uwzględnić ryzyka wynikające z wykorzystania nowych narzędzi. Ryzyka te nie mają wyłącznie wymiaru biznesowego, ale często trzeba je rozpatrywać nawet z perspektywy przestępstw.
Sztuczna inteligencja a aktualne przepisy
Dopóki jednak polski czy unijny prawodawca nie dokona szczegółowo uaktualnienia przepisów, konieczne jest poruszanie się w ramach obecnie funkcjonujących ram prawnych, tam gdzie jest to oczywiście możliwe.
I tak, stosowanie algorytmów, które dyskryminują aplikujących w procesie rekrutacyjnym z uwagi na płeć czy kolor skóry (rozpoznawane przez AI na podstawie zdjęcia), może być potraktowane jako nierówne traktowanie i dyskryminacja, zakazana na gruncie kodeksu pracy.
Z kolei użycie botów również może prowadzić do powstania odpowiedzialności – jeśli użyte są celem przesyłania spamu (odpowiedzialność na gruncie ustawy o świadczeniu usług drogą elektroniczna), nieuczciwej reklamy czy oczerniania konkurenta (ustawa o zwalczaniu nieuczciwej konkurencji) albo rozpowszechniania nieprawdziwych informacji lub wulgarnych komentarzy (wchodzi tu w grę odpowiedzialność za naruszenie dóbr osobistych, a nawet odpowiedzialność karna).
Wyzwania dla ustawodawcy
Powyższe przykłady jasno pokazują, że wykorzystanie sztucznej inteligencji jako narzędzia w nieuczciwym celu może prowadzić do odpowiedzialności tego, kto korzysta – użytkownika. Taka odpowiedzialność może być zresztą przypisana już na podstawie obowiązujących przepisów.
Są jednak przypadki, w których obecnie funkcjonujące przepisy nie są jednoznaczne. Jak bowiem podejść do przypadku, kiedy to nie człowiek bezpośrednio stoi za nieuczciwym działaniem, a jego „sprawcą” jest sam algorytm – nie działający na wyraźne polecenie człowieka? Czy mimo wszystko odpowiedzialność należy przypisać twórcy algorytmu?
Idąc dalej – co w sytuacji, kiedy autonomiczny samochód spowoduje wypadek – czy powinien odpowiadać jego użytkownik, czy też producent? A może istnieje droga pośrednia, jak obowiązkowe ubezpieczenia, które obejmowałyby odpowiedzialność algorytmu?
Podobnie należy podejść do „twórczości” autorskiej algorytmów, zwłaszcza w sytuacji kiedy tworzą one unikalne dzieła, jedynie inspirując się dostarczanymi im danymi – utworami literackimi lub graficznymi. Na gruncie obecnych regulacji prawa autorskiego uznaje się, że autorem danego dzieła, a tym samym podmiotem któremu przysługuje pełnia praw do niego – jest człowiek. Tym samym, za twórcę nie można uznać algorytmu. Wobec tego pojawia się pytanie, czy za autora należy uznać twórcę algorytmu (choć on sam bezpośrednio dzieła nie wytworzył), czy też należy uznać że utwór należy do domeny publicznej – a tym samym każdy może go reprodukować i sprzedawać?
Powyższe problemy pozostają obecnie aktualne i brak jest prostej odpowiedzi na zadane pytania. Konieczność regulacji prawnej pewnych zagadnień na nowo jest więc nieunikniona, a działania w tym zakresie powinny zostać zintensyfikowane. Nie jest bowiem wykluczone, że szybki rozwój sztucznej inteligencji dostarczy także kolejnych wyzwań, z którymi będą musieli zmierzyć się ustawodawcy i praktycy prawa.
Joanna Jastrząb – Radca Prawny, Starszy Prawnik w Traple Konarski Podrecki i Wspólnicy.
Xawery Konarski – Adwokat, Starszy Wspólnik w Traple Konarski Podrecki i Wspólnicy, wiceprezes Polskiej Izby Informatyki i Telekomunikacji.
Artykuł pochodzi z pierwszego numeru Weekendówki dla Liderów, którą można przyczytać lub w całości wysłuchać:
Ilustracja tytułowa: Pixabay