Etyczność AI opiera się na demokratyzacji technologii

Ostatnie przykłady zastosowań sztucznej inteligencji (AI) do tworzenia tekstów, obrazów czy kodów pokazują, że kontakt z nią stał się naturalnym elementem naszego życia. Jednak wraz z rozwojem technologii i udostępnianiem coraz większej ilości danych, należy zastanowić się nad etycznym aspektem nowych rozwiązań. W grę wchodzi przede wszystkim ochrona prywatności i bezpieczeństwo danych osobowych konsumentów, ale też maksymalny obiektywizm sztucznej inteligencji. 

Obecnie prawie każdy ma styczność ze sztuczną inteligencją, ponieważ znajduje ona zastosowanie w niemalże każdej dziedzinie naszego życia. AI wykorzystywana jest w automatyzacji produkcji, w medycynie w celu diagnozowania chorób, w optymalizacji transportu, w handlu i reklamie, czy nawet rozrywce. To sztuczna inteligencja podpowiada nam na platformach streamingowych, jakie filmy spodobają nam się najbardziej oraz jaka muzyka trafi w nasze gusta. Wraz z rozwojem technologii staje się ona coraz bardziej doskonała i precyzyjna, a zawdzięcza to stale rozwijającej się algorytmice i uczeniu maszynowemu, które są jej nierozerwalnymi elementami. 

Zróżnicowanie danych buduje obiektywność 

Uczenie maszynowe (ang. Machine Learning, ML) polega na analizie i interpretacji dynamicznie rosnącego zbioru danych. Należy więc stworzyć i zaprogramować model, który będzie w stanie podołać temu zadaniu. Chodzi tu przede wszystkim o automatyzację procesów uczenia maszynowego. W świecie społeczeństwa informacyjnego pojawia się jednak kilka wyzwań, które mają wpływ na etyczność projektowanych modeli, a w efekcie także budowanej na ich podstawie sztucznej inteligencji. Jednym z nich jest stronniczość danych. Im więcej bezstronnych danych wejściowych, tym lepiej dla nas, użytkowników. Ale po kolei. 

Demokratyzacja dostępu do danych to proces, który ma olbrzymi wpływ na przyszłość uczenia maszynowego. Chodzi o to, aby organizacje miały dostęp do jak najbardziej zróżnicowanych i rozbudowanych zbiorów danych, ale też takich, które zostały pozyskane w sposób etyczny – to znaczy za zgodą podmiotów stanowiących źródło danych. Dzięki temu różnego rodzaju organizacje będą mogły czerpać z analizy danych korzyści w sposób bardziej efektywny, bez konieczności angażowania szerokiego grona specjalistów. 

Należy wziąć pod uwagę dwa podstawowe elementy tego procesu. Po pierwsze, w grę wchodzi konieczność implementacji chmury danych, która umożliwi budowanie aplikacji w celu rozwoju innowacji, poprawy doświadczeń klientów oraz generowania szybszego dostępu do informacji. Po drugie, mowa o potrzebie wglądu w dane w czasie rzeczywistym i działaniach opartych na szybszych, zautomatyzowanych procesach, które są kluczowe w umożliwieniu przedsiębiorstwom szybkiego dostosowywania się do stale zmieniającego się świata. Jak bardzo to istotne pokazały wydarzenia związane z COVID-19. Przedsiębiorstwa, które były w stanie zachować elastyczność i dostosować się do zmian spowodowanych pandemią, lepiej reagowały zarówno na wahania rynku, jak i na potrzeby swoich klientów. 

Oprócz łatwego pozyskiwania wszystkich rodzajów danych z przedsiębiorstwa organizacje mogą także wykorzystywać dodatkowe dane od stron trzecich z rynków danych, co umożliwia im tworzenie bardziej zaawansowanych modeli automatycznych. Rozwój modeli sprawia, że organizacje mogą dzielić się tymi modelami i zarabiać na nich w ramach ekosystemu opartego na współpracy. 

Etyczny wymiar AI 

W każdej organizacji, która zarządza danymi, powinna funkcjonować dedykowana rada ds. etyki, czyli grupa osób, która bada dane wyjściowe i zapewnia pełen obiektywizm oraz odpowiednią równowagę. Taki zespół stanowi gwarancję, że algorytmy tworzone są w sposób spójny, ale przede wszystkim sprawiedliwy, a sztuczna inteligencja staje się coraz dokładniejsza i bardziej wiarygodna, ale również bezpieczna. 

Mówiąc o etycznej sztucznej inteligencji, musimy mieć na uwadze przede wszystkim konsumentów i ich zaufanie. Odbiorcy chcą także mieć pewność, że ich dane są bardzo dobrze chronione. Coraz częściej są bowiem świadomi zagrożeń w świecie cyfrowym i wiedzą, że dane osobowe mogą paść łupem cyberprzestępców. Regulacje takie jak RODO (Ogólne rozporządzenie o ochronie danych), czy organy takie jak UODO (Urząd Ochrony Danych Osobowych) stoją na straży prywatności. Ważne jest jednak, aby przepisy były tworzone na bieżąco – ponieważ technologia nie czeka i rozwija się błyskawicznie – a już obowiązujące przepisy były bezwzględnie przestrzegane. 

Wreszcie – odpowiedzialność spoczywa przede wszystkim na samych firmach, które wykorzystują sztuczną inteligencję. To one muszą zadbać o to, aby zabezpieczenia, procesy weryfikacyjne i identyfikacyjne działały bez zarzutów. Kluczem do sukcesu będzie stosowanie rygorystycznych środków bezpieczeństwa, przy jednoczesnym zapewnieniu stałej zdolności w obszarze demokratyzacji sztucznej inteligencji. Aby tego dokonać, organizacje muszą zainwestować w infrastrukturę i narzędzia, które pozwolą im na bezpieczne i efektywne udostępnianie danych i zarządzanie nimi. 

Autor: Michał Gdak, Senior Manager AI Research And Development w Snowflake

Bądź pierwszy, który skomentuje ten wpis!

Dodaj komentarz

Twój adres email nie zostanie opublikowany.


*