Nowa rzeczywistość będzie wymagała reguł
2018-10-24
Pojawienie się systemów sztucznej inteligencji stanowi największe od stuleci wyzwanie filozoficzne, etyczne i prawne. Ktoś będzie musiał podjąć decyzję, jakimi regułami powinna się ona kierować – pisze ekspert.
Na świecie zaczyna się na poważnie dyskusja o tym, jakim regułom powinny podlegać systemy sztucznej inteligencji (AI), i kto powinien decydować o treści tych reguł. Problem ten, jakkolwiek praktycznie nieobecny w polskiej przestrzeni publicznej, za chwilę będzie miał praktyczne przełożenie na naszą codzienną rzeczywistość. Być może warto, by w tej dyskusji zabrzmiały również polskie głosy – gdyż interwencja ustawodawcy jest nie do uniknięcia.
Największe wyzwanie od stuleci
Jakkolwiek może się to wydawać początkowo oderwane od praktycznej rzeczywistości, to pojawienie się systemów sztucznej inteligencji stanowi największe od stuleci wyzwanie filozoficzne, etyczne i prawne.
Wyobraźmy sobie bowiem autonomiczny samochód, którym steruje program oparty na AI – wyobraźmy sobie również sytuację drogową, która zapewne zdarza się wielokrotnie każdego dnia na całym świecie – otóż na ulicę, przed nasz autonomiczny samochód, niespodziewanie wdziera się dwójka dzieci. Jedyna możliwość, by uniknąć ich potrącenia, to zmiana kierunku jazdy na przeciwny pas, z czym wiąże się niestety czołowe zderzenie z samochodem jadącym z naprzeciwka. W końcowym rezultacie – albo ucierpią nieostrożne dzieci, albo ucierpią osoby podróżujące „naszym” autonomicznym samochodem i pasażerowie w samochodzie jadącym z naprzeciwka. Jaką decyzję powinna podjąć sztuczna inteligencja – ratować dzieci czy pasażerów auta, którym kieruje?
Wyobraźmy sobie też robota medycznego sterowanego przez AI, który udaje się na miejsce katastrofy budowlanej, gdzie poszkodowanych (w różny sposób) jest wiele osób. Czy robot powinien ratować każdego po kolei (na zasadzie „kto pierwszy, ten lepszy”), czy też dokonać „selekcji” i na przykład zaniechać ratowania osoby na tyle rannej, że jest duże prawdopodobieństwo, że i tak nie przeżyje (po to, by ratować osoby, co do których wydaje się, że mają większe szanse na przeżycie)?
Jak sami widzimy, pojawienie się sztucznej inteligencji stawia przed nami pytania natury zasadniczej – jakimi regułami powinny się kierować systemy AI przy podejmowaniu decyzji. Czy chcemy być altruistami (ratujemy cudze życie), czy wolimy mieć komfort, że nasze życie będzie chronione w pierwszej kolejności? Pamiętajmy również o nieuniknionym konflikcie pomiędzy światłymi i zbożnymi ideami a biologicznymi uwarunkowaniami funkcjonowania ludzi (w szczególności działaniem emocji i potrzeb podstawowych – jak instynkt samozachowawczy). Wiele osób pewnie w pierwszej kolejności zadeklaruje, że autonomiczny samochód, w pierwszym przykładzie, powinien ratować nieostrożne dzieci. Ale pewnie zdecydowana większość będzie wolała kupić samochód, który raczej zadba o pasażera…
Gdzie szukać punktów odniesienia?
Dodatkowo, jakie systemy lub ideologie powinny być punktem odniesienia – religia, systemy etyczne czy może filozofia? Nie unikniemy w tym wypadku odpowiedzi – ktoś będzie musiał podjąć decyzje, jakimi regułami powinna kierować się sztuczna inteligencja. Jako system pozbawiony emocji (a więc stanów takich jak empatia czy złość) nie będzie w stanie sama wypracować reguł podstawowych (jak miało to miejsce w przypadku ludzi). Oczywiście, sztuczna inteligencja będzie mogła próbować doprecyzowywać (wypracowywać) reguły niższego rzędu, ale nie unikniemy konieczności wskazania reguł podstawowych.
Pozostaje zatem pytanie – kto powinien o tych regułach decydować. Czy powinna to być decyzja producenta samochodu, który w oparciu o ogólne reguły prawa i gust klientów dostarcza systemy AI z określonymi regułami działania? Czy też raczej kwestie takie powinny regulować szczegółowo państwa, gdyż de facto decyzje sztucznej inteligencji będą dotyczyć najbardziej znaczących kwestii etycznych (a więc z założenia kwestii wrażliwych politycznie)? Te drugie rozwiązanie, oprócz ryzyka niespójności pomiędzy poszczególnymi państwami, będzie również nieefektywne, bo nie ma „jednej” sztucznej inteligencji i z pewnością będzie wiele różnych systemów AI odpowiedzialnych za poszczególne procesy/zadania o zmiennym zakresie i zmiennym charakterze.
W jakim kierunku zmierzamy?
Interwencja ustawodawcy jest konieczna, ale trudno tu o jakiekolwiek konkretne analogie do wcześniejszych instytucji prawnych – po prostu mamy do czynienia z problemem, z którym ludzkość nigdy wcześniej się nie zetknęła. Najbardziej rozsądne jest co prawda snucie analogii, iż sektor wykorzystania systemów AI być może stanie się kolejnym sektorem regulowanym – co do ogólnych zasad, czyli ustawodawca narzuci pewne ogólne reguły (np. system AI nie może służyć intencjonalnemu szkodzeniu ludziom), ale szczegółowe reguły działania systemu pozostaną w gestii poszczególnych producentów. Trochę tak jak z ochroną konsumenta – ustawodawca nie narzuca przedsiębiorcy, jakiej treści ma być reklama, ale wskazuje tylko, czego wyraźnie przedsiębiorca nie może w niej zawrzeć.
Warto zwrócić uwagę, iż Komisja Europejska również zaczyna dostrzegać wagę problemu, a jedna z pomocniczych instytucji unijnych (The European Group on Ethics in Science and New Technologies (EGE)) przedstawiła już wstępną propozycję ogólnych reguł, które miałyby rządzić systemami sztucznej inteligencji – wśród których prym mają wieść zasady:
1) godności ludzkiej,
2) autonomii jednostek ludzkich (prawa ludzi do stanowienia reguł, według których chcą żyć),
3) działania dla dobra ludzi z poszanowaniem mechanizmów demokracji (rządów prawa i praw człowieka),
4) sprawiedliwości, równości oraz solidarności,
5) bezpieczeństwa ludzi oraz zachowania ich integralności (fizycznej i psychicznej),
6) ochrony danych osobowych oraz prawa do prywatności.
Są to jednak na razie bardziej hasła niż konkretne rozwiązania – na większość pytań nie mamy nadal odpowiedzi – warto może, by także w Polsce podjęta została dyskusja, jak sobie wyobrażamy reguły rządzące systemami sztucznej inteligencji. Warto mieć w tej kwestii własne zdanie, choć nie oszukujmy się – prawdopodobnie większą moc decyzyjną w tej mierze będzie miała Dolina Krzemowa, która pewnie będzie dążyć do przyjęcia jednolitych reguł na całym świecie lub przynajmniej na terytorium krajów szeroko rozumianego Zachodu. Chciałbym, żebyśmy poświęcili trochę czasu na przemyślenie tej jakże ważnej dla naszej przyszłości sprawy – pomimo całej świadomości, że Polska ciągle goni peleton w rozwoju technologii AI. Być może szybciej niż myślimy, zetkniemy się ze skutkami działania systemów sztucznej inteligencji.
Artykuł ukazał się w dzienniku „Rzeczpospolita” w dniu 24.10.2018r.