Moralność maszyn myślących
Ten tekst, po raz pierwszy w historii dziennikarstwa, został napisany przez inteligentne urządzenie. No, może niezupełnie, ale takie stwierdzenie może wkrótce być prawdą, zważywszy na szybki postęp badań nad sztuczną inteligencją (SI).
Niedawno wielkie emocje wzbudził fakt, że komputer najwyraźniej zaliczył test Turinga, przekonując jury, w ciągu 5 minut rozmowy, że jest 13-letnim chłopcem. To był częściowo chwyt PR, ale pokazuje, jakie postępy zachodzą w programach językowych. Inne przykłady badań nad sztuczną inteligencją to choćby samochody firmy Google, poruszające się bez kierowców i silikonowe sieci neuronowe, które mają symulować funkcjonowanie ludzkiego mózgu.
Już wcześniej były fale fascynacji badaniami nad sztuczną inteligencją. W latach 80. w Japonii projektowano komputery piątej generacji, ale potem tego zaniechano, gdy naukowcy stwierdzili, że nie docenili barier technicznych i nie są w stanie stworzyć komputera, który myśli jak człowiek. Tym razem jest więcej entuzjazmu, gdyż zarówno informatyka, jak i neurologia, rozwijają się bardzo szybko, a sektor prywatny, w szczególności Dolina Krzemowa, przeznacza znaczne środki na badania SI. Uzupełniają one inicjatywy finansowane ze środków publicznych.
Maszyny, których inteligencja dorównuje ludzkiej lub ją przekracza, mogłyby czynić lepszym życie jednostek. Może to być np. asystent językowy, który precyzyjnie przekłada rozmowę podczas podróży w obcym kraju. Albo maszyny przydatne dla całej ludzkości, pomagające w rozwiązaniu problemów ekonomicznych lub środowiskowych. Lecz powinniśmy także myśleć o etycznych konsekwencjach SI.
Nawet coś tak pozornie prostego, jak samochód bez kierowcy, stwarza problemy etyczne. Czy ma on być tak zaprogramowany, by chronił przede wszystkim pasażerów, czy innych użytkowników drogi? Jeśli wykryje, że naprzeciwko pędzi wielka ciężarówka i jedynym sposobem uniknięcia katastrofy jest wjechanie w grupę pieszych na chodniku, to co wówczas zrobi?
Odpowiedzi nie są proste i trzeba się będzie nad nimi zastanowić podczas publicznej dyskusji. W wielu przypadkach, zachowanie robotów będzie miało wymiar moralny wykraczający poza słynne „3 prawa robotyki", sformułowane niegdyś przez Isaaca Asimova.
Pojawi się też kwestia praw robotów. W którym momencie maszyny będą miały wystarczający potencjał umysłowy, by zasługiwać na ochronę prawną przed nadużyciami? Takie prawa otrzymują dziś zwierzęta.
W dalszej przyszłości możliwe jest powstanie superinteligencji wykraczającej poza zdolności ludzkiego mózgu. Taka wizja dziś jeszcze wydaje się zbyt futurystyczna, by się nią przejmować, ale coraz więcej naukowców ostrzega, że superinteligencja może wymknąć się spod kontroli i stać się jednym z największych zagrożeń egzystencjalnych dla naszego gatunku.
Już teraz powinniśmy myśleć o tym, jak kształtować badania nad SI, by maksymalizować korzyści dla ludzkości i minimalizować zagrożenia.
Na podst. The morality of thinking machines, The Financial Times
ul. Kruczkowskiego 6, 00-412 Warszawa
tel. +48 22 55 54 32