Jak cel ma sztuczna inteligencja? Taki jak nasz!

Stephen Wolfram, legendarna postać w świecie zaawansowanych technologii, jest autorem mało znanego eseju o jakże wymownym tytule Sztuczna inteligencja i przyszłość cywilizacji. Tekst, opracowany na podstawie wywiadu udzielonego w 2015 roku, ukazał się w tomiku Człowiek na rozdrożu (1), zredagowanym przez Johna Brockmana, amerykańskiego wydawcę, autora projektu edge.org, w ramach które znani intelektualiści wypowiadają się co roku na wybrany temat. Dodam tylko, że Wolfram jest nie tylko twórcą znanego oprogramowania Mathematica, ale wraz z synem opracował cały język symboliczny na potrzeby filmu Nowy początek, który notabene gorąco polecam sympatykom kina Sci-Fi. 

Esej zmusza do zastanowienia się nad istotą prac prowadzonych w kontekście sztucznej inteligencji. W nieco innym kontekście stawia też tezy głoszone przez technooptymistów i technopesymistów, by użyć terminologii lansowanej ostatnio przez Marcina Napiórkowskiego w świetnej publikacji Naprawić przyszłość (2). Wolfram zauważa, że “wymyślanie celów nie jest czymś, co można zautomatyzować – ktoś lub coś musi zdefiniować cel maszyny” (3). Dodaje zaraz, że “chociaż pudło na naszym biurku myśli równie dobrze jak nasz mózg, z natury jednak brakuje mu celów i dążeń. Te są definiowane przez nasze szczegóły – szczególne warunki biologiczne, szczególne warunki psychologiczne , naszą szczególną historię kulturową” (4). Autor konstatuje więc, że bawimy się w stwórcę, który chce swoje dzieci zamienić w swoje sobowtóry. Nasze cele mają zostać przetłumaczone na język komputacyjny, tak aby prosta, nieskomplikowana, niebiologiczna maszyna była w stanie je przetłumaczyć na odpowiednie instrukcje i za pomocą odpowiednich algorytmów realizować je zgodnie z naszymi wytycznymi. Idąc dalej tym tokiem myślenia, sztuczna inteligencja będzie tak długo dla nas bezpieczna, o ile będzie realizować nasze cele. Groźnie będzie dopiero wtedy, gdy zacznie stawiać sobie własne cele i realizować je z całą swoją mocą. Jednak nawet wtedy, zauważa Wolfram, to nadal nie będą cele z innej planety, bo ich bazą będzie człowiek, który wcześniej projektował i trenował te systemy. Paradoksalnie, to może nas uratować, bo jeśli sztuczna inteligencja z przyszłości będzie naszym wiernym odwzorowaniem, powinna się stać równorzędnym partnerem do rozmowy, a jej zachowaniem powinno także odwzorowywać moralne i etyczne aspekty funkcjonowania ludzi. Z drugiej strony taka ludzka kopia równie może okazać się nieobliczalna, w końcu w takim samym stopniu jak człowiek jest podatna chociażby na wirusy, mimo że innego rodzaju, ale o podobnych, katastrofalnych skutkach. 

Autor zwraca też uwagę na to, że między pojęciem inteligencji a obliczalności granica jest płynna. Niby mówimy, że sztuczna inteligencja będzie dopiero wtedy inteligentna, gdy będzie potrafiła zrobić to, a potem tamto, i tak w sumie w nieskończoność. Tak jakby moc obliczeniowa miała być wyznacznikiem coraz wyższego ilorazu inteligencji. Tylko, jak pisze Wolfram – “istnieje wiele sposobów uzyskania konkretnych rezultatów – nie ma wyraźnej granicy między inteligencją a czystą komputacją. To kolejny element historii kopernikańskiej: kiedyś sądziliśmy, że Ziemia to centrum Wszechświata. Teraz sądzimy, że jesteśmy wyjątkowi, bo mamy inteligencję i nic innego jej nie ma. Obawiam się, że zła wiadomość jest taka, że nie ma takiego rozróżnienia” (5).

Ps. O sztucznej inteligencji pisałem już w kontekście sztuki i artystów, w kontekście GPT-3 i pisarzy oraz w kontekście szachów i AlphaZero.

Przypisy
(1) Człowiek na rozdrożu. Sztuczna inteligencja – 25 punktów widzenia, red. John Brockman, Wyd. Helion, 2020; wydanie oryginalne: Possible Minds, 2019
(2) Naprawić przyszłość. Dlaczego potrzebujemy lepszych opowieści, by uratować świat, Marcin Napiórkowski, Wyd. Literackie, 2022
(3) Człowiek na rozdrożu. Sztuczna inteligencja – 25 punktów widzenia, red. John Brockman, Wyd. Helion, 2020, str. 289
(4) str. 290
(5) str. 303

Wojciech Głąbiński