GPT-3, Golem XIV i debugowanie

Wiele się ostatnio mówi i pisze o GPT-3 i sztucznej inteligencji, jednak wydaje mi się, że narracja w tym temacie staje się zbyt przewidywalna, czy wręcz powtarzalna. GPT-3 niesie ze sobą wiele potencjalnych możliwości, część pozytywnych, część negatywnych, jednak najczęściej pisze się o utracie kolejnych miejsc pracy, coraz sprytniejszym plagiatom czy mistrzowskim dziełom artystycznym stworzonym przez sztuczną inteligencję. Chciałbym w tym krótkim tekście zwrócić uwagę na dwie kwestie, słabo obecne w obecnym dyskursie.

Po pierwsze, sztuczna inteligencja niesie ze sobą podwójne znaczenie. Sztuczny, czyli nienaturalny, niebiologiczny – jako synonim maszyny, technologii. Tym samym to obcy nam podmiot, który sytuuje się poza nami, ludźmi z krwi i kości. Sztuczny to także, z drugiej strony, nienaturalny w tym sensie, że udawany, nieprawdziwy. W tym sensie obraz stworzony przez sztuczną inteligencję w założeniu jest gorszy, bo to jest tylko podszywanie się pod człowieka, imitowanie jego umiejętności, pod powłoką tejże sztuczności nie ma żadnej kreatywności czy oryginalności. 
Po drugie, boimy się nadejścia ogólnej sztucznej inteligencji, która mogłaby stać się zagrożeniem dla całego naszego gatunku. Nie dość, że taka wizja jest mocno nierzeczywista – w końcu to człowiek kontroluje chociażby zasilanie takich systemów jak GTP-3 – to warto zwrócić uwagę, że twórcy ogólnej sztucznej inteligencji od lat dążą do odwzorowania sposobu, w jaki funkcjonuje ludzki mózg – i tu pojawia się spory problem. Warto w tym miejscu przytoczyć opinię Marvina Minsky’ego sprzed równo dwudziestu lat, którą podzielił się z czytelnikami w publikacji Nowy Renesans (w Polsce wydana w 2005 roku przez Wydawnictwo CIS). Minsky, teoretyk umysłu, zwraca uwagę, że nadal nie wiemy, jak naprawdę działa ludzki umysł – a słowa te są nadal aktualne w 2023 roku. Naukowcy, także dzisiaj, traktują umysł jako jeden system, który odznacza się jedną świadomością czy tożsamością. Minsky przestrzega przed takim podejściem, wspierając się w swoim wywodzie teoriami Freuda. Mimo że ma pełną świadomość, że twórca psychoanalizy ocierał się mocno o pseudonaukę, Minsky zauważa, że zasługą Freuda, a w zasadzie jego pionierskim jak na tamte czasy odkryciem, było spostrzeżenie, że w naszym mózgu działają różne podsystemy, dzięki czemu “otrzymujemy wizję umysłu jako zbiór struktur, które mogą ze sobą współpracować lub się zwalczać, by radzić sobie ze sprzecznymi celami”(1). Minsky pisze dalej, że “być może znaczna część czynności umysłu wiąże się z tym, co informatycy nazywają w swoim żargonie debugowaniem (odpluskwianiem). Nasz umysł bardziej przypomina zbiór programów komputerowych, a każdy z nich, jak to z softwarem bywa, roi się od błędów. (To zresztą nie jest tylko kwestia mózgu. Tak po prostu działa ewolucja – zamiast tworzyć perfekcyjne podsystemy, adaptuje dawne i poprawia je, by poradzić sobie z wcześniejszymi błędami, a to sprawia, że wciąż pojawiają się nowe)”(2). Tym samym wizja ogólnej sztucznej inteligencji, która jako jeden wielki system działa perfekcyjnie, o rzędy wielkości lepiej, szybciej i wydajniej niż ludzki umysł, wydaje się z założenia błędna. W programie komputerowym wystarczy przecież zmienić jeden przecinek na kropkę, i cały system się wykłada. Problem polega więc na tym, że “typowy współczesny komputer potrafi radzić sobie z tylko jednym rodzajem zadań i to tylko na jeden sposób – tymczasem człowiek, który utknie nad jakimś zadaniem, zwykle nie ma kłopotów ze zmianą strategii rozwiązania problemu. Co więcej, taka zmiana zwykle nie pociąga ze sobą konieczności rozpoczynania pracy od samego początku – mimo nowej metody i wykorzystywania odmiennych reprezentacji, można zacząć od miejsca, w którym przerwaliśmy.”(3) Minsky konkluduje, że przełom nastąpi dopiero wtedy, gdy “komputery nauczą się myśleć o sobie i wynajdywać metody, które pozwolą im samodzielnie się usprawniać”(4). Na szczęście to nadal wizja mocno futurystyczna, którą lata temu drobiazgowo przedstawił Stanisław Lem w Golemie XIV. Czyli, jak na razie, możemy spać spokojnie … chyba że potraktujemy uczenie maszynowe i GPT-3 jako przykład, że jednak systemy potrafią już “samodzielnie się usprawniać”. Jeśli tak, to być może jednak jesteśmy o krok od wielkiego przełomu technologicznego?

Przypisy:
1. Nowy Renesans, pod redakcją Johna Brockmana, Wyd. CIS 2005 (oryginalne wydanie: The New Humanists. Science at the Edge, 2003). Artykuł: Co nadejdzie po umysłach, Marvin Minsky, str. 197
2. tamże, str. 200-201
3. tamże, str. 205
4. tamże, str. 213

Wojciech Głąbiński