Boimy się tego, czego nie znamy.
Taka nasza cecha gatunkowa. Tak zostaliśmy uwarunkowani ewolucyjnie, dzięki czemu mogliśmy szybko reagować na potencjalne zagrożenia. Miało to gigantyczne znaczenie w początkowej fazie rozwoju naszego gatunku. Jednak ten atawistyczny lęk przed nieznanym pozostał w naszych genach do dziś. I w całej krasie uwidacznia się w zderzeniu z fenomenem sztucznej inteligencji (SI).
Boimy się tego, czego nie znamy. A o SI przeciętny obywatel ma znikome pojęcie, czemu nie ma co się dziwić. Nie każdy musi być specjalistą w tej nowej dziedzinie. Na pewno warto więc uściślić definicję SI, bo mając na myśli sztuczną inteligencję, wiele osób ma w głowie zupełnie inne pojęcia.
Sztuczna inteligencja jest bardziej powszechna, niż nam się wydaje.
Jej zastosowania możemy znaleźć przede wszystkim u największych gigantów internetowych. W Google SI stoi za wyszukiwarką, w Netflixie i Amazonie odpowiada za system rekomendacji, a w Apple’u „zmaterializowała się” w postaci asystenta głosowego Siri. Ten rodzaj SI, wyspecjalizowany w jednej konkretnej dziedzinie, nosi nazwę Wąskiej lub Słabej SI. Do tej samej kategorii zaliczymy także AlphaZero i wszystkie SI bazujące na uczeniu maszynowym i uczeniu głębokim.
Na drugim krańcu spektrum znajduje się tzw. Ogólna lub Silna SI, zwana też Osobliwością lub Superinteligencją. To jednak tylko teoretyczna możliwość. Obecnie nie istnieją żadne przesłanki, które pozwalałyby spodziewać się pojawienia się Ogólnej SI w najbliższych kilku, kilkunastu latach. Futurolodzy i eksperci związani z branżą sztucznej inteligencji, na czele z Rayem Kurzweilem, prognozują co prawda, iż już w roku 2030-2040 może pojawić się Superinteligencja. Jednak równie dobrze może to być rok 2080 czy 2100. O ile w ogóle będzie to możliwe.
To właśnie silna SI napawa nas przerażeniem. Ten motyw silnej SI wykorzystują hollywoodzkie superprodukcje, gdzie maszyny, roboty lub komputery grożą zagładą ludzkości lub wymykają się spod ludzkiej kontroli, jak Hal w Odysei Kosmicznej 2001 lub Ava w ExMachina.
Pytanie jednak brzmi, jakie warunki musiałyby zostać spełnione, by silna SI w ogóle powstała?
Po pierwsze, musiałaby zyskać autonomiczność podejmowania decyzji, co wydaje się mało prawdopodobne, gdyż to w końcu człowiek projektuje i programuje komputery czy sieci komputerowe. Obawy dotyczą jedynie uczenia maszynowego, podczas którego algorytmy dają niekiedy niespodziewane rezultaty. Inaczej mówiąc, programiści ustalają algorytmy wejściowe, ale w przypadku niektórych sieci neuronowych nie wiadomo dokładnie, w jaki sposób algorytmy dochodzą do takich, a nie innych, rezultatów. Zachodzi więc uzasadniona obawa, że dojdzie do sytuacji, gdy uzyskany rezultat okaże się groźny lub niezgodny z założeniami. Pamiętajmy jednak, że wszelkie prognozy opieramy na obecnie działających algorytmach słabej SI. Być może silna SI będzie, o ile w ogóle się kiedykolwiek pojawi, inaczej zbudowana, biorąc pod uwagę niezwykle wysoki stopień skomplikowania takiego systemu.
Po drugie, system potrzebowałby ogromnej mocy obliczeniowej, by obsługiwać równocześnie tysiące różnorodnych zadań i czynności, będących niemal wiernym odwzorowaniem ludzkich zachowań. Obecnie obsługa jednej czynności, np. gry w szachy w przypadku AlphaZero, przez wąską SI wymaga ogromnej mocy obliczeniowej. Co więcej, trafność podejmowania decyzji przez tego typu systemy nie jest jeszcze doskonała, i być może nigdy nie będzie. Pamiętajmy bowiem, że znacznie łatwiej projektuje się systemy, gdy ilość dostępnych reguł i zasad, jak w przypadku takich gier jak szachy czy go, jest skończona i ściśle ustalona od samego początku. Próbując jednak zastosować algorytmy do odwzorowania zachowania człowieka w realnym świecie, gdzie ilość zmiennych jest nieskończona i zmienna, każdy system SI musi napotkać problemy nie do rozwiązania.
Po trzecie, aby ziściły się czarne scenariusze, silna SI musiałaby mieć świadomość, co wydaje się obecnie bardzo mało prawdopodobne. Wiemy przecież, że świadomość, jakkolwiek by ją definiować, jest cechą wysoko rozwiniętych organizmów żywych, biologicznych. Natomiast silna SI to ma być po prostu bardzo zaawansowany algorytm. Bazujący na materii nieożywionej, jakim są serwery, komputery i inne części składowe sieci komputerowych i internetu. Istnieje co prawda jeszcze jedna opcja, w której SI integruje się bezpośrednio z biologicznym ciałem i umysłem człowieka, ale brzmi to na razie jak zupełne science fiction.
Rozpatrując powyższe trzy warunki, mamy dwa zasadnicze scenariusze wydarzeń.
W pierwszym silna SI pojawia się niepostrzeżenie, zaskakując brać naukową i programistyczną. W drugim scenariuszu silna SI pojawia się jako finalny efekt ogromnego projektu, w który zostaliby zaangażowani specjaliści z wielu dziedzin i prawdopodobnie z wielu krajów.
Co ciekawe, oba scenariusze wydają się bardzo mało prawdopodobne. Nieoczekiwane pojawienie się silnej SI z jakimś rodzajem świadomości jest dużo mniej prawdopodobne niż w przypadku prac w ramach wielkiego projektu międzynarodowego. Jednak kto dałby zgodę i fundusze na tak wielki projekt, skoro istnieje potencjalne zagrożenie egzystencjalne dla całej ludzkości? Gdyby finalnie projekt zakończył się sukcesem, ale po drodze coś poszłoby nie tak, jak pierwotnie zakładano?
Boimy się więc silnej SI, która jeszcze nie powstała i być może nigdy nie powstanie.
Paradoksalnie, powinniśmy mieć jednak większe obawy przed wąską SI niż przed silną.
Dlaczego? Powodów jest co najmniej kilka.
Przykładowo, wąska SI prowadzi do automatyzacji w niemal każdej dziedzinie. A to z kolei prowadzi do redukcji etatów w wielu branżach, które do tej pory dawały zatrudnienie milionom ludzi na całym świecie. Szacuje się, że około 80 % branż związanych jest w jakiś sposób z transportem i z zawodem kierowcy. Pojawienie się aut i flot autonomicznych prowadzić więc będzie do utraty kolejnych miejsc pracy w skali globalnej. Nie zapominajmy jednak, że auta autonomiczne powinny znacznie podnieść bezpieczeństwo na drogach, jednak pod warunkiem, że wejdą do masowego użytku. A tego nie możemy się spodziewać jeszcze bardzo długo, może w perspektywie najbliższych 20-30 lat.
Co równie ważne, wąska SI niepostrzeżenie sprawia, że stajemy się maleńkim ogniwem w globalnej sieci. Na skutek tego, w zamian za dostęp do aplikacji i wielu darmowych usług, w zamian za coraz lepsze usługi personalizacyjne, oddajemy swoją prywatność i wrażliwe dane w ręce gigantów technologicznych, tracąc nad nimi częściowo kontrolę. Jak pokazują afery z zeszłego roku, nie możemy nigdy być pewni, co tak naprawdę dzieje się z naszymi danymi przechowywanymi w chmurach i aplikacjach należących do zewnętrznych firm i korporacji prywatnych.
Kolejny ważny wątek to problem zbyt dużej koncentracji gigantów technologicznych w dziedzinie prac nad sztuczną inteligencją, a w zasadzie nad uczeniem maszynowym i sztucznymi sieciami neuronowymi. Wielkie firmy technologiczne – Amazon, Facebook, Google, Apple – nie tylko już wykorzystują algorytmy sztucznej inteligencji w swoich biznesach, ale też posiadają własne działy pracujące nad ich udoskonalaniem. Posiadają też praktycznie nieograniczone fundusze na finansowanie badań, a jeśli uwzględnimy niedostępne dla mniejszych firm moce obliczeniowe, jakimi dysponują giganci, oraz nieustanny napływ najzdolniejszych inżynierów i programistów do tych firm, to uzyskamy niepokojący obraz branży.
Wniosek? Przyszłość sztucznej inteligencji zależy od kilku gigantów technologicznych.
Od gigantów, które mogą sobie pozwolić na finansowanie prac, a każda innowacja w tej dziedzinie będzie zapewne wykorzystana w ich biznesach i przyczyni się do zwielokrotnienia ich zysków. Paradoksalnie, cała opisana tu sytuacja zmniejsza prawdopodobieństwo pojawienia się silnej SI. Przecież giganci technologiczni dbają przede wszystkim o swój interes. Wątpliwym jest więc, by chcieli zaangażować się w niepewny etycznie, biznesowo i egzystencjalnie projekt silnej SI. Co więcej, każda wąska SI doprowadzona do perfekcji oznacza niebagatelne potencjalne zyski. Co sprawia, że szefowie Amazona czy Google’a będą zawsze woleli inwestować w mniejsze projekty wąskiej sztucznej inteligencji.
W artykule wykorzystano darmową grafikę z serwisu
biznes, nauka, nowe technologie, programowanie
Comments are closed.
One Comment
Swoją drogą to trochę „straszne”, że przyszłość technologii zależy od tego jak wykorzystają ją giganci… a z drugiej strony jest to też zupełnie naturalne, zwłaszcza, że to oni najczęściej różne nowe technologie finansują.
Cóż, pozostaje nam trzymać kciuki za to, żeby za sterami tych gigantów siedzieli ludzie mądrzy i odpowiedzialni.