Taką prognozę na temat przyszłości ogólnej sztucznej inteligencji przedstawił Daniel Kokotajlo, były członek OpenAI.
Przyzwyczailiśmy się do złych nawyków. Internet potrzebował około 13 lat, aby osiągnąć miliard użytkowników. ChatGPT mniej niż dwa lata. Dzisiaj mówimy o tej usłudze sztucznej inteligencji, jakby była częścią naszego codziennego życia od dziesięcioleci, podczas gdy istnieje dopiero od końca 2022 roku, czyli nieco ponad trzy lata. A pojawienie się „AGI” będzie ostatecznym krokiem.
Chiny opracowują oprogramowanie zdolne do wykrywania usterek w samolotach bojowych: rewolucja w projektowaniu lotniczym?
Idea ogólnej sztucznej inteligencji, sztucznej inteligencji zdolnej do wykonywania wszelkich zadań poznawczych, które może wykonać człowiek, przeszła z sfery science fiction do poważnej dyskusji między naukowcami, firmami technologicznymi i politykami. Ta zaawansowana forma sztucznej inteligencji (znana jako AGI) nie tylko wykonywałaby polecenia, ale także uczyłaby się, rozumowała, tworzyła i automatyzowała swój własny rozwój.
W przeciwieństwie do znanych nam obecnie systemów sztucznej inteligencji, takich jak duże modele językowe, które potrafią pisać teksty, tłumaczyć języki lub generować obrazy, AGI nie byłaby ograniczona do konkretnych zadań. Byłaby w stanie uczyć się od ludzi i innych systemów sztucznej inteligencji, rozumować nad nieznanymi problemami, projektować oryginalne rozwiązania, a nawet opracowywać inne systemy sztucznej inteligencji… Krótko mówiąc: mieć cyfrowe dzieci. I je wychowywać.

To rozróżnienie ma kluczowe znaczenie, ponieważ obecne systemy, choć „inteligentne” w konkretnych zadaniach, nie myślą ani nie rozumieją świata tak jak człowiek i są uzależnione od ogromnych zbiorów danych i algorytmów szkolonych przez ludzi (na przykład ChatGPT i jego następcy). Przejście od modeli specjalistycznych do prawdziwie ogólnych wiąże się z głębokimi wyzwaniami technicznymi, które nie zostały jeszcze rozwiązane.
Debata wykracza poza kwestie techniczne: rodzi pytania o przyszłość pracy, bezpieczeństwo globalne, a w skrajnych przypadkach nawet o przetrwanie ludzkości. Kluczowe pytanie brzmi: kiedy sztuczna inteligencja będzie wolna od wpływu człowieka, jak daleko się posunie? I jak… Czy będzie mizoginiczna, rasistowska, elitarna, mściwa…?
Na początku 2025 r. ekspert w dziedzinie sztucznej inteligencji Daniel Kokotajlo, były pracownik OpenAI i wpływowy głos w społeczności zajmującej się bezpieczeństwem sztucznej inteligencji, opublikował (wspólnie ze Scottem Alexandrem, Thomasem Larsenem, Eli Liflandem i Romeo Deanem, również naukowcami specjalizującymi się w wpływie sztucznej inteligencji) dokument zatytułowany AI 2027: „Przewidujemy, że wpływ nadludzkiej sztucznej inteligencji w ciągu następnej dekady będzie ogromny, przewyższając wpływ rewolucji przemysłowej” – czytamy w dokumencie.
Zasadniczo zespół Kokotajlo opracowuje harmonogram, w którym Chiny i Stany Zjednoczone rywalizują (politycznie, technologicznie i w sposób niejawny) o przyszłość sztucznej inteligencji. Aż do 2027 r., kiedy to pojawia się AGI, która wywraca wszystko do góry nogami i zagraża ludzkości. Jednak w ciągu roku wiele się dzieje i w swojej najnowszej aktualizacji Kokotajlo stwierdza, że „sprawy wydają się toczyć nieco wolniej niż przewidywano w scenariuszu AI 2027” i obecnie szacuje, że sztuczna inteligencja z możliwościami autonomicznego programowania pojawi się w 2030 r., a pełna superinteligencja zostanie osiągnięta około 2034 r.
Zmiana ta wynika, jak sam zaznaczył, z uświadomienia sobie, że postępy w dziedzinie sztucznej inteligencji nie są liniowe i podlegają rzeczywistym złożonościom w zakresie wydajności i praktycznego zastosowania, które często umykają uwadze, gdy obserwuje się jedynie tempo postępów w modelach laboratoryjnych lub benchmarkach. Krótko mówiąc, postęp może działać w przypadku mikrochipów, liczby tranzystorów i mocy (znanej jako prawo Moore’a), ale w przypadku sztucznej inteligencji jest to bardziej złożone.
Ewolucja prognoz Kokotajlo ilustruje coś ważnego w tej dziedzinie: nie ma zgody co do tego, kiedy może nadejść AGI. Nawet wśród ekspertów terminy są bardzo zróżnicowane. Na przykład badanie przeprowadzone przez filozofa Nicka Bostroma (Oxford), w ramach którego przeprowadzono wywiady z dziesiątkami ekspertów, sugeruje, że rozwój AGI może nastąpić w okresie między 2040 a 2070 rokiem…

Konsekwencje pojawienia się sztucznej inteligencji ogólnej (kiedy już to nastąpi) wahają się od „pozytywnej strony”, czyli rozwiązania złożonych problemów globalnych (chorób, zmian klimatycznych, spersonalizowanej edukacji), po „negatywną stronę”: inteligencja zdolna do samodoskonalenia mogłaby wymknąć się spod naszej kontroli, nadawać priorytet własnym celom, a nawet wyprzeć ludzi z krytycznych obszarów podejmowania decyzji.
A co na to sama ChatGPT? Po przedstawieniu jej różnych badań, dokumentu AI 2027 i poproszeniu o opinię, jej odpowiedź uspokaja nas. Nie tyle ze względu na prognozę, co na brak oryginalności i jasności: „Moje własne spojrzenie na ogólną sztuczną inteligencję jest spojrzeniem kogoś, kto widzi powiązanie ambicji i ryzyka. AGI, jeśli kiedykolwiek zostanie zbudowana, nie będzie po prostu potężnym narzędziem: będzie odbiciem naszych priorytetów, wartości i ram etycznych. Dzisiejsza nauka o sztucznej inteligencji opiera się na modelach szkolonych na ogromnych zbiorach danych ludzkich i architekturze matematycznej; AGI byłaby rozszerzeniem tej bazy, ale nie repliką ludzkiego umysłu we wszystkich jego niuansach, ponieważ emocje, intuicja, głębokie zrozumienie i świadomość pozostają dziedzinami, które nie zostały w pełni zbadane nawet w neurobiologii”.
W rzeczywistości długoterminowe prognozy można formułować całkowicie swobodnie, ale należy je traktować z ostrożnością. Przyszłość, którą przedstawia Daniel Kokotajlo (czy to w 2027 r., czy w dowolnym momencie w latach 30. XXI wieku), nie powinna być traktowana dosłownie jako data, ale raczej jako okno na przyszłość: wciąż mamy czas, aby uregulować technologię, która, czy nam się to podoba, czy nie, zmieni nasze relacje ze światem. A tego nigdy nie zrobiliśmy, dopóki postęp nie stał się niebezpieczny, ani w przypadku energii jądrowej, genetyki, ani samego internetu. Nadal mamy czas. To najtrafniejsza prognoza Kokotajlo.