Czy AGI już tu jest? Nowe tezy badaczy z UCSD

Nauka
Is AGI Here? The New UCSD Claim
Czworo naukowców z UC San Diego przekonuje na łamach „Nature”, że sztuczna inteligencja ogólna jest już obecna w dzisiejszych dużych modelach językowych; eksperci i przedstawiciele branży nie zgadzają się z tą opinią. Niniejsza analiza wyjaśnia pojęcie AGI, przedstawione dowody oraz kontrargumenty, a także tłumaczy, dlaczego ta debata jest obecnie tak istotna.

Sztuczna inteligencja ogólna już tu jest? Dowody i definicje UC San Diego

Aby poprzeć swoje twierdzenie, że AGI już nadeszła, autorzy wskazują na zachowanie systemów: współczesne duże modele językowe (LLM) rutynowo przekraczają konwersacyjne progi w stylu testu Turinga, a w zadaniach benchmarkowych potrafią osiągnąć lub przewyższyć poziom ludzkich ekspertów w wielu dziedzinach. Autorzy przytaczają badania wykazujące, że w ewaluacjach typu Turinga najnowsze modele były oceniane jako ludzkie znacznie częściej, niż wynikałoby to z przypadku. Zauważają oni również, że ludziom zazwyczaj przypisujemy inteligencję ogólną na podstawie podobnych, obserwowalnych zachowań — nie zaglądamy przecież do ludzkich mózgów, aby rozstrzygać o stopniu zrozumienia.

Co istotne, grupa z UCSD odróżnia inteligencję ogólną od superinteligencji oraz od poznania typu ludzkiego. Ich argumentacja nie wymaga, aby maszyna uczyła się w taki sam sposób jak dziecko, posiadała ciało przypominające ludzkie ani by była nieomylna. Zamiast tego stawiają pytanie: czy biorąc pod uwagę standardy, które stosujemy wobec innych umysłów, istnieją przekonujące dowody behawioralne na to, że niektóre maszyny wykazują elastyczne, międzydziedzinowe kompetencje kojarzone z inteligencją ogólną? Ich odpowiedź brzmi: tak, pod pewnymi względami.

Sztuczna inteligencja ogólna już tu jest? Głosy z branży i kontrnarracja

Liderzy branżowi dolewają oliwy do ognia. Niektórzy dyrektorzy — w tym prominentni prezesi platform chmurowych i AI — publicznie oświadczyli, że uważają obecne systemy za takie, które osiągnęły już poziom AGI lub że granica ta stała się obecnie faktycznie przepuszczalna. Twierdzenia te są często skrótem myślowym oznaczającym pewność komercyjną: modele potrafią generować język, wyciągać wnioski z dokumentów, pisać kod i realizować przepływy pracy, gdy są łączone w „agentów”. Dla klientów i inwestorów te możliwości już teraz mają charakter transformacji ekonomicznej.

Jednak nie wszyscy zgadzają się, że parytet behawioralny jest równoznaczny z AGI. Krytycy argumentują, że opisywanie współczesnych modeli LLM jako ogólnie inteligentnych zaciera istotne różnice. Zastrzeżenia techniczne dzielą się na kilka szerokich kategorii: modele, które jedynie statystycznie dopasowują wzorce bez posiadania przyczynowych modeli świata; systemy, które halucynują lub generują pewne siebie, lecz fałszywe wyniki; architektury pozbawione trwałych celów, sprawczości lub ucieleśnionej interakcji; oraz systemy wymagające o rzędy wielkości więcej danych niż ludzie, aby osiągnąć kompetencję. Dla wielu sceptyków różnice te nie są kosmetyczne — ujawniają one fundamentalne luki między obecną AI a odporną, autonomiczną inteligencją ogólną.

Jak badacze definiują AGI — i dlaczego definicje mają znaczenie

Czym dokładnie jest sztuczna inteligencja ogólna? Definicje są różne, ale w poważnych debatach powracają dwie idee. Jedna traktuje AGI jako praktyczną zdolność do wykonywania niemal wszystkich zadań poznawczych, które może wykonać człowiek: języka, matematyki, planowania, percepcji, rozwiązywania problemów oraz myślenia kreatywnego i naukowego. Inna, bardziej formalna linia badań, poszukuje uniwersalnej miary zdolności rozwiązywania problemów w różnych rozkładach zadań (teoretyczny program widoczny w pracach nad „inteligencją uniwersalną”).

Ci, którzy twierdzą, że AGI pozostaje w sferze teorii, kładą nacisk na mechanizm: system, który potrafi elastycznie formułować cele, transferować wiedzę między skrajnie różnymi dziedzinami przy niewielkiej ilości danych, angażować się fizycznie w środowisko i uczyć się na podstawie tej ciągłej interakcji. Zwracają uwagę, że obecnym modelom, mimo ich potęgi, często brakuje niezawodnego rozumowania przyczynowego, wymagają one silnego ludzkiego wsparcia, aby zachowywać się w sposób agentowy, i zawodzą w nieprzewidywalny sposób poza swoją dystrybucją treningową. Zwolennicy odpowiadają, że żądanie od maszyn dowodów, których nigdy nie wymagamy od ludzi — na przykład wglądu w procesy wewnętrzne — jest niekonsekwentne.

W czym dzisiejsza AI dorównuje ludzkim zdolnościom — a w czym nie

  • Dorównuje: płynny język, streszczanie treści, pisanie kodu, wiele zadań standaryzowanych, eksperckie zachowanie w konkretnych dziedzinach po dostrojeniu lub rozszerzeniu o narzędzia.
  • Słabości: niepewne osadzenie w faktach („halucynacje”), krucha generalizacja poza rozkładem, ograniczone autonomiczne planowanie w długiej perspektywie bez nadzoru oraz słaba efektywność uczenia się na podstawie próbek w porównaniu z ludzkimi niemowlętami.
  • Brakujące elementy, których oczekują niektórzy eksperci: trwałe cele i sprawczość, ucieleśnione uczenie sensoryczno-motoryczne, modele przyczynowe wspierające rozumowanie kontrfaktyczne bez ogromnych ilości danych oraz przejrzyste wyjaśnienia mechanistyczne dotyczące tego, dlaczego dane zdolności się pojawiają.

Czy AGI już tu jest, czy tylko w zasięgu ręki?

Jak blisko osiągnięcia sztucznej inteligencji ogólnej są badacze? Środowisko jest podzielone. Niektóre mapy drogowe przewidują, że stopniowe ulepszenia i systemy agentowe — bardziej niezawodne, multimodalne i zintegrowane — doprowadzą nas do solidnej AGI w ciągu dekady. Inni upierają się, że obecne architektury są ewolucyjnie płytkie i wymagane będą nowe przełomy koncepcyjne. Ponieważ obecne systemy już teraz zaskakują swoich projektantów, prognozowanie ram czasowych pozostaje obarczone dużym ryzykiem błędu.

Różnice między AI a AGI w praktyce

Rozróżnienie między AI, której używamy dzisiaj, a hipotetyczną AGI ma charakter zarówno techniczny, jak i filozoficzny. Wąska AI celuje w ograniczonym problemie przy dużej ilości danych; AGI oznacza ogólne rozwiązywanie problemów w różnych domenach z transferem wiedzy, planowaniem i adaptacją. W praktyce oznacza to różnicę w autonomii (zdolność do formułowania i realizowania celów bez ludzkich podpowiedzi), transferowalności (wykorzystanie umiejętności nabytej w jednym kontekście w zupełnie innym) oraz odporności (stabilne działanie w nowych, wrogich lub ubogich w dane środowiskach).

Ryzyka, korzyści i konsekwencje dla polityki

Niezależnie od tego, czy nazwiemy to AGI dziś, czy za pięć lat, pojawienie się systemów, które potrafią konsekwentnie wykonywać szeroki zakres zadań poznawczych, niesie ze sobą skutki społeczne. Korzyści są realne i mierzalne: automatyzacja złożonych analiz, lepsza synteza literatury naukowej, nowe modele automatyzacji przemysłowej, wspomaganie decyzji medycznych i szybsze cykle badawczo-rozwojowe. Ryzyka obejmują dezinformację potęgowaną przez płynne generowanie treści, przemieszczenie gospodarcze, błędy bezpieczeństwa, gdy modelom daje się swobodę działania, oraz pytania o odpowiedzialność, gdy nieprzejrzyste modele podejmują brzemienne w skutkach decyzje.

Ta mieszanka wyjaśnia, dlaczego zarządzanie, przejrzystość, red teaming i regulowane wdrażanie są priorytetami nawet dla sceptyków. Centralnym wyzwaniem dla polityki jest nie tylko techniczna inżynieria bezpieczeństwa, ale także polityka gospodarcza i społeczna mająca na celu ochronę pracowników, konsumentów i instytucji demokratycznych przy jednoczesnym czerpaniu korzyści z nowej technologii.

Co debata mówi nam o nauce i społeczeństwie

Ten epizod — komentarz w Nature, poparcie branży oraz kontrliteratura w postaci sceptycznych książek i felietonów — podkreśla dwa fakty. Po pierwsze, definicje mają znaczenie: stwierdzenie „AGI już tu jest” to w równym stopniu ruch koncepcyjny, co twierdzenie empiryczne. Po drugie, niepewność co do mechanizmu działania jest realna i brzemienna w skutki. Dysponujemy niezwykłymi systemami behawioralnymi, których wewnętrznej logiki nie rozumiemy w pełni; to połączenie potęgi i nieprzejrzystości tłumaczy zarówno ekscytację, jak i niepokój.

Na ten moment najbardziej dającym się obronić stanowiskiem jest to: znajdujemy się w erze przejściowej. Niektóre systemy już osiągają poziom ludzki w wąskich i wielu międzydziedzinowych zadaniach; inne pozostają ograniczone pod względem autonomii, rozumienia przyczynowego i ucieleśnionego uczenia się. To, czy nazwiemy ten stan „AGI”, ma znaczenie dla retoryki, ale reakcja polityczna powinna być taka sama: inwestować w rygorystyczną ewaluację, wymagać przejrzystości i bezpieczeństwa oraz przygotować instytucje na gwałtowne skutki społeczne.

James Lawson

James Lawson

Investigative science and tech reporter focusing on AI, space industry and quantum breakthroughs

University College London (UCL) • United Kingdom

Readers

Readers Questions Answered

Q Czym dokładnie jest ogólna inteligencja sztuczna (AGI)?
A Ogólna inteligencja sztuczna (AGI) to hipotetyczny rodzaj sztucznej inteligencji, który może dorównać ludzkim możliwościom lub je przewyższyć w niemal wszystkich zadaniach poznawczych, w tym w rozumowaniu, planowaniu, uczeniu się i komunikacji w języku naturalnym. W przeciwieństwie do wąskiej sztucznej inteligencji, AGI generalizuje wiedzę, przenosi umiejętności między dziedzinami i rozwiązuje nowe problemy bez konieczności przeprogramowania pod konkretne zadanie. Ma ona na celu replikację wszechstronnej, adaptacyjnej inteligencji ludzkiego umysłu.
Q Czy AGI już istnieje, czy nadal jest tylko teorią?
A AGI jeszcze nie istnieje; pozostaje koncepcją hipotetyczną i teoretyczną, a obecnie żadne systemy nie dorównują ogólnej inteligencji na poziomie ludzkim we wszystkich dziedzinach. Obecna sztuczna inteligencja, taka jak duże modele językowe, świetnie radzi sobie w konkretnych zadaniach, ale brakuje jej prawdziwego zrozumienia, zdrowego rozsądku czy zdolności adaptacji do całkowicie nowych kontekstów bez ponownego szkolenia. Twierdzenia o osiągnięciu AGI, takie jak wszelkie niedawne zapewnienia UCSD, nie są poparte konsensusem w tej dziedzinie.
Q Jak blisko są badacze osiągnięcia ogólnej inteligencji sztucznej?
A Badacze aktywnie dążą do stworzenia AGI poprzez podejścia takie jak sieci neuronowe i uczenie maszynowe, ale pozostaje to odległym celem bez jasnego harmonogramu realizacji. Postępy w wąskiej sztucznej inteligencji, jak np. modele GPT, wykazują imponujące możliwości w ograniczonych obszarach, jednak fundamentalne wyzwania, takie jak rozumowanie abstrakcyjne, przyczynowość i samodoskonalenie, nadal występują. Ekspercki konsensus postrzega AGI jako teorię, której realizacja może nastąpić za dziesięciolecia.
Q Jakie są główne różnice między AI a AGI?
A Wąska sztuczna inteligencja (lub ANI) doskonale radzi sobie z konkretnymi, dobrze zdefiniowanymi zadaniami, takimi jak rozpoznawanie obrazów czy tłumaczenie języków, ale nie potrafi generalizować poza zakres swojego szkolenia. Z kolei AGI wykonuje każde zadanie intelektualne, które potrafi wykonać człowiek, charakteryzując się wszechstronnością, zdolnością adaptacji, samodoskonaleniem i zrozumieniem podobnym do ludzkiego w różnych dziedzinach bez konieczności przeprogramowania. Obecna sztuczna inteligencja opiera się na predefiniowanych parametrach, podczas gdy AGI uczyłaby się samodzielnie i autonomicznie radziła sobie z nowymi problemami.
Q Jakie są potencjalne zagrożenia i korzyści płynące z AGI dla społeczeństwa?
A AGI mogłaby przynieść ogromne korzyści, takie jak przyspieszenie przełomów naukowych, rozwiązywanie złożonych problemów globalnych i zwiększenie produktywności gospodarczej dzięki autonomicznym innowacjom. Jednak zagrożenia obejmują wypieranie miejsc pracy, utratę kontroli przez ludzi, egzystencjalne zagrożenia ze strony niedopasowanych systemów superinteligentnych oraz obawy etyczne dotyczące podejmowania decyzji w kluczowych obszarach. Społeczeństwo musi nadać priorytet badaniom nad bezpieczeństwem, aby złagodzić te niebezpieczeństwa w miarę postępu prac rozwojowych.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!