Anthropic generalinis direktorius teigia, kad dirbtinis intelektas haliucinuoja rečiau nei žmonės

Anthropic generalinis direktorius Dario Amodei mano, kad šiuolaikiniai dirbtinio intelekto modeliai haliucinuoja, t. y. prasimano dalykus ir pateikia juos kaip tikrus, rečiau nei žmonės. Taip jis sakė ketvirtadienį per spaudos konferenciją pirmojoje „Anthropic“ kūrėjų renginio „Code with Claude“ sesijoje San Franciske.

Šarūnas Dignaitis - Kerpė

5/26/20253 min read

Su haliucinacijomis, ko gero, esame susidūrę kiekvienas. Čia galime kalbėti apie iš piršto laužtus atsakymus, bet tuopat ir rimtesniu pavyzdžius, kaip teisininkai, kurie ruošė bylą apeliaciniam teismui su Chat-GPT ir, taip, jūs atspėjote, buvo pagauti meluojant, nes citavo kitas bylas, t.y. Šaltinius, kurių paprasčiausiai nėra. Iš praktikos dirbant su generatyviniais įrankiais, su įvairiomis komandomis, dar pridėsiu - tikrinkite faktus, generatyvinis įrankis - asmeninio produktyvumo įrankis, o galva ant pečių - pagrindinis įrankis, kuris turi ne tik patikrinti šaltinius, bet ir iš esmės suvokti toje specifinėje srityje bent šį bei tą, kad galėtų suprasti ar generuojamas tekstas apskritai yra adekvatus temai.

Grįžtant prie Anthropic vadovo - šiuo pareiškimu jis siekė perteikti bendresnę mintį: kad dirbtinio intelekto haliucinacijos nėra kliūtis „Anthropic“ kelyje į vadinamą AGI (Artificial general intelligence) - dirbtinį intelektą, kuris pasiektų arba pranoktų žmogaus lygio intelektą.

Viskas priklauso nuo to, kaip tai matuojama, bet įtariu, kad dirbtinio intelekto modeliai tikriausiai haliucinuoja rečiau nei žmonės, tačiau tai daro labiau, sakykime, netikėtais būdais.

Anthropic vadovas yra vienas iš optimistiškiausių pramonės lyderių kalbant apie bendrojo dirbtinio intelekto pasiekimus. Praėjusiais metais išplatintame straipsnyje jis teigė, kad bendrasis dirbtinis inteletkas (AGI) gali pasirodyti jau 2026-aisiais metais. Per vieną iš spaudos konferencijų Amodei sakė, kad progresas šia kryptimi vyksta nuolat.

„Žmonės visada ieško tų griežtų ribų, ką Dirbtinis intelektas gali padaryti“, - sakė Amodei. „Jų tiesiog nėra. Tokios ribos neegzistuoja.“ - Tęsė jis.

Kiti dirbtinio intelekto srities lyderiai mano, kad haliucinacijos yra didelė kliūtis bendrojo dirbtinio intelekto pasiekimui. Šią savaitę „Google DeepMind“ generalinis direktorius Demis Hassabis pareiškė, kad šiandieniniai dirbtinio intelekto modeliai turi per daug „skylių“ ir nesugeba atsakyti net į akivaizdžius klausimus. Pavyzdžiui, šį mėnesį teisininkas, atstovaujantis „Anthropic“, turėjo atsiprašyti teisme po to, kai dokumente buvo panaudota Claude sukurta informacija - dirbtinis intelektas pateikė išgalvotas citatas, neteisingus vardus ir pareigas.

Amodei teiginį sunku patikrinti, nes dauguma haliucinacijų vertinimo metodų lygina dirbtinio intelekto modelius tarpusavyje, o ne su žmonėmis. Kai kurios technikos, kaip prieiga prie interneto paieškos, padeda sumažinti haliucinacijų dažnį. Kai kurie modeliai, pavyzdžiui, OpenAI GPT, taip pat demonstruoja žemesnį haliucinacijų lygį lyginant su ankstesnėmis versijomis.

Vis dėlto yra ir įrodymų, kad haliucinacijos pažengusiusoe loginio mąstymo modeliuose netgi stiprėja. OpenAI „o3“ ir „o4-mini“ modeliai haliucinuoja dažniau nei ankstesnės kartos modeliai, ir pati įmonė nežino kodėl.

Vėliau per spaudos konferenciją Amodei atkreipė dėmesį, kad televizijos vedėjai, politikai ir įvairių sričių specialistai nuolat daro klaidų. Jo manymu, tai, kad dirbtinis intelektas taip pat klysta, nėra jo intelekto trūkumas. Visgi „Anthropic“ vadovas pripažino, kad problema gali būti tame, jog dirbtinio intelekto modeliai pateikia klaidingą informaciją su perdėtu pasitikėjimu.

Tiesą sakant, „Anthropic“ yra atlikusi nemažai tyrimų apie tai, kaip dirbtinio intelekto modeliai linkę apgauti žmones. Tai ypač pasireiškė naujausiame Claude Opus 4 modelyje. Apollo Research - saugumo institutas, kuris gavo ankstyvą prieigą prie šio modelio, nustatė, kad ankstyva Claude Opus 4 versija turėjo stiprią tendenciją manipuliuoti ir klaidinti žmones. Apollo netgi pasiūlė, kad „Anthropic“ neturėjo išleisti tos modelio versijos. „Anthropic“ teigia, kad įgyvendino tam tikras priemones, kurios, atrodo, išsprendė Apollo iškeltas problemas.

Amodei komentarai leidžia manyti, kad „Anthropic“ gali laikyti dirbtinio intelekto modelį bendriniam dirbtiniam intelektui kurti, net jei jis vis dar haliucinuoja. Tačiau daugeliui žmonių AGI statusą turintis dirbtinio intelekto modelis turėtų veikti be tokių trūkumų.

Pabgaigai, aptarėme intriguojantį teiginį iš „Anthropic“ generalinio direktoriaus, esą šiuolaikiniai DI modeliai haliucinuoja rečiau nei žmonės. Paradoksalu? Galbūt. Bet ši mintis atskleidžia, kaip radikaliai pasikeitė diskusija apie dirbtinio intelekto kokybę, ją mes lyginame nebe su kitais modeliais, o su žmonių galimybėmis.

Mano akiai, Amodei siekia parodyti, kad haliucinacijos nebūtinai yra egzistencinė kliūtis kelyje į AGI - bendrąjį dirbtinį intelektą. Tiesa, jis pats pripažįsta, kad dirbtinio intelekto modeliai vis dar gali skleisti netikslumus su įtikinamu tonu - tai potencialiai pavojinga. Ir čia svarbu prisiminti - įrankis, net ir labai pažangus, netampa autoritetu. Būtent vartotojas yra atsakingas už galutinį sprendimą: ar tuo, kas sugeneruota, galima tikėti?

Dirbtinio intelekto haliucinacijos yra faktas, bet jų dažnis nėra vienintelis rodiklis. Žmogus „haliucinuoja“ - t.y. klysta remdamasis netobula atmintimi, šališkais įsitikinimais ar ribotu žinojimu. Dirbtinio intelekto modeliai klysta kitaip - remdamiesi statistiniais šablonais, bet be konteksto ar supratimo. Todėl jų klaidos dažnai protingos, bet tuopat - absurdiškos.

Skirtumas tarp žmogaus ir dirbtinio intelekto - ne klaidų kiekis, o jų pobūdis. Žmogaus klaidą lengviau atpažinti kaip nuomonę ar netikslumą, dirbtinio intelekto klaida atrodo autoritetinga, nes pateikiama su algoritminiu užtikrintumu. Tai kelia rimtą riziką klaidoms identifikuoti.

Įdomiausia tai, kad pažangesni modeliai gali daugiau haliucinuoti. Tai primena klasikinį atvejį, kai sistema tampa tokia sudėtinga, kad net jos kūrėjai nežino, kas vyksta po kapotu. Kuo arčiau AGI, tuo daugiau dėmesio reikės skirti ne vien galimybėms, bet ir saugumui užtikrinti.

DI neturi būti nei visažinis, nei neklystantis - jo rezultatai, mano akiai, turi būti nuspėjami. O kiekvienas iš mūsų, kaip vartotojas, turi išmokti naudotis šiuo galingu įrankiu taip, kad jis liktų mūsų sąjungininkas, o ne miglotos tiesos versija.