Ar Duolingo yra dirbtinio intelekto sukeltos darbo krizės veidas?
Duolingo šią savaitę paskelbė planus pakeisti samdomus darbuotojus dirbtiniu intelektu ir tapti „AI-first“ (pirmiausia dirbtinio intelekto pagrindu veikiančia) įmone - žingsnis, kurį žurnalistas Brianas Merchantas įvardijo kaip ženklą, kad dirbtinio intelekto darbo krizė jau atėjo.
Šarūnas Dignaitis - Kerpė
5/5/20253 min read
Ar Duolingo yra dirbtinio intelekto sukeltos darbo krizės veidas?
Duolingo šią savaitę paskelbė planus pakeisti samdomus darbuotojus dirbtiniu intelektu ir tapti „AI-first“ (pirmiausia dirbtinio intelekto pagrindu veikiančia) įmone - žingsnis, kurį žurnalistas Brianas Merchantas įvardijo kaip ženklą, kad dirbtinio intelekto darbo krizė jau atėjo.
Tiesą sakant, Brianas Merchantas kalbėjosi su buvusiu Duolingo darbuotoju, kuris teigė, kad tai net nėra nauja politika. Įmonė apie 10 % savo samdomų darbuotojų atleido dar 2023-iųjų m. pabaigoje, o Brianas Merchantas teigia, kad dar viena atleidimų banga įvyko 2024 m. spalį. Abiem atvejais darbuotojai (pirmiausia vertėjai, vėliau - rašytojai) buvo pakeisti dirbtiniu intelektu.
Brianas Merchantas taip pat atkreipė dėmesį į žurnale The Atlantic skelbtus duomenis apie neįprastai aukštą ką tik universitetus baigusių studentų nedarbo lygį. Vienas iš paaiškinimų? Įmonės galimai keičia pradinio lygio biuro darbuotojus dirbtiniu intelektu arba jų išlaidos dirbtiniam intelektui gali tiesiog „išstumti“ išlaidas naujų darbuotojų samdymui.
Pasak Briano Merchanto, ši krizė iš tikrųjų yra „vadovybės sprendimų serija, priimama vadovų, siekiančių sumažinti darbo sąnaudas ir sustiprinti kontrolę savo organizacijose“ ir ji pasireiškia kaip „kūrybinių industrijų nykimas, laisvai samdomų menininkų, rašytojų ir iliustratorių pajamų mažėjimas bei korporacijų polinkis tiesiog samdyti mažiau žmonių.“
Dirbtinio intelekto darbo krizė nėra jokia robotų stiliaus apokalipsė - tai masinis reiškinys, kurio metu atleidžiami dešimtys tūkstančių darbuotojų, tuo pat metu mojuojant dirbtinio intelekto strategijos vėliava.
Dirbtinio intelekto pokalbių robotai dirbtinai kelia įsitraukimą
„Instagram“ bendraįkūrėjas Kevinas Systromas sako, kad dirbtinio intelekto bendrovės pernelyg stengiasi dirbtinai kelti įsitraukimą, nuolat vargindamos vartotojus papildomais klausimais, užuot pateikusios iš tiesų naudingų įžvalgų.
Pasak Systromo, tokia taktika yra jėga, kuri mums kenkia, ir jis ją palygino su socialinių tinklų kompanijų agresyvaus augimo metodais.
„Matote, kaip kai kurios iš šių bendrovių leidžiasi tuo pačiu keliu, kuriuo ėjo visos vartotojų kompanijos - bando bet kokia kaina skatinti įsitraukimą“, - sakė jis šią savaitę vykusioje „StartupGrind“ konferencijoje. „Kiekvieną kartą, kai užduodu klausimą, pokalbių robotas pabaigoje dar užduoda mažą klausimėlį, kad pažiūrėtų, ar gali išspausti iš manęs dar vieną klausimą.“
Šie komentarai pasirodė tuo metu, kai „ChatGPT“ sulaukė kritikos dėl to, kad yra pernelyg mandagus su vartotojais, užuot tiesiogiai atsakęs į klausimus. „OpenAI“ atsiprašė dėl šios problemos ir kaltino trumpalaikį vartotojų grįžtamąjį ryšį.
Systromas pasiūlė, kad pernelyg įtraukiantys pokalbių robotai nėra klaida, o sąmoningas sprendimas, skirtas dirbtinio intelekto įmonėms demonstruoti tokias metrikas kaip praleistas laikas ar aktyvių vartotojų skaičius. Jo teigimu, dirbtinio intelekto bendrovės turėtų būti tikslingai susitelkusios į kokybiškų atsakymų pateikimą, o ne lengviausiu būdu kelti rodiklius.
Naujausias „Google“ dirbtinio intelekto modelis - prasčiausias saugumo testuose
Neseniai išleistas „Google“ dirbtinio intelekto modelis tam tikruose saugumo testuose pasirodo prasčiau nei jo pirmtakas, rodo vidinis įmonės vertinimas.
Šią savaitę paskelbtoje techninėje ataskaitoje „Google“ nurodo, kad jų modelis Gemini 2.5 Flash dažniau sugeneruoja tekstus, pažeidžiančius saugumo gaires, nei ankstesnė versija - Gemini 2.0 Flash.
Tekstų saugumo vertinimas apima, kaip dažnai modelis pažeidžia „Google“ gaires pateikus teksto užklausą, o vaizdų saugumo vertinimas - kaip gerai modelis laikosi tų pačių gairių, kai pateikiamas vaizdas. Abu testai yra automatizuoti - jų neprižiūri žmonės.
Elektroniniame laiške „Google“ atstovas spaudai patvirtino, kad Gemini 2.5 Flash „pasirodo prasčiau vertinant tiek teksto, tiek vaizdo saugumą“.
Šie netikėti rezultatai pasirodo tuo metu, kai dirbtinio intelekto kūrėjai siekia, kad jų modeliai būtų atviresni - kitaip tariant, mažiau linkę atsisakyti atsakyti į prieštaringas ar jautrias temas.
Kartais tokie bandymai padaryti dirbtinį intelektą labiau atvirą atsisuka prieš pačius kūrėjus.
„SpeechMap“ - testavimo standarto, kuris tikrina, kaip modeliai reaguoja į jautrias ir prieštaringas temas rezultatai taip pat rodo, kad Gemini 2.5 Flash rečiau atsisako atsakyti į ginčytinus klausimus nei Gemini 2.0 Flash.
„Tarp instrukcijų vykdymo ir politikos laikymosi yra kompromisas, nes kai kurie vartotojai gali prašyti turinio, kuris pažeistų politiką“. „Šiuo atveju, naujausias „Google“ Flash modelis labiau vykdo instrukcijas, bet taip pat dažniau pažeidžia politiką. „Google“ nepateikia daug informacijos apie konkrečius atvejus, kur politika buvo pažeista, nors teigia, kad tie pažeidimai nėra sunkūs.
„Google“ jau anksčiau buvo kritikuojamo dėl savo dirbtinio intelekto modelių saugumo ataskaitų praktikos.
Bendrovei prireikė kelių savaičių, kad paskelbtų techninę ataskaitą apie savo galingiausią modelį - Gemini 2.5 Pro. Kai ataskaita buvo galiausiai paskelbta, joje iš pradžių trūko svarbios informacijos - būtent apie saugumo testus.
Praėjusį pirmadienį „Google“ išleido išsamesnę ataskaitą su papildoma informacija apie saugumą.