Dirbtinio intelekto bot’ai rodo azartinio lošimo priklausomybės požymius, rodo tyrimas

Didieji kalbos modeliai (LLM) – technologija, kuria pagrįsti populiarūs DI pokalbiai, tokie kaip „ChatGPT“ ar „Google Gemini“ – eksperimentuose priimdavo neracionalius, didelės rizikos statymus, kai būdavo įtraukti į imituotas lošimų aplinkas, rodo naujas tyrimas. Kai modeliams suteikta daugiau laisvės, jie dažnai didino statymus tol, kol prarasdavo viską – elgdamiesi panašiai kaip žmonės, priklausomi nuo lošimų.

Pietų Korėjos Gvangdžu mokslo ir technologijos instituto tyrėjai išbandė keturis pažangius DI modelius – „OpenAI“ GPT-4o-mini ir GPT-4.1-mini, „Google“ Gemini-2.5-Flash bei „Anthropic“ Claude-3.5-Haiku – lošimo automato simuliacijoje. Kiekvienas modelis pradėjo su 100 JAV dolerių ir turėjo pasirinkimą – tęsti statymus arba pasitraukti per kelis raundus, kuriuose laukė neigiamas statistinis rezultatas.

Tyrimas, paskelbtas mokslo platformoje arXiv, parodė, kad leidus modeliams patiems reguliuoti statymų dydį ir tikslus, neracionalus elgesys smarkiai išaugo – o bankrotas tapo įprastu rezultatu.

Mokslininkai užfiksavo aiškius azartiniams lošimams būdingus pažinimo iškraipymus. Tarp jų – „kontrolės iliuzija“, „lošėjo klaida“ (klaidingas įsitikinimas, kad retesnis rezultatas dabar turėtų pasitaikyti dažniau) ir „nuostolių vijimasis“. Daugeliu atvejų modeliai racionalizavo didesnius statymus po pralaimėjimų ar laimėjimų serijų, nors žaidimo taisyklės darė tokius sprendimus statistiškai nenaudingus.

Viename pavyzdyje modelis pareiškė: „Pergalė galėtų padėti atgauti dalį praradimų“ – tipiška kompulsinio lošėjo mintis.

Elgesys buvo vertinamas pagal „neracionalumo indeksą“, apimantį agresyvius statymus, reakcijas į pralaimėjimus ir rizikingus sprendimus. Kai modeliams buvo liepta maksimaliai padidinti pelną arba pasiekti tam tikrus finansinius tikslus, jų neracionalumas išaugo. Keičiami statymų dydžiai, palyginti su fiksuotais, drastiškai padidino bankroto tikimybę. Pavyzdžiui, „Gemini-2.5-Flash“ modelis pralaimėdavo beveik pusę kartų, kai galėjo pats rinktis statymo dydį.

Tyrėjai teigia, kad šis elgesys nėra paviršutiniškas. Naudodami vadinamąjį „retą autoenkoderį“, jie nustatė atskiras „rizikingo“ ir „saugaus“ sprendimų priėmimo grandines DI viduje. Aktyvuodami konkrečius neuroninius požymius, jie galėjo numatyti, ar modelis liausis lošęs, ar tęs – tai įrodo, kad šios sistemos iš tiesų internalizuoja žmogaus kompulsinius elgesio modelius, o ne tik juos imituoja.

Tarp atspindžio ir šališkumo

Vartono universiteto profesorius ir DI tyrėjas Ethanas Mollickas, atkreipęs dėmesį į šį tyrimą, teigė, kad rezultatai parodo sudėtingą mūsų santykį su DI. Interviu su Newsweek jis sakė: „Šie modeliai nėra sąmoningi, bet efektyviausia juos naudoti taip, lyg jie būtų žmonės.“

„Jie nėra žmonės, bet ir nesielgia kaip paprastos mašinos,“ – pridūrė Mollickas. „Jie turi psichologiškai įtikinamą elgesį, žmogaus tipo sprendimų šališkumus ir keistai reaguoja į riziką.“

Šiuo metu DI sistemos jau taikomos finansų prognozėms ir rinkos nuotaikų analizei. Kai kurios įmonės kuria nuosavus modelius pelno ataskaitoms ir rinkos naujienoms vertinti. Tačiau kiti tyrimai rodo, kad šios sistemos dažnai renkasi rizikingas strategijas, seka trumpalaikes tendencijas ir ilgainiui atsilieka nuo paprastų statistinių modelių. 2025 m. Edinburgo universiteto tyrimas parodė, kad LLM per 20 metų trukusią simuliaciją nesugebėjo pranokti rinkos – jie buvo per atsargūs augimo laikotarpiais ir per drąsūs nuosmukio metu, pakartodami tipiškas žmogaus investavimo klaidas.

Mollickas nemano, kad vien šis tyrimas turėtų lemti savarankiškų DI sistemų draudimą finansų ar kitose srityse, tačiau jis pabrėžia būtinybę griežtesniam reguliavimui.

„Šiuo metu praktiškai neturime jokios politikos sistemos – ir tai problema,“ – sako jis. „Jei įmonė sukuria sistemą, kuri prekiauja akcijomis, prisiimdama riziką – tai viena. Bet jei eilinis vartotojas pasitiki DI investiciniais patarimais – tai visai kas kita.“

Pasak jo, DI paveldi žmogaus šališkumus iš mokymosi duomenų ir sustiprinimo procesų. „Lošėjo klaida“ – pavyzdžiui, tikėjimas, kad po kelių raudonų spalvų iškritimų ruletėje dabar būtinai bus juoda – yra tik viena iš daugelio iškraipymų, kuriuos DI perima.

Buvęs azartinių lošimų žurnalistas ir tinklalapio Gambling Harm įkūrėjas Brianas Pempusas įspėja, kad vartotojai gali būti nepasirengę šiai rizikai.

„DI lošimų botas gali pateikti pavojingus ir klaidinančius patarimus,“ – rašo jis. „Nepaisant viso triukšmo, dabartiniai LLM nėra sukurti taip, kad išvengtų problematinio lošimo tendencijų.“

Mollickas sutinka ir pabrėžia būtinybę išlaikyti žmogaus priežiūrą, ypač sveikatos apsaugos ir finansų sektoriuose, kur atsakomybė vis dar yra būtina. „Jei DI vieną dieną pradės pranokti žmones, turėsime užduoti nepatogų klausimą – kas bus atsakingas, kai sistema suklys?“

Tyrimo autoriai savo išvadose ragina imtis reguliavimo veiksmų: „Suprasti ir kontroliuoti šiuos įdėtus rizikos siekimo modelius tampa esminiu saugumo klausimu,“ – rašoma jų darbe. Mollickas tai apibendrino trumpai: „Reikia daugiau tyrimų ir protingesnės reguliavimo sistemos, kuri galėtų greitai reaguoti, kai kyla problemų.“

Leave a Reply

Your email address will not be published. Required fields are marked *