AI četbotovi, iako sve napredniji, i dalje nisu savršeni i ponekad mogu davati netačne ili izmišljene odgovore, što se u praksi naziva “halucinacijama”. Razlog za to leži u načinu na koji funkcionišu – veliki jezički modeli ne posjeduju stvarno znanje, već analiziraju obrasce i predviđaju koja riječ najlogičnije slijedi u datom kontekstu.
Problem nastaje u situacijama kada model nema dovoljno jasnih podataka ili obrazaca. Tada, uprkos tome, pokušava generisati smislen odgovor oslanjajući se na statističke procjene, što može rezultirati pogrešnim informacijama.
Kompanija Legal Guardian Digital provela je analizu u kojoj su upoređeni različiti AI četbotovi prema učestalosti grešaka, stabilnosti rada i zadovoljstvu korisnika. Rezultati su pokazali da Google Gemini ima najvišu stopu netačnih odgovora, sa oko 32% slučajeva. Iza njega slijedi ChatGPT sa približno 30%, dok je Perplexity AI najprecizniji, sa oko 13% grešaka.
Relativno dobre rezultate ostvarili su i DeepSeek i Grok, sa stopama grešaka od 14% i 15%.
Kada je riječ o zadovoljstvu korisnika, DeepSeek i ChatGPT dobili su najvišu prosječnu ocjenu 4,7 od maksimalnih 5, dok Perplexity AI ima blago nižu ocjenu od 4,6.
U ukupnom poretku, koji uključuje sve analizirane faktore, Perplexity AI zauzeo je prvo mjesto sa indeksom 85. Slijede Grok i DeepSeek, dok se ChatGPT našao u sredini liste sa skorom 50. Na začelju su Google Gemini sa 41 i Meta AI sa 37 bodova.
Ovi rezultati još jednom potvrđuju da, uprkos velikom napretku, umjetna inteligencija i dalje zahtijeva oprez pri korištenju, posebno kada je riječ o provjeri tačnosti informacija.
































