
Az OpenAI legújabb modelljei váratlanul többet hallucinálnak, mint elődeik
Meglepő fejlemény látott napvilágot a mesterséges intelligencia fejlesztés világából: az OpenAI legújabb modelljei, köztük az o3 és az o4-mini jóval gyakrabban „hallucinálnak”, mint a korábbi verziók. A vállalat belső tesztjei egyértelműen kimutatták ezt a tendenciát, ám a szakemberek egyelőre tanácstalanok a jelenség okát illetően.
A mesterséges intelligencia területén hallucinációnak nevezzük azt a jelenséget, amikor egy AI rendszer olyan információt közöl magabiztosan, amely valójában téves vagy teljesen kitalált. Ez az egyik legsúlyosabb probléma, amivel a technológia küzd, hiszen alapjaiban ássa alá a felhasználói bizalmat és a gyakorlati alkalmazhatóságot.
Hirdetés:
A visszalépés rejtélye
Az iparág és a felhasználók eddig abban a hitben éltek, hogy minden új modellgeneráció pontosabb és megbízhatóbb lesz az előzőnél. Az OpenAI maga is ezt az ígéretet hangoztatta korábbi bejelentéseiben. A mostani felfedezés ezért különösen zavarba ejtő: a technológiai fejlődés ellenére az újabb modellek gyakrabban közölnek hamis információkat, mint elődeik.
„Ez olyan, mintha egy autógyártó büszkén bejelentené az új modellt, amely gyorsabb és kényelmesebb, de közben kiderül, hogy gyakrabban hibásodik meg a fékrendszere,” jegyzi meg egyik szakértői forrásunk. A hallucináció ugyanis nem apró kellemetlenség, hanem alapvető biztonsági és használhatósági kérdés.
Szakmai és felhasználói dilemmák
A jelenség több szempontból is aggasztó. Egyrészt megkérdőjelezi azt az általános feltételezést, hogy a nagyobb számítási kapacitás és a fejlettebb algoritmusok automatikusan jobb minőségű kimenetelt eredményeznek. Másrészt komoly gyakorlati problémákat vet fel: hogyan támaszkodhatnak vállalkozások és egyéni felhasználók olyan rendszerekre, amelyek megbízhatósága csökken?
A szakemberek szerint a hallucináció visszaszorítása az AI fejlesztés egyik legnagyobb kihívása. Különösen problémás, hogy a nagyobb szövegmennyiségeknél a felhasználók gyakran nem tudják ellenőrizni minden állítás pontosságát, így a téves információk észrevétlenül szivároghatnak be a mindennapi munkába.
Mit tehetnek a felhasználók?
Amíg a fejlesztők meg nem találják a megoldást, a felhasználóknak érdemes fokozott óvatossággal kezelni az AI rendszerek által szolgáltatott információkat. Különösen fontos a kritikus gondolkodás és a kapott válaszok ellenőrzése más, megbízható forrásokból – főleg olyan területeken, ahol a pontosság létfontosságú, mint az orvostudomány, jog vagy pénzügy.
A fejlesztői közösség jelenleg intenzíven dolgozik a probléma megértésén. Az azonban nyugtalanító, hogy az OpenAI sem tudja pontosan, mi okozza a visszalépést. Ez arra utal, hogy a mesterséges intelligencia fejlesztése továbbra is számos ismeretlen tényezőt rejt, és a technológiai előrelépés nem mindig lineáris.
A borító képet FLUX.1-dev képgenerátor készítette az alábbi prompt alapján: A confused data scientist examining AI output on multiple screens with error messages, showing hallucinating AI giving incorrect information, modern office setting, concerned expression.