Téves bírósági ügyekre hivatkozott egy ügyvéd, mert a ChatGPT-t használta a kutatáshoz
Egy több, mint 30 éves ügyvédi múlttal rendelkező New York-i ügyvéd, Steven Schwartz, aki a Levidow, Levidow & Oberman nevű ügyvédi iroda tagja, bajba került, miután kiderült, hogy a perhez tartozó egyik beadványában hamis bírósági ügyekre hivatkozott. Schwartz azt állította, hogy a ChatGPT-t használta jogi kutatásához, de nem ellenőrizte annak hitelességét.
A BBC szerint perben Steven A. Schwartz egy ügyfele nevében egy légitársaságot perelt be személyi sérülés miatt, amit állítása szerint a légitársaság szolgálati kocsijától szenvedett el. Schwartz benyújtott egy iratot, amely több korábbi bírósági ügyre hivatkozott, próbálva bizonyítani a precedens alapján, hogy miért kellene továbbvinni az ügyet.
Hirdetés:
Azonban a légitársaság jogászai azt állították, hogy több, az iratban hivatkozott ügyet nem találtak meg, és ezek között voltak olyanok is, mint a Varghese v. China South Airlines, Martinez v. Delta Airlines, Shaboon v. EgyptAir, Petersen v. Iran Air, Miller v. United Airlines, és az Estate of Durden v. KLM Royal Dutch Airlines. Ezek az ügyek valóban nem léteznek, hanem a ChatGPT által generáltak voltak.
A ChatGPT egy nyelvi modell, amelyet az OpenAI nevű kutatócsoport fejlesztett ki és 2022 novemberében mutatott be. A ChatGPT képes beszélgetni a felhasználóval és válaszolni a kérdéseire, de nem rendelkezik valós információkkal vagy forrásokkal.
Hallucináció
A ChatGPT nem az egyetlen nyelvi modell, amely képes hallucinálni, azaz olyan szöveget generálni, amely helyesnek tűnik, de valójában hamis vagy értelmetlen. A Google AI kutatói 2018-ban mutatták be ezt a fogalmat, és azóta több tanulmány is foglalkozott a nagy nyelvi modellek (LLM) hallucinációs problémájával . A hallucinációk nemcsak a felhasználók megtévesztését okozhatják, hanem akár veszélyes következményekkel is járhatnak bizonyos feladatokban, mint például a jogi kutatás vagy az orvosi diagnózis. Ezért fontos, hogy a nyelvi modellek használatakor ellenőrizzük a generált szövegek minőségét és hitelességét.
Schwartz az esküjében elmondta, hogy korábban soha nem használta a ChatGPT-t jogi kutatási forrásként, ezért „nem tudta, hogy a tartalma hamis lehet” és felelősséget vállalt a chatbot forrásainak nem ellenőrzéséért.
Schwartz most egy szankcióval néz szembe, amelynek meghallgatása június 8-án lesz.
Az esküjében azt is elmondta, hogy „nagyon sajnálja, hogy generatív mesterséges intelligenciát használt a jogi kutatás kiegészítésére és soha többé nem fogja ezt megtenni anélkül, hogy teljes mértékben ellenőrizné annak hitelességét„.
A Levidow, Levidow & Oberman ügyvédi iroda másik ügyvédje, Peter Loduca azt mondta, hogy „nem volt oka kételkedni Schwartz kutatásának őszinteségében” és hogy neki nem volt szerepe a kutatásban.
Schwartz benyújtott néhány képernyőképet is, amelyeken látható, ahogy próbálja megerősíteni a Varghese ügy hitelességét a ChatGPT-vel. A chatbot állította, hogy a Varghese ügy valós és megtalálható.
A ChatGPT használata jogi kutatásra nemcsak etikailag kérdéses, hanem potenciálisan veszélyes is lehet. A chatbot nem rendelkezik megbízható információkkal vagy forrásokkal és néha helytelen vagy értelmetlen válaszokat ad. A felhasználóknak óvatosnak kell lenniük és mindig ellenőrizniük kell a chatbot által generált tartalmak hitelességét.