Hivatalos panaszt nyújtottak be a ChatGPT ellen az amerikai hatóságoknál
A Mesterséges Intelligencia és Digitális Politika Központja (CAIDP) panaszt nyújtott be az OpenAI ellen az amerikai internetet is szabályozó és felügyelő Szövetségi Kereskedelmi Bizottságnál (FTC). A panasz szerint az OpenAI megsérti az FTC törvényt a GPT-4-hez hasonló nagy nyelvi mesterséges intelligencia modellek kiadásával.
A CAIDP azt állítja, hogy a GPT-4 „elfogult, megtévesztő” és veszélyezteti a magánéletet és a közbiztonságot. A modell állítólag nem felel meg az FTC átláthatósági és igazságossági iránymutatásoknak.
Hirdetés:
A teljes beadványt itt lehet megnézni és letölteni: https://www.caidp.org/app/download/8450269463/CAIDP-FTC-Complaint-OpenAI-GPT-033023.pdf?t=1680174598
A CAIDP azt szeretné, ha az FTC vizsgálatot indítana az OpenAI ellen, és felfüggesztené a nagy nyelvi modellek további kiadását, amíg azok meg nem felelnek az ügynökség iránymutatásainak. A kutatók független betekintést követelnek újabb GPT termékek és szolgáltatások piacra dobása előtt.
Emellett a CAIDP reméli, hogy az FTC létrehoz egy incidensjelentési rendszert és hivatalos szabványokat az AI generátorok számára.
Az FTC nem kívánt nyilatkozni az ügyben.
A CAIDP elnöke, Marc Rotenberg egy nyílt levélben követelt hat hónapos szünetet az AI kutatásban, amit az OpenAI egyik alapítója, Elon Musk is aláírt. A ChatGPT és hasonló modellek kritikusai problémás kimenetekre figyelmeztetnek, mint például pontatlan állítások, gyűlöletbeszéd és elfogultság.
Az FTC esetleges döntése nemcsak az OpenAI-ra, hanem az egész AI iparágra is hatással lehet. Az eset rámutat arra, hogy az AI technológiával kapcsolatos etikai kérdések és a szabályozás jelenlegi hiánya egyre sürgetőbb problémává válik, és szükség van az iparág szereplőinek összefogására a felelős AI kutatás és fejlesztés elősegítése érdekében.
A következő hónapokban további fejlemények várhatóak az ügyben, és a szabályozó hatóságok világszerte egyre inkább foglalkozni fognak az AI technológiák szabályozásának kérdésével.