Foto: Unsplash

Kolumbijský soudce použil ChatGPT k rozhodnutí případu

Kolumbijský soudce prvního obvodu Juan Manuel Padilla Garcia tvrdí, že použil chatbot ChatGPT při rozhodování případu ve městě Cartagena. Soudce použití nástroje přiznal v soudním dokumentu z 30. ledna.

„Jde nám o to, abychom co nejvíce omezili čas strávený přípravou rozsudků,“ vysvětlil Garcia v soudním dokumentu. Případ se týkal sporu se zdravotní pojišťovnou o to, zda má být autistickému dítěti hrazena lékařská péče. Podle soudního dokumentu položil Garcia ChatGPT dotazy typu: „Je nezletilý autista osvobozen od placení poplatků za své terapie?“ nebo „Přijala judikatura ústavního soudu v podobných případech příznivá rozhodnutí?“

Kolumbijské zákony sice nezakazují používání umělé inteligence v soudních rozhodnutích, ale systémy jako ChatGPT jsou známé tím, že poskytují neobjektivní, diskriminační nebo fakticky nepravdivé odpovědi. To z toho důvodu, že jazykový model ChatGPT nemá skutečné porozumění textu a pouze syntetizuje věty na základě pravděpodobnosti z milionů příkladů použitých k tréninku systému. Garcia však trvá na tom, že všechny odpovědi chatbota byly důkladně ověřeny.

Ačkoli jde zřejmě o první případ, kdy soudce přiznal použití chatbota, jako je ChatGPT, některé soudy již začaly používat automatizované nástroje při rozhodování o trestu nebo o propuštění obviněných na kauci. Používání těchto systémů u soudů bylo silně kritizováno odborníky na etiku umělé inteligence, kteří poukazují na to, že automatizované rozhodovací systémy mohou posilovat rasistické a sexistické stereotypy a zesilovat již existující formy nerovnosti.

Zdroj: www.pcgamer.com, www.vice.com