ChatGPT подобрал ложные доказательства для судебного процесса
В США при рассмотрении иска к авиакомпании адвокат использовал несуществующие факты, выдуманные генеративным искусственным интеллектом.
В деле против колумбийской авиакомпании Avianca приводились шесть похожих случаев судебных процессов, которых на самом деле не происходило, выяснила сторона ответчика.
Защитник пострадавшего от авиаперевозчика пассажира Стивен А. Шварц из фирмы Levidow, Levidow & Oberman при подготовке иска обратился к ChatGPT, который в качестве доказательств привел поддельные судебные решения с вымышленными цитатами и несуществующими ссылками.
После обнаружения фальсификации Стивен Шварц, который занимается юридической практикой в Нью-Йорке в течение трех десятилетий, сказал, что у него не было намерения вводить суд в заблуждение. Адвокат впервые использовал ChatGPT и не знал о том, что приводимые программой факты могут быть ложными.