Искусственный интеллект обманул адвоката из Нью-Йорка. Юрист обратился за помощью к инструментам ChatGPT, но не проверил его ответы на подлинность, пишет ВВС.
Адвокат представлял интересы истца, который подал в суд на авиакомпанию. В деле он перечислил несколько схожих кейсов, чтобы доказать, что подобные иски к компании уже были. Но судья случайно обнаружил, что адвокат ссылается на примеры дел, которых никогда не существовало.
“Шесть из представленных дел кажутся фиктивными судебными решениями с фиктивными цитатами”, — пришёл к выводу суд.
Оказалось, что коллега адвоката, который помогал с ему с иском, решили не искать нужные кейсы самостоятельно. Он попросили чат-бот сделать это за него. И искусственный интеллект просто всё выдумал!
Обманутый чат-ботом юрист пообещал никогда больше не использовать инструментами искусственного интеллекта в работе — не удостоверившись в подлинности результатов выдачи.
ChatGPT запустился в ноябре 2022 года, и его используют миллионы людей. Он может отвечать на вопросы человеческим языком, имитировать различные стили письма. Но с момента запуска этого популярного чат-бота звучали опасения: если мы будем относиться к результатам его поиска недостаточно критично, рискуем окружить себя облаком дезинформации.
К слову, сам ChatGPT, отвечая на запросы пользователей, предупреждает, что информация может быть неточной.
Добро пожаловать в реальность!