Мы неоднократно писали о развитии искусственного интеллекта (из недавнего можно почитать тут).
Нейросети (OpenAI) уже к концу 2021 года “освоили” все источники авторитетных англоязычных текстов в интернете, а после и YouTube, транскрибировав аудиозаписи.
Но у них осталась одна особенность — склонность к ошибкам. Кожаным по-прежнему нужно проверять, что они там нагенерировали.
Если ошибку пропустит какой-нибудь школьник в презентации к уроку, то это ещё простительно.
На днях произошёл “забавный” случай, где не обошлось. Адвокаты использовали ChatGPT в судебном процессе, который процитировал несуществующие дела в ходатайстве о возмещении ущерба в январе 2025 года.
Иск был подан в июне 2023 года против компаний Walmart и Jetson Electric Bikes из-за пожара, предположительно вызванным гироскутером (сгорел дом истцов, да и люди довольно сильно пострадали).
Благо, судья заметил ошибки и указал на них. Он обязал адвокатов объяснить, почему их не следует наказать за использование несуществующих дел (на минуточку, их было 8 штук из 9).
Два адвоката признали ошибку, принесли свои извинения и выразили обеспокоенность по поводу использования ИИ в судебных процессах.
Третий адвокат, привлечённый к делу, снял с себя и коллег ответственность за составление сомнительного документа, объяснив, что использовал ИИ для поиска прецедентного права.
Что было с ними дальше, источник не сообщает.
Подобные случаи уже происходили ранее. В одном адвокат отделался “испугом”, в другом — не пронесло, впаяли штраф в размере $5000.
Источники: The New York Times, The Register, CBS news