Доверяй, но проверяйМы неоднократно писали о развитии искусственного интеллекта …


Доверяй, но проверяй

Мы неоднократно писали о развитии искусственного интеллекта (из недавнего можно почитать тут).

Нейросети (OpenAI) уже к концу 2021 года “освоили” все источники авторитетных англоязычных текстов в интернете, а после и YouTube, транскрибировав аудиозаписи.

Но у них осталась одна особенность — склонность к ошибкам. Кожаным по-прежнему нужно проверять, что они там нагенерировали.

Если ошибку пропустит какой-нибудь школьник в презентации к уроку, то это ещё простительно.

На днях произошёл “забавный” случай, где не обошлось. Адвокаты использовали ChatGPT в судебном процессе, который процитировал несуществующие дела в ходатайстве о возмещении ущерба в январе 2025 года.

Иск был подан в июне 2023 года против компаний Walmart и Jetson Electric Bikes из-за пожара, предположительно вызванным гироскутером (сгорел дом истцов, да и люди довольно сильно пострадали).

Благо, судья заметил ошибки и указал на них. Он обязал адвокатов объяснить, почему их не следует наказать за использование несуществующих дел (на минуточку, их было 8 штук из 9).

Два адвоката признали ошибку, принесли свои извинения и выразили обеспокоенность по поводу использования ИИ в судебных процессах.

Третий адвокат, привлечённый к делу, снял с себя и коллег ответственность за составление сомнительного документа, объяснив, что использовал ИИ для поиска прецедентного права.

Что было с ними дальше, источник не сообщает.

Подобные случаи уже происходили ранее. В одном адвокат отделался “испугом”, в другом — не пронесло, впаяли штраф в размере $5000.

Источники: The New York Times, The Register, CBS news

👍 Капиталистический Ватник. Подписаться


View Source

Капиталистический Ватник
Добавить комментарий