Член Комиссии по правовому обеспечению цифровой экономики МО АЮР поделился экспертным мнением по вопросу доверия искусственному интеллекту при подготовке юридических документов

Члены Ассоциации юристов России предостерегли коллег от безоговорочного доверия искусственному интеллекту: зафиксированы случаи лжи "умных" программ при составлении юридических документов.

Накануне появилась информация, что за рубежом судьи начали запрещать использование ChatGPT участниками процесса. Более того, в судах даже стали требовать сертификаты о том, что текст адвоката или прокурора был создан без использования ИИ.

"Попытки без проверки использовать тексты, сгенерированные Chat GPT, в ситуациях, когда эти тексты имеют юридическое значение, связаны с повышенными рисками, - подчеркнул член Комиссии по правовому обеспечению цифровой экономики Московского отделения Ассоциации юристов России Ефим Казанцев. - Очень часто сгенерированный текст хотя и выглядит очень правдоподобным по факту оказывается не соответствующим действительности".

По его словам, это объясняется особенностями работы генеративной модели, на которой основан в том числе и Chat GPT.

"Для этих моделей нет разницы между словами и фразами, соответствующими действительности и не соответствующими ей, - продолжает Ефим Казанцев. - Нейросеть всего лишь выстраивает слова в последовательность, наиболее отвечающую заданному контексту. Получившийся текст может совпадать с реальностью, а может и не совпадать, но в любом случае будет выглядеть очень убедительно, что и подкупает людей, не понимающих принципы работы генеративных моделей".

В ситуации судебного процесса такой "выдуманный" нейросетью текст может сыграть злую шутку с опирающимся на него юристом или ввести в заблуждение участников процесса, заявляет юрист. О чем и свидетельствуют появляющиеся в СМИ сообщения о "выдуманной" Chat GPT судебной практике или вводимых судьями запретах использовать сгенерированные этой нейросетью тексты в суде.

"На мой взгляд, это не означает абсолютной невозможности использования генеративных моделей для подготовки юридически значимых текстов, - полагает Ефим Казанцев. - Конкретно ChatGPT для этих целей мало подходит, т.к. его цель сгенерировать любой текст, релевантный контексту поступившего запроса, а для юридически значимых документов критически важным свойством излагаемой информации является ее соответствие действительности и актуальность. Но если со временем на рынке появятся генеративные модели, способные не только сгенерировать складный текст, но и обеспечить его правдивость и актуальность, то их использование со временем станет стандартом. Конечно, на первых порах любой юридически значимый текст, сгенерированный искусственным интеллектом, необходимо тщательно проверять на предмет соответствия действительности и актуальности использующихся в нем норм".

Подробнее: https://rg.ru/2023/05/31/iuristy-ulichili-iskusstvennyj-intellekt-vo-lzhi-pri-podgotovke-iuridicheskih-dokumentov.html