Войти
Войти как пользователь:
Войти как пользователь
Вы можете войти на сайт, если вы зарегистрированы на одном из этих сервисов:
Поиск
Адвоката надо брать ежовыми рукавицами, ставить в осадное положение, ибо эта интеллигентская сволочь часто паскудничает...
 
В.И. Ульянов - Ленин

Искусственный интеллект вместо судьи: что делать, если приговор пишет нейросеть?

Искусственный интеллект вместо судьи: что делать, если приговор пишет нейросеть?

Искусственный интеллект вместо судьи: что делать, если приговор пишет нейросеть?

Общественная дискуссия о месте искусственного интеллекта в судебной системе стремительно набирает обороты. В центре спора — вопрос о том, допустимо ли машине участвовать в создании документов, от которых зависит человеческая судьба. Вместе с экспертами «Сфера» проанализировала, где проходят разумные пределы применения ИИ, способен ли он поддержать судью без замены его роли и какие риски возникают, когда алгоритмы приближаются к принятию ключевых решений.

Краснодарский краевой суд оставил в силе приговор Ейского городского суда: полицейские Сергей Фролов и Алексей Фалюн признаны виновными в получении взятки.

Установлено, что, обнаружив в одной из местных компаний около 1,3 т нелегального алкоголя, сотрудники правоохранительных органов приняли решение закрыть дело в обмен на вознаграждение в размере 300 тыс. рублей. Оба фигуранта дела обвинены по статье 290 Уголовного кодекса РФ («Получение взятки») и приговорены к семи годам лишения свободы каждый.

Юрист Алексей Аванесян, представляющий интересы одного из осужденных, выразил сомнения по поводу отдельных  формулировок в тексте судебного акта. По мнению адвоката, отдельные выражения выглядят несвойственными официальной судебной речи и имеют признаки искусственности.

Например, в документе употребляется выражение «целая плеяда защитников» применительно к адвокатам. Также упоминается, что обвиняемые «чудесным образом» могли участвовать в инспекциях, несмотря на строгий надзор руководства, а один из сотрудников назван «решительным должностным лицом».

Всего было выделено пять сомнительных отрывков, которые адвокат направил на экспертизу специалисту-лингвисту. Анализ показал наличие признаков машинной генерации, включая нарушения жанровой специфики документа, употребление неподходящих слов и создание громоздких конструкций.

Основываясь на этом, защитник подал жалобу в вышестоящую инстанцию, настаивая, что судебное постановление должно быть подготовлено исключительно человеком, а не с помощью искусственного интеллекта. Апелляционная коллегия, однако, отклонила доводы жалобы, подчеркнув, что принятое решение сформулировано ясно и понятно, а выбор определенного стиля изложения не нарушает требования Уголовно-процессуального кодекса и не ставит под сомнение обоснованность вердикта.

Робот или человек

Каро Жамкочян, председатель коллегии адвокатов «Жамкочян и партнеры», считает, что этот случай стал знаковым.

«Реакция суда второй инстанции, сославшегося на «стилистику», указывает на необходимость четкого разграничения: где заканчивается технический ресурс и начинается правосудие», — отмечает он.

Жамкочян уверен, что использование ИИ при подготовке обвинительных приговоров пока что связано с серьёзными рисками.

«Приговор — это не просто текст, а акт правосудия, в котором судебная оценка доказательств неотделима от юридической квалификации. ИИ, будучи моделью, основанной на статистике и шаблонах, не обладает правосознанием, не может учитывать тонкие нюансы человеческого поведения, испытывать «внутреннее убеждение» судьи и нести за него ответственность. Его использование для генерации итогового решения напрямую подрывает фундаментальные принципы уголовного права и судопроизводства», — считает он.

Чужой опыт

При этом нейросети активно используются в судах по всему миру. Игорь Гуняшов, сооснователь Plevako.ai, отмечает, что ИИ-система «Умный суд» в Китае часто используется при обработке дел, подборе прецедентов и квалификации преступлений.

«В Шанхае и Хайнане уже действуют системы, помогающие судьям принимать более обоснованные решения. Технологии внедрены в более чем 2500 судах и обработали свыше 1,5 млн дел, оставаясь при этом вспомогательным инструментом», — говорит он.

Однако мировая практика знает не только успешные примеры, но и случаи, когда использование нейросетей привело к серьёзным последствиям.

«Один из таких прецедентов — история с Deloitte в Австралии. Правительство потребовало вернуть почти полмиллиона долларов (486 тысяч), потраченных на исследование. Причина? В отчёте оказались ссылки на несуществующие нормативные акты и документы. В итоге выяснилось, что документ был подготовлен с помощью ИИ. То есть проблема не в том, что использовали нейросеть, а в том, что она допустила ошибки — и никто это не проверил», — рассказывает Павел Лебедев, экс-директор по маркетингу «SpyWords».

Известен и случай из США, когда юристы, используя ChatGPT, подали в суд документы со ссылками на несуществующие акты. Суд быстро это обнаружил, и последствия были неприятными: репутационные потери, дисциплинарные меры.

Нейросеть на страже

Алина Вензель, директор по правовым вопросам компании «Бридж Групп», считает неуместным использование ИИ при составлении обвинительных приговоров, поскольку это подрывает доверие к системе правосудия.

«Решения судьи выносят, основываясь на своих внутренних убеждениях, и вот оно подменено ИИ, а значит, может быть лишено принципа независимости», — говорит она.

С ней солидарна и адвокат Оксана Петровская.

«ИИ — это технология, не обладающая правосубъектностью, опытом, морально-этическими качествами и компетенциями, необходимыми для осуществления правосудия (ст. 8, 17 УПК РФ). Только человек, руководствуясь совестью и законом, может решать судьбу обвиняемого», — отмечает она.

Правда, большинство экспертов «Сферы» сходятся во мнении, что все-таки нейросети в судебной системе крайне полезны. Но только в качестве секретаря.

«Машины давно могут заменить секретариат суда, обработку входящих обращений, в том числе и телефонных, составление протоколов судебных заседаний прямо в зале (голос в текст) и много всего другого», — говорит Антон Лебедев, адвокат «Lebedev & barristers».

Оксана Петровская считает, что на ИИ можно переложить всю техническую, рутинную и вспомогательную работу, которая не требует оценки доказательств, формирования внутреннего убеждения и принятия правового решения по существу.

Нейросетям можно перепоручить:

  • стенографирование и протоколирование — приведёт к повышению точности и скорости подготовки протоколов (ст. 259 УПК РФ);
  • составление описи материалов дела, автоматическую регистрацию и контроль сроков подачи документов — поможет упорядочить документооборот и снизить риск процессуальных ошибок, связанных со сроками;
  • автоматическое создание кратких обзоров (саммари) представленных сторонами документов, заключений экспертов и показаний — ускорит изучение материалов дела судьёй;
  • проверку соблюдения формальных требований к документам, контроль ссылок на нормы закона и судебную практику, выявление технических ошибок — позволит минимизировать основания для обжалования, связанных с недочётами оформления.

Потенциальная галлюцинация

Павел Лебедев уверен, что ИИ может серьёзно упростить работу судебной системы.

«Например, современные нейросети, такие как Notebook LM, умеют анализировать до 300 документов. Их можно «скормить» системе, и она на основании этих материалов составит проект текста: выделит важные факты, сделает выводы, сформирует логичную структуру. В России аналог — «Яндекс.Эксперт», хотя пока он менее мощный», — рассказывает он.

Он приводит пример, когда госслужащая с помощью ИИ выполнила месячный объём работы всего за пять часов.

«Это ускорение почти в 30 раз. Речь идёт не только о скорости, но и об экономии ресурсов: времени, внимания, денег», — отмечает он.

Но эксперт предостерегает: за ИИ все надо перепроверять, так как нейросети могут ошибаться.

«По некоторым исследованиям, тот же ChatGPT-4 допускает до 47% ошибок в юридических ответах. Это очень высокий процент. Ни один суд не может работать на системе, где почти каждый второй вывод — потенциальная галлюцинация», — говорит он. 

Ассистент судьи

Алексей Кострыкин, предприниматель, разработчик с опытом разработки более 5 лет, уверен, что нейросеть не сможет заменить судью.

«ИИ не способен создавать «оценочные суждения» в юридическом смысле. Он не оценивает достоверность показаний, не видит нюансов поведения сторон. Поэтому применение ИИ в написании приговоров уместно лишь на уровне редакционной поддержки. Например, для стилистического выравнивания текста или устранения технических описок», — говорит он.

По его мнению, если судья поручит машине написание мотивировочной части, решения начнут терять глубину анализа.

С ним согласен и Игорь Гуняшов, подчёркивающий необходимость индивидуального подхода к обстоятельствам дела.

«Доверие к правосудию строится на понимании того, что решение вынесено человеком. Поэтому ИИ в подготовке судебных документов должен использоваться строго как вспомогательный инструмент: алгоритмы могут создавать черновики, но окончательный текст требует личной редактуры судьи с акцентом на особенности дела и обоснованность решений», — резюмирует он.

Нейросети уже стали мощным инструментом, но их место в суде — строго за кулисами. Они могут ускорять работу, сортировать документы, подсказывать детали и экономить ресурсы, но окончательное решение по-прежнему должно рождаться в голове человека, а не в процессоре. Правосудие держится на ответственности, опыте и внутреннем убеждении — и эти вещи пока не оцифровали.

Короткая ссылка на новость: https://www.lawnow.ru/~C15NT
 


Комментарии пользователей





Следите за новостями

TwitterTwitter Youtube ВКонтакте Facebook Instagram