В юриспруденции, как и в ряде других сфер, искусственный интеллект (далее - ИИ) рассматривается как инструмент, способный поддерживать, трансформировать и частично заменять человеческое принятие решений [3]. Уже сегодня судьи все чаще используют алгоритмический анализ при решениях о залоге и условно-досрочном освобождении, от которых ежегодно зависит судьба тысяч людей [3]. ИИ перестал быть технологией будущего - он уже внедряется в судебную практику. В ряде стран такие решения активно тестируются: например, в Эстонии обсуждалась идея использования «судьи-робота» для малых исков, а в Китае развиваются цифровые суды [3][5].
Тем временем исследователи уже рассматривают перспективы внедрения судей-роботов, способных определять вину, меру ответственности и назначать санкции [3]. При этом до конца не ясно, как решения, принимаемые искусственным интеллектом, повлияют на работу судов, юридическую профессию и саму правовую систему в целом [3].
Термин «искусственный интеллект» остается предметом многочисленных споров. Если значение слова «искусственный» относительно очевидно и противопоставляется «естественному», то понятие «интеллект» трактуется значительно сложнее. Его по-разному понимают представители различных наук, из-за чего вокруг него продолжаются дискуссии среди философов, психологов и исследователей. Под интеллектом обычно подразумевают способность к абстрактному и логическому мышлению, выявлению взаимосвязей, решению задач, поиску закономерностей в неструктурированных данных, адаптации к новым условиям и самостоятельному обучению [1]. Как отмечает М. Шерер, в научной литературе по ИИ это понятие чаще всего рассматривается в широком смысле, с опорой на модель человеческого интеллекта [1]. Определение того, в какой мере компьютер способен воспроизводить интеллектуальные функции, а также установление границ между искусственным и человеческим интеллектом напрямую влияет на ключевой вопрос: способен ли судья на основе ИИ выносить обоснованные решения и обеспечивать защиту прав.
Независимо от категории дел, деятельность судов и судей по своей сути сводится к обработке информации: стороны представляют данные, в ходе разбирательства они анализируются и преобразуются, а итогом также становится информация в виде судебного решения [2]. При этом далеко не вся такая обработка является сложной. Лишь сравнительно небольшая часть дел отличается высокой степенью сложности и противоречивости. Важно учитывать, что сам процесс рассмотрения дел, а значит и потребность в применении информационных технологий, существенно различаются в зависимости от конкретной ситуации [2].
В административных и гражданских делах формат рассмотрения во многом определяется двумя факторами: сложностью информации по делу и степенью предсказуемости исхода [2]. Значительная часть типовых дел имеет заранее ожидаемый результат. В подобных ситуациях судебное решение фактически оформляется как документ, формируемый преимущественно в автоматическом режиме на основе представленных данных. По этой причине обработка таких обращений может быть частично или полностью автоматизирована с использованием ИИ, поскольку итог в значительной степени предопределен [2].
В менее типичных ситуациях стороны нередко приходят к мировым соглашениям в рамках примирительных процедур. Для внесудебного урегулирования споров уже используются программные решения, которые анализируют позиции сторон и предлагают оптимальные варианты исхода [2]. Лишь в тех случаях, когда соглашение не достигнуто, разбирательство завершается вынесением судебного решения в его классическом понимании [2].
В сложных делах, где судья или коллегия обязаны вынести итоговое решение, роль информационных технологий сводится прежде всего к использованию продвинутых систем. Они обеспечивают быстрый доступ к юридическим источникам и позволяют работать с цифровыми досье, которые структурируют большие массивы данных и представляют их в удобной и понятной форме [2].
Искусственный интеллект также относится к информационным технологиям, поэтому его применение может существенно различаться в зависимости от задач [2]. Основные направления использования можно выделить следующим образом.
1) Организация данных.
ИИ способен выявлять закономерности в текстах и документах, что особенно полезно при обработке большого массива обращений или в сложных делах с большим объемом информации. Пример -система eDiscovery в США, представляющая собой автоматизированный анализ электронной информации до начала судебного процесса. С помощью машинного обучения ИИ определяет наиболее эффективные алгоритмы для извлечения релевантных данных. Практика показывает, что такой подход быстрее и точнее ручной обработки [2].
2) Консультирование.
ИИ может использоваться для оказания консультативной помощи - например, для людей, которые сталкиваются с правовой проблемой, но не понимают, какие шаги им доступны и как действовать [2].
3) Прогнозирование.
Особый интерес вызывает способность ИИ предсказывать исходы судебных дел. Последовательное прогнозирование решений традиционно затруднено из-за явления правовой неопределенности. Она снижает эффективность правовой системы, мешая достижению таких целей, как предотвращение противоправного поведения и стимулирование экономической активности [1]. По мере усложнения дел -с ростом объема информации и числа факторов - уровень неопределенности только увеличивается. Именно поэтому к ИИ проявляется повышенное внимание: предполагается, что его применение способно частично снизить эту непредсказуемость [1][2].
Для анализа потенциала ИИ в сфере правосудия Р. Ре и А. Солоу-Нидерман выделяют две условные модели судебного процесса: справедливое правосудие и кодифицированное правосудие [3]. Они подчеркивают, что, несмотря на кажущуюся новизну решений, принимаемых с участием ИИ, эта тема напрямую связана с давними дискуссиями о природе и целях права, в частности -о допустимых пределах судебного усмотрения [3].
Справедливое правосудие предполагает не только осмысление ценностей, закрепленных в правовой системе, но и их обоснованное применение с учетом обстоятельств конкретного дела. В отличие от нормотворчества, оно допускает отход от универсальных моделей в пользу учета индивидуальных факторов. Такая дискреция требует легитимации - через детальные обоснования решений, основанные на правовых принципах и фактах дела [3].
Кодифицированное правосудие, напротив, строится на рутинном применении стандартизированных процедур к установленному набору фактов. Со временем такие процедуры могут оформляться в виде системы правил -своего рода «юридического алгоритма», применимого к большому числу дел. Этот подход стремится заранее зафиксировать все значимые переменные, игнорируя иные обстоятельства, выявляемые в процессе разбирательства. Его цель -сократить пространство для усмотрения, снизить риски произвола и предвзятости, а также повысить эффективность, последовательность и прозрачность судебных решений [3].
Таким образом, кодифицированное правосудие акцентирует недостатки дискреции, тогда как справедливое -ее преимущества. На практике любая судебная система сочетает оба подхода, а вопрос баланса между ними остается дискуссионным [3].
По мнению Р. Ре и А. Солоу-Нидерман, использование ИИ в судебной практике усиливает тенденцию к кодифицированному правосудию. Это вызывает опасения, поскольку ИИ создает новые источники данных, стимулы и возможности, смещающие баланс в сторону стандартизации за счет индивидуализированного подхода [3]. В результате меняются не только механизмы принятия решений, но и сами ценностные ориентиры права, что влияет как на содержание судебных актов, так и на процедуры их обжалования [3].
Принятие решений с использованием ИИ формирует новые стимулы для критики дискреции, характерной для справедливого правосудия и человеческого суждения в целом. С учетом растущего объема данных о когнитивных искажениях и возможной предвзятости судей-людей, судьи-роботы могут восприниматься как более нейтральный и прозрачный инструмент [3]. Даже при их ошибках разработчики делают акцент на возможности дальнейшего совершенствования, создавая ожидание достижения более «идеального» судебного решения [3].
При этом связь между ИИ и кодифицированным правосудием не является неизбежной. Использование ИИ может, вопреки ожиданиям, поддерживать и даже усиливать элементы справедливого правосудия. Например, автоматизация части процессов способна освободить время судей для более глубокого анализа и применения дискреции. Кроме того, противопоставление «робот - кодификация» и «человек -справедливость» чрезмерно упрощает реальную картину [3].
Одновременно внедрение ИИ порождает ряд системных проблем, затрагивающих ключевые аспекты человеческого суждения: понимание, адаптацию, доверие и участие [3].
1) Непрозрачность.
Алгоритмы, особенно основанные на машинном обучении, часто работают как «черный ящик». Связь между входными данными и итоговым решением может быть настолько сложной, что ее невозможно интерпретировать, что снижает контролируемость судебных решений [3].
2) Датафикация.
Эффективность ИИ требует больших массивов данных. Однако акцент на доступной информации может искажать правовую оценку. Если исходные данные содержат системные предубеждения, алгоритмы будут воспроизводить и усиливать эти искажения [3].
3) Разочарование в традиционном правосудии.
Развитие ИИ усиливает критику существующих практик. Технологические компании и сторонники автоматизации заинтересованы в демонстрации недостатков человеческого правосудия и продвижении алгоритмических решений. Такая критика часто находит отклик, поскольку проблемы в работе судей-людей действительно существуют, но ранее могли игнорироваться [3].
В итоге ИИ не только меняет инструменты принятия решений, но и влияет на восприятие самого института правосудия, усиливая дискуссию о границах человеческого усмотрения и роли технологий [3].
Даже если решения, принятые с использованием ИИ, также оказываются спорными или ошибочными, их сравнительная привлекательность способна усиливать разочарование в традиционном человеческом правосудии. Это может приводить к снижению доверия к его эффективности, демократической легитимности, авторитету и внутренней ценности. Иными словами, внедрение ИИ в судебную практику высвечивает слабые стороны человеческого правосудия - и этот результат может оказаться для общества неудобным [3].
Со временем судьи-роботы смогут выполнять значительную часть задач, которые сегодня решают юристы: формулировать правовые аргументы, оценивать достоверность показаний и определять характер и строгость санкций [3]. Это приведет к смещению от публичного обсуждения, характерного для справедливого правосудия, к более кодифицированной модели, где ключевую роль играют специалисты в области технологий, а не юристы и общество. При этом ряд теорий процессуального правосудия рассматривает участие общества как самостоятельную ценность, поэтому его сокращение может подорвать легитимность правовой системы [3].
При этом сама технология -лишь часть вопроса. Не менее важно, как именно она применяется на практике. В этом контексте рабочая группа по качеству при Комиссии по эффективности правосудия Совета Европы сформулировала и приняла в 2018 году этические принципы использования ИИ в правосудии [2][4], среди которых:
- уважение основных прав человека;
- равенство сторон;
- защита и безопасность данных;
- прозрачность алгоритмов;
- контроль ИИ со стороны человека [4].
Расширение применения ИИ способно существенно изменить не только практику правосудия, но и институциональные стимулы, распределение власти и ценностные ориентиры как юристов, так и общества. Вероятным результатом станет усиление принципов кодифицированного правосудия, что, в свою очередь, будет стимулировать дальнейшее внедрение ИИ [3].
По мере распространения таких решений их недостатки также будут масштабироваться. Поэтому поиск оптимальной модели требует учитывать не только технологические и правовые аспекты, но и влияние ИИ на само понимание правосудия -как в человеческом, так и в алгоритмическом измерении [2][3].
Список литературы
- 1. Scherer M. Artificial Intelligence and Legal Decision-Making: The Wide Open? // Journal of International Arbitration. 2019. Vol. 36. No. 5. P. 539–573.
- 2. Reiling A. D. (Dory). Courts and Artificial Intelligence // International Journal for Court Administration. 2020. Vol. 11. No. 2. Article 8. DOI: 10.36745/ijca.343.
- 3. Re R. M., Solow-Niederman A. Developing Artificially Intelligent Justice // Stanford Technology Law Review. 2019. Vol. 22. P. 242–289.
- 4. Council of Europe, CEPEJ. European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and their Environment. Adopted on 3–4 December 2018.
- 5. Чурикова А. Ю. Искусственный интеллект в уголовном процессе: возможности и риски использования // Информационное право. 2023. № 1 (78). С. 22–25.


