ПРОБЛЕМЫ И ТЕНДЕНЦИИ ПРАВОВОГО РЕГУЛИРОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

ПРОБЛЕМЫ И ТЕНДЕНЦИИ ПРАВОВОГО РЕГУЛИРОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Авторы публикации

Рубрика

Юриспруденция

Просмотры

11

Журнал

Журнал «Научный лидер» выпуск # 50 (251), Декабрь ‘25

Поделиться

Статья посвящена анализу правового регулирования искусственного интеллекта в условиях его стремительного развития и влияния на ключевые сферы общественной жизни. Основное внимание уделяется проблемам, с которыми сталкивается правовая система: отсутствие единых международных стандартов, сложности в определении правового статуса автономных систем, непрозрачность алгоритмов, угрозы для приватности и дискриминации, а также необходимость распределения ответственности между разработчиками, пользователями и операторами ИИ. Для решения этих вопросов статей предлагаются подходы к формированию новой нормативной базы, которая обеспечила бы баланс между инновациями и защитой общественных интересов.

Стремительное развитие технологий искусственного интеллекта (далее - ИИ) в последние десятилетия трансформировало ключевые сферы общественной жизни — экономику, здравоохранение, транспорт, образование и государственное управление. ИИ перестал быть исключительно объектом научных исследований и стал инструментом, активно влияющим на социальные процессы, права и безопасность граждан. В этих условиях особую актуальность приобретает формирование эффективной системы правового регулирования, способной обеспечить баланс между инновационным развитием и защитой общественных интересов.

Однако правовое регулирование ИИ сталкивается с рядом проблем: отсутствием единых международных стандартов, сложностью определения правового статуса автономных систем, рисками непрозрачности алгоритмов, угрозами дискриминации и нарушений приватности, а также необходимостью распределения ответственности между создателями, пользователями и операторами ИИ-систем. Параллельно наблюдаются важные тенденции — от появления специализированных нормативных актов (например, европейского AI Act) до формирования этических кодексов и внедрения принципов безопасного и ответственного использования ИИ.

Таким образом, изучение проблем и тенденций правового регулирования ИИ представляет собой ключевое направление современной юридической науки, позволяющее выработать подходы к созданию устойчивой, гибкой и адаптивной нормативной базы в условиях технологического прогресса.

Самое заметное и явное в наши дни – это сгенерированные при помощи нейросети композиции, картинки и тексты. Относительно подобного контента возникает вопрос об авторстве данного произведения: является ли создателем картинки человек, который попросил сделать фото? Принадлежит ли авторство ИИ или самому создателю данной программы? [1]. Для решения данного вопроса, обратимся к ст. 1228 Гражданского Кодекса Российской Федерации (далее – ГК РФ): «автором результата интеллектуальной деятельности признается гражданин, творческим трудом которого создан такой результат. Не признаются авторами результата интеллектуальной деятельности граждане, не внесшие личного творческого вклада в создание такого результата, в том числе оказавшие его автору только техническое, консультационное, организационное или материальное содействие или помощь либо только способствовавшие оформлению прав на такой результат или его использованию, а также граждане, осуществлявшие контроль за выполнением соответствующих работ» [2].

Исходя из данной правовой нормы, можно заключить, что пользователь не может считаться автором произведения, созданного с применением программы, поскольку он не осуществлял личного творческого вклада в конечный результат. Его участие ограничивалось выполнением консультативных действий: формулированием запросов, указанием направлений и параметров работы программы. Подобные действия, как следует из законодательных положений, не образуют творческого труда и не дают оснований для приобретения авторских прав.

Логично предположить, что автором такого произведения следует считать разработчика программы — лицо, создавшее ее исходный код, архитектуру и алгоритмическую логику. Именно разработчик обеспечивает те функциональные возможности, которые позволяют системе генерировать результаты, и именно его труд обладает признаками оригинальной интеллектуальной деятельности, необходимыми для признания авторства.

Одной из фундаментальных проблем является отсутствие единого юридически закреплённого определения ИИ. В действующем законодательстве используются различные формулировки, что затрудняет правоприменение и согласование правовых подходов между отраслями. По мнению И. А. Филиповой, административному и гражданскому праву требуется концептуальная ясность, позволяющая унифицировать подходы и исключить противоречия при определении содержания прав и обязанностей участников отношений, связанных с внедрением ИИ [3].

Особое внимание в правовой науке привлекает вопрос распределения ответственности за последствия работы ИИ. Действующие правовые нормы плохо учитывают автономность современных алгоритмов и их способность к самостоятельному принятию решений. В научных исследованиях обсуждаются разные подходы: от строгой ответственности разработчиков и операторов до предложений о создании специальных механизмов компенсации ущерба. При этом отмечается, что нынешние гражданско-правовые конструкции недостаточны для оценки уникальных рисков, связанных с функционированием ИИ, что делает необходимым глубокое обновление законодательства, аналогичное пересмотру правил, регулирующих опасные источники риска.

Широкое использование персональных данных в обучении ИИ создаёт новые вызовы в сфере защиты частной жизни. Автоматизированная обработка больших массивов данных усиливает риски утечки информации. Действующий закон о персональных данных не учитывает специфики машинного обучения, особенно в части минимизации данных и обеспечения объяснимости алгоритмических решений. Отдельные исследователи предлагают дополнить законодательство процедурами оценки воздействия на права и свободы субъектов данных, аналогичными европейской GDPR [4].

Не менее сложным является вопрос интеллектуальной собственности. Создаваемые ИИ тексты, изображения, музыка и иные результаты не вписываются в классическую авторскую модель, основанную на творчестве человека. Остается открытым вопрос о переработке положений об авторстве либо о формировании специальных режимов защиты результатов, полученных с использованием ИИ.

Особую озабоченность вызывает проблема прозрачности и понятности работы систем искусственного интеллекта. В таких сферах, как кредитование, здравоохранение, судебная практика и социальные программы, алгоритмические решения могут иметь прямое влияние на права и интересы граждан. Когда алгоритмы принимают решения без возможности их объяснения, это осложняет защиту прав субъектов и делает затруднительным оспаривание действий в суде [5]. В связи с этим в научной литературе активно обсуждаются подходы к верификации работы ИИ, а также внедрение обязательных процедур контроля в тех областях, где последствия ошибок алгоритмов могут быть особенно критичными.

Для решения вышесказанных проблем можно предложить следующие решения:

В Федеральный закон от 27.07.2006 № 149-ФЗ (ред. от 24.06.2025) «Об информации, информационных технологиях и о защите информации» добавить статью, дающую юридическое определение ИИ — как «комплекс технологических решений, способных самостоятельно принимать решения, обучаться и обрабатывать данные для выполнения задач». Это позволит устранить неопределённость при квалификации правовых отношений с участием ИИ.

Сейчас в ГК РФ существует институт ответственности за вред, причинённый «источником повышенной опасности» (ст. 1079 ГК РФ) — для объектов/деятельностей, которые по своей природе несут повышенный риск.

Следует ввести следующий подпункт (или абзац) к п. 1 ст. 1079 ГК РФ, где «деятельность, создающая повышенную опасность» будет дополнена словосочетанием «использование систем ИИ, предоставляющих возможность принятия решений, влияющих на права, свободы и законные интересы физических или юридических лиц».

Добавить следующие положение в ГК РФ: правообладателем результата, созданного с помощью ИИ, может признаваться либо разработчик системы, либо пользователь, задавший параметры, либо совместное право (если человек внёс творческий вклад). Это решает проблему, что ИИ не является субъектом права, но результаты его работы востребованы как объекты интеллектуальной собственности.

Одним из ключевых направлений в развитии правового поля ИИ становится формирование этических принципов и профессиональных стандартов. Разработка кодексов поведения для разработчиков и операторов, а также установление правил применения алгоритмов, создаёт механизмы саморегулирования и служит базой для последующего законодательного закрепления требований к ИИ.

Необходимость разработки правового регулирования искусственного интеллекта и смежных технологий подчеркивается и отдельными частными инициативами. Так, в 2016 г. основатель компании Grishin Robotics Дмитрий Гришин представил концепцию первого в мире закона о робототехнике, который получил немало внимания как от прессы, так и со стороны экспертного сообщества. Столь ранний шаг в сторону создания специального регулирования отношений, связанных с разработкой и использованием роботов и ИИ, объясняется наблюдавшимся уже в то время ажиотажем по поводу технологий искусственного интеллекта и стремительным ростом инвестиций в соответствующую сферу. Непосредственные разработчики законопроекта В.В. Архипов и В.Б. Наумов указывают, что это был «первый опыт по созданию подобного документа, который разработан для того, чтобы инициировать дискуссию о системном (а не нацеленном на регулирование отдельных аспектов отношений с участием роботов) законодательном регулировании в области робототехники» [6].

Таким образом, правовое регулирование ИИ в России находится в стадии формирования и характеризуется сочетанием нормативных пробелов и активно развивающихся инициатив. Ключевыми проблемами остаются правовой статус ИИ, распределение ответственности, защита персональных данных, вопросы авторского права, прозрачность алгоритмов и отраслевые коллизии. Современные тенденции демонстрируют движение к риско-ориентированному регулированию, развитию экспериментальных режимов и созданию этических стандартов. Для эффективного и безопасного использования ИИ требуется комплексная модернизация законодательства, межотраслевое согласование правовых норм и развитие научно обоснованных моделей ответственности.

Список литературы

  1. Гражданский кодекс Российской Федерации (часть четвертая) от 18 декабря 2006 г. № 231-ФЗ (ред. от 30.01.2024) [Электронный ресурс]. Доступ из СПС «КонсультантПлюс»
  2. Медведев А. И. Правовые аспекты искусственного интеллекта и смежных технологий // Журнал Суда по интеллектуальным правам. 2022. Вып. 4 (38). С. 48–63
  3. Овчинникова Е. А. Сравнительный анализ законодательства в области защиты персональных данных в РФ и Евросоюзе // Интерэкспо Гео-Сибирь. 2022. № 2 том 8. С. 113–117
  4. Чижов И. А., Дрога А. А. Актуальные проблемы правового регулирования искусственного интеллекта // Проблемы правоохранительной деятельности. 2022. № 3. С. 48–52
  5. Филлипова И. А. Правовое регулирование искусственного интеллекта. 3-е издание, переработанное и дополненное. ННГУ. 2025. 321 с.
  6. Эберт Е. С., Эмишян Е. А., Шаблова Е. Г. Правосудие и искусственный интеллект: перспективы и проблемы // Цивилистика: от прошлого к современности. С. 1365–1468
Справка о публикации и препринт статьи
предоставляется сразу после оплаты
Прием материалов
c по
Осталось 2 дня до окончания
Размещение электронной версии
Загрузка материалов в elibrary
Публикация за 24 часа
Узнать подробнее
Акция
Cкидка 20% на размещение статьи, начиная со второй
Бонусная программа
Узнать подробнее