Участники проекта


Руководитель: 
Исполнители:



Научная проблема, на решение которой направлен проект

Отсутствие в юриспруденции единой концепции установления ответственности за вред, причиненный в результате применения технологий искусственного интеллекта и робототехники. Отсутствие единого комплексного подхода к искусственному интеллекту как субъекту и объекту правовых отношений, отставание законодательства от реальных темпов развития IT и искусственного интеллекта и, как следствие, правовые пробелы при отсутствии достаточной практики правоприменения. Отдельного рассмотрения заслуживает вопрос о применении искусственного интеллекта и роботов в локальных и глобальных вооруженных конфликтах, его последствиях и ответственности (в том числе международно-правовой) за их характер и результаты.


Актуальность проекта

Стремительное развитие информационных технологий ставит перед обществом и государством серьезные вызовы. В Указе Президента РФ от 10.10.2019 № 490 «О развитии искусственного интеллекта в Российской Федерации» отмечается, что к 2030 году в Российской Федерации должна функционировать гибкая система нормативно-правового регулирования в области искусственного интеллекта, в том числе гарантирующая безопасность населения и направленная на стимулирование развития технологий искусственного интеллекта. 

В Распоряжении Правительства РФ от 19 августа 2020 г. № 2129-р «Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники на период до 2024 г.» указывается на отсутствие единых подходов к регулированию технологий искусственного интеллекта и робототехники, что связано с наличием ряда проблем, не имеющих однозначного решения. Среди таких концептуальных проблемных направлений регулирования выделяется, в частности, ответственность за причинение вреда с использованием систем искусственного интеллекта и робототехники. Подчеркивается необходимость дальнейшей проработки механизмов гражданско-правовой, уголовной и административной ответственности в случае причинения вреда системами искусственного интеллекта и робототехники, имеющими высокую степень автономности, при принятии ими решений. 

Системы искусственного интеллекта стремятся имитировать принятие решений, умственную деятельность и выполнение задач, которые обычно требуют человеческой интеллектуальной деятельности. Роботы используются на производстве, в медицине, науке, аэрокосмической и автомобильной промышленности, а также в военных и других областях. В случае причинения вреда, возникает вопрос об установлении виновного субъекта, при этом в действующем законодательстве субъектом уголовной ответственности рассматривается только физическое лицо, что не соответствует современному развитию общественных отношений в сфере информационных технологий, особенно когда речь идет об автономных, самообучающихся системах


Ссылка на проект на сайте РНФ

Подкаст

Научные публикации

Круглый стол «Юридическая ответственность в условиях внедрения технологий искусственного интеллекта»