• A
  • A
  • A
  • АБB
  • АБB
  • АБB
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта

Факультет права НИУ ВШЭ

Эксперты Института права цифровой среды: Искусственный интеллект вскоре может стать участником принятия юридически значимых решений

Кто несет ответственность — создатель или владелец, какой правовой статус у ИИ и каким будет наше будущее? Ответы на вопросы в докладе представителей факультета права

Эксперты Института права цифровой среды: Искусственный интеллект вскоре может стать участником принятия юридически значимых решений

© pixabay

Эксперты Института права цифровой среды НИУ ВШЭ представили доклад «Правовые аспекты использования искусственного интеллекта: актуальные проблемы и возможные решения», в котором рассказали о том, кто отвечает за действия искусственного интеллекта и как государство может помочь в развитии проектов в сфере ИИ. 

В скором будущем весь мир начнет признавать правовыми те или иные «действия» системы искусственного интеллекта и последствия. По прогнозам ученых, к 2075 году мыслительные процессы роботов уже нельзя будет отличить от процессов мышления человека. Это связано с быстрым развитием технологий ИИ, которое выходит на первый план вопрос о правовом статусе использования систем ИИ, обладающих разной степенью автономности. 

Эксперты отмечают, что «принятие юридически значимых решений может обладать характером властного воздействия, то есть, по сути, система ИИ фактически будет наделена властью, в этом случае должен быть определенно решен вопрос о порядке ответственности в случае такого автоматизированного принятия решения».

Повсеместное использование систем ИИ заостряет внимание на одной из важнейших проблем: как достичь баланса между экономическими интересами и интересами общества? 

Авторы доклада подчеркивают, что сейчас в России этические проблемы развития и использования цифровых технологий в РФ не являются действительно важной частью повестки не только государственных органов власти и коммерческих структур, но и общества в целом. 

Когда мы говорим об ответственности искусственного интеллекта, то в первую очередь, необходимо определить меры на вред, который ИИ может причинить или причиняет. И этим должно заняться государство.

По мнению экспертов ВШЭ, в случае признания ИИ только объектом права, к чему пока что склоняются в мире, ответственность должна быть распределена по разным этапам жизненного цикла ИИ (этап разработки, этап эксплуатации, этап утилизации). «При этом ответственность ИИ сводится не к карательно-воспитательным мерам, а к установлению действенного механизма управления рисками», — поясняют они.

Если ответственность возлагается на разработчиков, то хотя бы на начальных этапах необходимо предусмотреть сбалансированную систему иммунитетов для них, включив обязательное страхование ответственности и регистрацию систем ИИ. 

Если же искусственный интеллект будет признан субъектом права, то тогда возможен режим совмещенной ответственности: субсидиарную ответственность могут нести и создатель ИИ, и его владелец или иной субъект. 

Также авторы доклада рассказали о способах устранения барьеров для инвестпроектов в сфере искусственного интеллекта и робототехники. Они предложили создать экспериментальные правовые режимы для разработки новых технологий и специальные правовые режимы для привлечения инвестиций, предусматривающие налоговые льготы.

Подробнее: журнал «Профиль»