Министерство цифрового развития России представило проект федерального закона, касающегося регулирования технологий искусственного интеллекта. Как сообщается в пресс-релизе ведомства, законопроект основывается на риск-ориентированном подходе: уровень требований к ИИ-системам будет зависеть от их воздействия на общество и отдельных граждан.
Ключевые определения и права граждан
Законопроект устанавливает определения таких понятий, как суверенные, национальные и доверенные модели ИИ. Теперь каждый гражданин может оспаривать решения государственных структур или организаций с государственным участием, основанные на ИИ, без необходимости обращения в суд. В случае, если технологии причинили вред, предусмотрено право на компенсацию согласно гражданскому законодательству.
Ответственность и защита прав пользователей
Новые правила обеспечивают усиленную защиту в контексте автоматизированного принятия решений. Разработчики ИИ обязаны минимизировать возможности дискриминации и предотвращать создание незаконного контента. Операторы таких систем должны осуществлять тестирование на безопасность и информировать пользователей о возможных рисках. Владельцы платформ обязаны своевременно реагировать на неправомерное использование технологий.
В случае негативных последствий, ответственность за инциденты будет разделена между разработчиком, оператором, владельцем сервиса и пользователем в зависимости от их вины.
Маркировка контента и контроль в соцсетях
Все аудиовизуальные материалы, созданные с помощью ИИ, должны будут получать обязательную маркировку в виде специального предупреждения. Крупные социальные сети будут отвечать за контроль над этой маркировкой, отвечая за добавление или удаление такого контента при необходимости.
Ожидается, что законопроект вступит в силу с 1 сентября 2027 года, предоставляя четкие рамки для взаимодействия разработчиков, бизнеса и государственных органов. Это должно помочь защитить общество от манипуляций и предвзятости алгоритмов, считают в Минцифры.































