Сидоренко Элина Леонидовна
гендиректор АНО «Белый Интернет» профессор МГИМО, сопредседатель Рабочей группы по защите прав и свобод человека и гражданина в цифровом пространстве РФ
Что реально думают ученые о законопроекте об искусственном интеллекте
6 мая 2026 107 просмотров 25 марта в МГИМО МИД России прошли V Всероссийские академические слушания «Уголовное право и безопасность цифрового общества: пределы криминализации деяний, связанных с искусственным интеллектом и дипфейками». Их центральным предметом стал проект Федерального закона об ИИ, разработанный Минцифры. Параллельно был проведен соцопрос ученых по 12 тематическим блокам документа. Совокупность данных позволяет выявить реальное, а не официальное отношение российской науки к законопроекту. Вывод, к которому пришли участники слушаний, звучит лаконично: «Сама идея регулирования ИИ наукой поддерживается, а вот сам законопроект нуждается в серьезной доработке». За этой дипломатичной формулировкой скрывается гораздо более острая позиция, которую данные опроса раскрывают в деталях.Итоговая оценка качества текста в опросе распределилась следующим образом: 40% ученых сочли закон качественным актом, требующим лишь точечной доработки, 44% - нуждающимся в серьезном редактировании, 16% прямо заявили, что документ не может считаться качественно подготовленным. Арифметика проста: 60% ученых требуют существенного вмешательства в текст - это не критика отдельных статей, это сомнение в концепции.
Этот вывод подкреплен позицией самого авторитетного правового органа страны. В апреле 2026 года Совет при Президенте по кодификации и совершенствованию гражданского законодательства отклонил законопроект, констатировав, что ряд его положений противоречит Гражданскому кодексу и подрывает основы авторского права. Председатель Совета Павел Крашенинников сформулировал вердикт жестко: если изъять некорректно включенные нормы частного права, от документа останется лишь «пустая законодательная оболочка». Это не академическая критика - это институциональный отказ в доверии.
Терминология: закон, который сам себя не понимает
62% ученых зафиксировали проблемы с базовыми определениями - «ИИ», «модель ИИ», «сервис ИИ». Это не педантизм: термины в законе - это операционная система правоприменения. Когда суд, прокурор или регулятор не может однозначно установить, является ли тот или иной алгоритм «системой ИИ» по смыслу закона, вся регуляторная конструкция рассыпается.
Производители электроники уже предупредили о конкретном практическом риске: определение ИИ в законопроекте настолько широко, что фактически охватывает любые алгоритмы - от банальной автокоррекции текста до голосового помощника. Это означает, что обязательная предустановка «отечественного ИИ-сервиса» на технически сложные товары грозит парализовать весь рынок электроники. Совет по кодификации прямо указал на «недопустимость размытых формулировок», открывающих пространство для злоупотреблений. Наука в опросе говорит о том же числами.
Баланс, которого нет: идеологический вакуум в тексте
Ни один из 12 вопросов не показал столь равномерного распределения мнений, как вопрос о балансе между развитием ИИ и безопасностью: 44% считают баланс соблюденным, 36% видят перекос к ограничениям, 20% - перекос к недостаточной защите граждан. На первый взгляд это противоречие. На самом деле - диагноз: закон не имеет внятной регуляторной философии. Он одновременно воспринимается как чрезмерно разрешительный и чрезмерно запретительный - в зависимости от того, какой раздел читает эксперт.
Это подтверждают и публичные дискуссии. В медиапространстве документ получил характеристику «Русский народный ИИ» - иронически указывая на то, что он пытается совместить несовместимое: технологический суверенитет, конкурентоспособность и безопасность, не обеспечивая ни одного из этих целей системным образом.
Суверенный ИИ: единственный вопрос без ответа
Требование о полном цикле разработки, обучения и эксплуатации ИИ-моделей исключительно силами граждан РФ на российских данных раскололо научное сообщество с математической точностью: ровно 44% на 44%. Это исключительный случай - ни по одному другому вопросу опрос не зафиксировал идеального паритета. Еще 12% считают акцент на суверенности прямо вредным для развития отрасли.
Раскол отражает подлинное цивилизационное противоречие. С одной стороны, суверенизация ИИ есть «движение к состоянию исключения иностранных технологий из критически важных сфер» и является императивом в условиях геополитического противостояния. С другой - бизнес и значительная часть учёных констатируют: в России сейчас нет ни одной модели, которая отвечала бы заявленным критериям суверенности, все существующие разработки используют зарубежные компоненты и открытые датасеты. Закон требует того, чего не существует в природе, - и фиксирует этот разрыв как норму.
Бизнес добавляет экономическое измерение: принятие закона в нынешнем виде приведет к росту затрат компаний на внедрение ИИ, замедлению вывода продуктов на рынок и переносу разработок в другие юрисдикции. Особую тревогу вызывает риск ограничения доступа россиян к передовым технологиям в медицине.
Ответственность: правовая «черная дыра» в эпоху автономных систем
Самый тревожный результат опроса — 70% ученых не могут однозначно установить из текста закона субъекта ответственности за вред, причиненный ИИ-системой. 48% зафиксировали неясности и конфликты в распределении ролей между разработчиком, оператором, владельцем сервиса и пользователем, еще 22% назвали механизм ответственности «неустойчивым и запутанным».
Здесь наука указывает на фундаментальный изъян. Юристы обратили внимание на то, что закон фактически вводит презумпцию вины разработчика - конструкцию, которая в условиях вероятностной природы ИИ-систем лишена юридического смысла. Закон не разграничивает ситуации: алгоритм «ошибся» потому, что был плохо обучен, или потому, что его некорректно применил оператор? Или потому, что пользователь предоставил недостоверные данные? Без ответа на этот вопрос любое правоприменение будет произвольным. Это не просто недостаток юридической техники — это отсутствие понимания природы регулируемого явления.
Права граждан: декларативный щит
72% ученых фиксируют классический разрыв декларативного законодательства: гарантии есть, механизмов нет. Право гражданина на информирование о взаимодействии с ИИ, на отказ и на обжалование автоматизированных решений закреплено - но без процедур, без уполномоченного органа, без санкций за нарушение. Юристы указали, что ряд этих норм противоречит Конституции - в частности, в части, затрагивающей право на неприкосновенность частной жизни и персональные данные.
Это особенно критично в свете того, что закон прямо не распространяется на применение ИИ в сферах обороны, безопасности государства и охраны правопорядка. Иными словами, там, где алгоритмические решения несут наибольшие риски для прав человека, закон молчит.
Интеллектуальная собственность: опасная точечная правка
74% ученых выразили обеспокоенность блоком об ИС, и именно этот раздел получил институциональный отказ наивысшего уровня. Совет по кодификации констатировал: нормы об авторстве ИИ-созданных произведений и об использовании охраняемых материалов для обучения моделей противоречат ГК и дублируют уже существующие нормы. Принципиальная правовая ошибка состоит в методе: вносить нормы гражданского права «точечно» через специальный закон — значит разрушать системность гражданского законодательства. Результат — не урегулирование, а создание новых коллизий.
Технологическая устойчивость: закон, который устареет до вступления в силу
54% ученых видят риск технологического устаревания ключевых положений. Это не абстрактная критика - это хронологический факт. Закон планируется к вступлению в силу 1 сентября 2027 года. За полтора года, разделяющих принятие и вступление в силу, технологии ИИ пройдут несколько поколений развития. Закон, привязанный к конкретным техническим параметрам сегодняшних моделей, к тому моменту будет описывать индустрию, которой уже не существует.
Международное сотрудничество: риторика вместо стратегии
Самый высокий показатель консолидированной критики по всему опросу — 74% ученых назвали блок о международном сотрудничестве декларативным. Это стратегически опасный провал. В 2026 году глобальная архитектура регулирования ИИ находится в стадии активного формирования: EU AI Act заработал в полную силу, Южная Корея приняла первый в мире закон о безопасности ИИ, ведутся переговоры в рамках ООН. Момент для формирования международных позиций — сейчас. Российский законопроект этого окна возможностей не использует: его международный раздел — это набор благих пожеланий без конкретных механизмов, институтов или переговорных позиций.
Реальное отношение науки: что стоит за цифрами
Данные опроса и внешний контекст позволяют сформулировать реальную позицию научного сообщества, которую официальные формулировки обычно смягчают. Ученые не отвергают идею закона - его необходимость признается консенсусно. Но они фиксируют пять системных дефектов, каждый из которых в отдельности был бы достаточен для возврата документа на доработку:
- терминологическая несостоятельность - понятийный аппарат не выдержит правоприменительной нагрузки
- пустая ответственность - закон не отвечает на вопрос «кто виноват?», что делает его неисполнимым
- декларативные права граждан — без механизмов исполнения норма о правах является имитацией защиты
- технологически анахроничный суверенитет — требование создать то, что не существует и не может существовать в изоляции
Наука говорит государству: регулировать ИИ нужно, но этим законом невозможно. Это не оппозиционная критика и не корпоративный лоббизм. Это профессиональное заключение о качестве правового инструмента, которому предстоит управлять одной из самых динамичных технологических трансформаций в истории человечества.
Материал основан на данных социологического опроса ученых (март 2026 г.), материалах V Всероссийских академических слушаний в МГИМО МИД России (25 марта 2026 г.) и открытых экспертных источниках.