Ашманов Игорь Станиславович

Генеральный директор компании «Ашманов и партнеры», президент компании «Крибрум»

О решении Минцифры нанимать госслужащих с помощью искусственного интеллекта

23 августа 2023 658 просмотров Минцифры РФ планирует провести эксперимент по использованию искусственного интеллекта для отбора сотрудников на госслужбу.

Тут речь идет в первую очередь о цифровизации кадровой работы с госслужащими, и только вскользь, глухо упомянуто «внедрение технологий ИИ». Возможно, это просто дежурная фраза: сейчас ведь нельзя ни про один проект забыть сказать, что обязательно там будет ИИ, а как же. Иначе это вообще не круто.
 
Но если действительно ИИ передадут какие-то полномочия решать что-то при найме госслужащего, то тут можно навскидку высказать следующие соображения:
 
1) Это, кажется, такой удобный способ снять ответственность с начальства за последующие ошибки, головотяпство, преступления, взятки нанятого госслужащего. Не, ну а чо – ИИ же нанимал, не мы.
 
2) Проблема с нашими госслужащими вовсе не в найме, а в наблюдаемом всей страной практическом отсутствии ответственности за ошибки, безделье и причиняемый вред.

У нас многие чиновники в точности, как номенклатура в позднем СССР, десятками лет навигируют, левитируют в верхних слоях, независимо от результатов. Что бы он ни развалил, ни раскрал, ни загубил, даже если в конце концов стало невозможно скрывать и терпеть некомпетентность и зловредность, и его уволили – можно быть уверенным, что вскоре всплывет на новой должности, да еще с повышением.

Для ясности повторю уже многократно сказанное: например, кто ответил за сотни миллиардов рублей, украденных за последние 3-4 года у наших граждан украинскими мошенниками из-за утечек персональных данных в крупных цифровых платформах и госорганах? Кажется, никто.
 
Но вот реальную оценку эффективности работы госчиновника с помощью ИИ (я не говорю, что это нужно делать) мы вряд ли увидим, и вот почему.
 
3) Не всякий ИИ полезен в государственных делах, знаете ли. Стоит посмотреть на опыт Франции. Там некие доброхоты с техническими компетенциями взяли базу судебных решений и с помощью ИИ (анализа больших данных) выявили склонности судей принимать те или иные решения в делах по разным тематикам и статьям. Это выглядело настолько неприглядно (такие выявились склонности и перекосы), что во Франции приняли закон, запрещающий под страхом уголовного преследования анализировать судебные решения:
«…в марте 2019 года Франция сделала спорный шаг и стала первой страной в мире, которая прямо запретила исследования индивидуального поведения судей (individual judicial behaviour). В настоящее время уголовное преступление заключается в "оценке, анализе, сравнении или прогнозировании" поведения отдельных судей. Максимальное наказание составляет пять лет лишения свободы…».
Вот здесь можно посмотреть разбор этого решения.
 
Этот пример показывает, что прозрачность и ответственность – довольно неприятные штуки. И дело тут, конечно, вообще не в ИИ.
 
Это я к чему? К тому, что нужно не чиновников нанимать с помощью модного ИИ, а делать то, что делали всегда эффективные руководители: увольнять тех, кто не дает результат, и вознаграждать тех, кто дает. Когда-то – не так уж давно – эта простая управленческая гигиена позволила нам выйти в космос и сделать атомную бомбу, восстановить страну и создать великую культуру.