Приручить и адаптировать
В предиктивной модели комплаенса, ориентированной на предотвращение репутационных, финансовых и иных рисков, использование ИИ теперь считается необходимым условием. Ежегодно объем новых данных в бизнес-процессах возрастает на 40%. Опираясь только на кадровый ресурс компаний, невозможно обрабатывать этот поток информации и отслеживать постоянное обновление регуляторных требований.
Доказано, что ИИ-технологии могут сокращать время комплаенс-проверок на 40–70%, а также повышают точность мониторинга нарушений и внешних угроз. Однако использование ИИ, как и любого другого сложного инструмента, сопряжено с серьезными вызовами, природа и закономерности которых недостаточно изучены. Поэтому, несмотря на то, что около 80% российских компаний планируют цифровую трансформацию и внедрение ИИ-технологий, больше половины предпринимателей не доверяют таким системам цифровой безопасности, опасаются потерь из-за ошибок алгоритмов и прогнозируют сопротивление сотрудников этим технологиям.
Эффективность и этичность использования ИИ в корпоративном управлении, а также его потенциальные риски и действующие угрозы стали главными темами панельной дискуссии «Глобальные стандарты ответственного бизнеса: охрана прав человека, поддержка трудовых династий, цифровизация управления рисками, этичный ИИ» в рамках недавнего XIV Петербургского международного газового форума. Организатором дискуссии выступил СИБУР в партнерстве с Советом по развитию антикоррупционного комплаенса и деловой этики в Республике Татарстан, сопредседателем которого является руководитель практики «Комплаенс и деловая этика» СИБУРа Вероника Киселева.
Есть несколько уровней регулирования использования ИИ в бизнес-практике: международный, национальный и корпоративный. Однако единых законодательных норм, а также стандартов и алгоритмов действий при решении сложных и спорных вопросов не существует ни в России, ни на международном уровне. В этих условиях огромное значение приобретают отраслевые и корпоративные нормы и правила компаний, регулирующие деятельность в цифровой среде и особенно в сфере ИИ.
Пионерами в создании корпоративных систем с использованием ИИ стали крупные компании с высоким уровнем цифровой зрелости: технологические лидеры, организации отраслей связи и фармацевтики, нефтегазовые холдинги, финансовые структуры. Их практический опыт помогает сформулировать принципы деятельности и предложить варианты решений основных проблем использования ИИ в комплаенсе.
Доверяй, но разделяй
Масштабирование практик устойчивого развития и усиление ESG-требований в недалеком будущем приведет к активизации спроса на применение ИИ в энергетике, транспорте и розничной торговле. Уже сейчас во многих отраслях искусственный интеллект становится мощным инструментом для управления ESG-рисками.
Директор Центра устойчивого развития Московской школы управления «Сколково», эксперт программы Skolkovo Executive MBA Елена Дубовицкая представила результаты исследования 2025 года «Ответственный бизнес России». Это исследование на конкретных примерах из практики крупных российских и международных компаний подтверждает эффективность ИИ для решения целого комплекса ESG-задач. Среди них: мониторинг состояния окружающей среды, управление выбросами и энергопотреблением, автоматизация расчета углеродного следа, подбор и развитие персонала, автоматизация ESG-отчетности, выявление рисков и контроль цепочек поставок.
Казалось бы — вот она, возможность делегировать полномочия и снять нагрузку с бизнеса. Но тут возникают риски, например эффект «черного ящика» и отсутствие гарантий непредвзятости. Также остается открытым вопрос об ответственности разработчика за некорректные действия и ошибки ИИ, которые могут возникать в ходе работы. Особенно это актуально в сфере медицины, где цена такой ошибки — жизнь и здоровье людей.
Директор по управлению проектами СИБУРа Михаил Трегубенко говорит, что как инструмент ИИ может быть очень полезен для выявления стандартных шаблонов мошенничества или мониторинга больших объемов данных, но этот инструмент ограничен в знаниях, а когда модель не все знает, она начинает выдумывать и даже «галлюцинировать», а это существенно влияет на объективность анализа и точность прогнозов.
Точку зрения нашего эксперта подтверждает мнение директора по экологическому и социальному консалтингу компании ENSOR Александры Леман. Она напоминает: «Несмотря на то, что ИИ может помочь в оптимизации процессов, ресурсосбережении и так далее, эта технология не является нейтральной; ее создают люди, преследующие определенные цели. Создатели ИИ обучают его на основе собственных представлений об этике и неизвестных наборах больших данных. При этом принятые ИИ решения могут быть непрозрачными или предвзятыми; [в результате] нерепрезентативные данные и ошибочные предпосылки могут привести к нарушению прав человека».
Снизить риски и частично решить проблему недоверия человека к искусственному интеллекту может определение зон ответственности. Идеальная модель взаимодействия «человек — ИИ» предполагает строгое разделение функций: ИИ обрабатывает массив данных и дает рекомендации, а человек принимает решения о дальнейших действиях и несет ответственность за них.
Екатерина Миронова, руководитель направления «Функциональная группа автоматизации, комплаенс контролей и аналитики» департамента деловой этики и комплаенса компании МТС предлагает ограничить использование ИИ следующим набором аналитических и технических функций:
- проверка контрагентов;
- обучение;
- справочно-аналитическая работа;
- мониторинг транзакций;
- автоматизация рутинных задач;
- оценка рисков.
Эти ограничения должны быть зафиксированы в локальной (корпоративной) модели регулирования и во внутренних документах компании.
Пока эксперты склоняются к необходимости ограничить функции ИИ сугубо технической ролью «второго пилота». Далее зоны ответственности могут распределяться примерно так: разработчик отвечает за качество кода, корректность моделей и прозрачность алгоритмов, а бизнес решает, где и зачем применять ИИ. При этом функция комплаенса выступает «этическим фильтром»: проверяет алгоритмы на соответствие стандартам, обеспечивает контроль и аудит, выявляет риски дискриминации и нарушения прав.
Технологии и люди — баланс интересов
В больших коллективах нередко возникают проблемы в формировании лояльного отношения сотрудников к работе с искусственным интеллектом и, как следствие этого, — сложности с обучением и повышением квалификации персонала. Во-первых, не во всех компаниях сотрудники доверяют технологиям на основе ИИ. Многие опасаются, что их массовое внедрение может привести к передаче ИИ части рабочих функций и сокращению штата. Во-вторых, при освоении новых технологий возникает дисбаланс в готовности к переменам среди представителей разных поколений. Первая проблема решается разъяснительной практикой. А вторая — внедрением методик корпоративного обучения по принципу «снизу вверх», где молодые сотрудники делятся цифровыми компетенциями с опытными коллегами.
Обозначенные локальные вопросы — лишь малая часть масштабных проблем развития корпоративной этики и ее совместимости с современными технологиями управления бизнесом. Исполнительный директор Национальной сети Глобального договора ООН в России Наталья Дорпеко отмечает, что в практике российских компаний уже есть примеры создания эффективных человекоцентричных комплаенс-систем, полностью соответствующих ключевым тезисам документов ООН, определяющим права человека.
СИБУР стал одной из первых российских компаний, которые официально подтвердили соответствие своей комплаенс-политики международным стандартам, в партнерстве с вузами внедрили систему обучения сотрудников по направлению «комплаенс», а также сформулировали базовые принципы ведения бизнеса в своем Кодексе корпоративной этики и в Кодексе деловой этики контрагента. В результате в очередной раз СИБУР занимает лидерские позиции в топе российского Антикоррупционного рейтинга с оценкой ААА+ как компания с максимально высоким уровнем противодействия коррупции. Также второй год подряд компания получает специальную награду «За успешное участие группы компаний в Антикоррупционном рейтинге российского бизнеса».
Успехи системы корпоративного управления СИБУРа делают мнение экспертов компании особенно весомым при обсуждении проблем развития современного комплаенса.
«Если на первом этапе развития корпоративное управление в России сосредотачивалось в основном на противодействии коррупции и мошенничеству, то сейчас это гораздо более масштабное понятие, включающее в себя заботу об экологии, социальные практики, управление персоналом и другие направления», — отмечает член правления, управляющий директор «Бизнес-процессы. Общекорпоративные сервисы. Корпоративное управление» СИБУРа Марина Медведева.
«Стандарты этичного и прозрачного ведения бизнеса требуют от нас интеграции ответственности в саму ДНК компании, — развивает тему модератор-руководитель практики «Комплаенс и деловая этика» СИБУРа, сопредседатель Совета по развитию антикоррупционного комплаенса и деловой этики в Республике Татарстан, председатель Комитета по развитию комплаенса и деловой этики Союза «ТПП Томской области» Вероника Киселева. — Необходимо постараться найти ту золотую середину, когда компании создают безопасную среду для использования технологий и развития компетенций сотрудников».
Опыт СИБУРа в корпоративном управлении подтверждает, что современный комплаенс — это технологии и люди. Задача компании состоит в ответственном управлении рисками, связанными с применением цифровых технологий, включая этичный ИИ. При этом фокус остается на инвестициях в развитие человекоцентричности. В такой логике успех внедрения ИИ зависит, в частности, от формирования доверия работников к технологиям, от качества обучения персонала и применения прозрачных стандартов использования ИИ для защиты прав сотрудников.
В СИБУРе ИИ внедряется одновременно с совершенствованием деловой этики и трудового комплаенса. Один из действенных инструментов, позволяющих оценивать эффективность управленческих практик — корпоративная Горячая линия, на которую можно обратиться с сообщениями о фактах недобросовестного или неэтичного поведения, связанных с деятельностью не только компании, но и ее контрагентов. По результатам внутреннего анонимного опроса, около 90% респондентов доверяют Горячей линии и оценивают уровень корпоративной культуры как «очень высокий». Мы придерживаемся политики открытости и доступности информации и активно приобщаем к корпоративным ценностям не только работников, но и членов их семей, а также жителей регионов присутствия — через различные активности, в числе которых игра «Компас комплаенс».
Нормы и кодексы обязывают
Принципы деятельности СИБУРа и других ведущих российских компаний соответствуют ключевым тезисам документов, регламентирующих международные высокотехнологичные бизнес-практики. Это не мистическое совпадение.
Действительно, компании, начавшие свой путь к устойчивому корпоративному управлению более 10 лет назад, опирались на международные стандарты и собственные потребности, так как российская регуляторная база в сфере ИИ еще только зарождалась. Опыт первопроходцев послужил основой для формирования российских базовых документов. Сегодня этические принципы применения ИИ сформулированы и закреплены в Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники, а также в Кодексе этики в сфере ИИ. Соблюдение норм и правил, перечисленных в этом кодексе, должно способствовать выполнению задач Национальной стратегии развития ИИ. Эта стратегия предполагает, что благодаря искусственному интеллекту ВВП увеличится на 11,2 трлн рублей, причем немалую роль в достижении этого результата будут играть крупные компании, научившиеся эффективному взаимодействию с ИИ.
Деятельность компаний в области ИИ курируют Минцифры, Роскомнадзор, Альянс в сфере ИИ и Комиссия по этике в сфере ИИ. Эти структуры стали инициаторами и участниками разработки действующих федеральных документов:
- «Национальная стратегия в области искусственного интеллекта до 2030 года» как базовый рамочный документ была принята в 2019 году и обновлена в 2024 году.
- «Кодекс этики в сфере искусственного интеллекта» был принят в 2021 году. Этот документ определяет основные принципы взаимодействия в сфере ИИ на территории РФ: безопасность, недискриминация, ответственность, качество данных и прозрачность. К этому кодексу присоединились более 900 организаций, в том числе около 80 зарубежных компаний.
- «Концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2030 года» требует уважать автономию и свободу воли человека, устанавливает запрет на причинение вреда и антропоморфизацию, а также вводит классификацию рисков (неприемлемые, высокие, ограниченные, минимальные).