Мягкий закон об ИИ, жёсткие антифрод‑базы ЦБ и новая нормальность в рознице и идентификации.
Правительство смягчает рамочный закон об искусственном интеллекте и снимает часть ограничений с данных, но параллельно Банк России углубляет контроль над долгами домохозяйств и достраивает инфраструктуру антифрода: базы мошеннических операций, будущий реестр карт и учёт рассрочек как полноценного кредита.
Рынок тем временем перестраивает фронт‑офис: ИИ‑ассистенты становятся витриной для покупок, а глобальные сервисы знакомятся с токенами «я — человек» на базе биометрии, что поднимает планку требований к цифровому доверию и ИИ‑безопасности.
Закон об ИИ: послабления для данных, усиление ответственности в приложениях
К концу апреля правительство заметно смягчило рамочный законопроект об ИИ: из документа ушли наиболее жёсткие требования к происхождению данных для обучения и к «суверенным моделям».
Из публичных материалов следует, что разработчикам позволят использовать «любые доступные данные» для обучения, а ключевым объектом регулирования становится не датасет, а оператор ИИ и его ответственность за применение технологии.
По сути, государство отказывается от попытки заранее детально описать весь путь данных и моделей и переносит центр тяжести в прикладной слой: где ИИ включён в массовые сервисы, влияет на решения, работает с деньгами и персональными данными.
Для финансового сектора это снимает часть рисков вокруг уже обученных моделей, но не отменяет того, что после мягкого «общего» закона появятся жёсткие отраслевые акты, уточнения ЦБ по ИИ.
ЦБ: рассрочки, ключевая ставка и антифрод‑базы
Банк России констатировал, что в 2025 году россияне приобрели в рассрочку товаров на 500 млрд рублей, почти вдвое больше, чем годом ранее, по данным четырёх крупнейших банков и двух маркетплейсов.
Регулятор всё прямее называет рассрочку разновидностью кредита и увязывает её с долговой нагрузкой домохозяйств, ожидая, что данные по рассрочкам будут попадать в бюро кредитных историй и учитываться при скоринге наравне с классическими займами.
Законодательные поправки уже закрепили передачу информации по рассрочкам в БКИ и ограничили срок беспроцентных схем шестью месяцами, с последующим ужесточением. Это означает, что модели оценки риска и платёжеспособности должны перестроиться так, чтобы видеть полную нагрузку клиента по рассрочкам, включая покупки на маркетплейсах и в партнёрских сервисах, а не относиться к ним как к периферийным сделкам.
ИИ‑шопинг: Алиса становится витриной
Розница в это время экспериментирует с тем, как ИИ может стать новым каналом продаж. «Яндекс» сообщил, что к протоколу Yandex Commerce Protocol (YCP), который позволяет продавать товары через ИИ‑ответы «Алисы AI», подано более 1,6 тыс. заявок от интернет‑магазинов.
Протокол превращает диалог с ассистентом в витрину: ИИ подбирает товар, сравнивает предложения и ведёт пользователя до оплаты в рамках одного интерфейса, без перехода на классические сайты.
В мировой повестке это вписывается в тренд агентской коммерции (agentic commerce): Google, Microsoft и OpenAI тоже переосмысливают онлайн‑покупки через ИИ‑агентов, а в 2025 году, по оценке аналитиков, уже наблюдался «взрывной рост» чат‑ботов и ИИ‑агентов в e‑commerce.
Для банков и риск-менеджеров это означает ни много нимало изменение самого контура данных и точки контроля. Вместо привычной связки «клиент — сайт» формируется цепочка «клиент — ИИ-агент — платёж», в которой значительная часть логики выбора, проверки и оформления переносится на сторону ассистента и лежащих в его основе моделей.
Отсюда набор новых вопросов и вызовов:
- как обеспечить прозрачность условий и статуса продавца в интерфейсе, где пользователь фактически общается не с магазином, а с ассистентом;
- как обучить антифрод‑системы отличать нормальное поведение в ИИ‑канале от мошеннических сценариев;
- какие KYC‑процедуры нужны для тысяч мерчантов, подключённых к единому ИИ‑каналу, и как закрепить ответственность за офферы и сервис в договорах?
Цифровое доверие: от логина и пароля к токенам человечности
На рынке цифровой идентификации тем временем появился новый кейс: Tinder планирует внедрить верификацию пользователей с использованием технологии World Сэма Альтмана. Система World ID использует биометрический скан радужки для выдачи пользователю криптографического токена «я — человек, а не бот», который затем можно предъявлять в разных сервисах без раскрытия полной идентичности.
Для сервисов знакомств такая проверка кажется действенным способом борьбы с фейковыми профилями и схемами социальной инженерии. Но значение технологии шире: токен, подтверждающий, что за аккаунтом стоит реальный человек, может стать базовым элементом доверия для платёжных сервисов, маркетплейсов, игровых платформ и госуслуг.
Здесь, однако, сразу возникает сложный набор регуляторных и технических требований: режимы обработки биометрии и ПДн, требования к локализации, право на отзыв согласия, а также риски атак на хранилища биометрии и самих токенов.
Для игроков российского рынка удалённой идентификации и KYC/AML это скорее ранний ориентир. Даже если российские регуляторы не станут напрямую полагаться на такие внешние токены, вопрос их учёта в собственных риск‑моделях у банков и платформ всё равно появится. «Гарантии человечности», выданные сторонним провайдером, не отменяют ни KYC/AML‑процедур, ни собственных проверок банка — это всего лишь ещё один сигнал с не до конца понятным профилем риска и юридическим статусом. И главное: в случае ошибки или инцидента ссылаться на внешний токен не получится — перед ЦБ и клиентом отвечает не провайдер «человечности», а конкретный банк или платформа, которые решили встроить его в свой контур доверия.
ИИ‑безопасность и подрядчики: ФСТЭК‑117 и атаки на модели
Приказ ФСТЭК №117 обновил требования к защите информации в государственных информационных системах и у всех подрядчиков, имеющих к ним доступ, включая разработчиков, интеграторов и провайдеров ИИ‑сервисов.
Эксперты подчёркивают, что теперь нарушения требований по защите ПДн чреваты не только административными, но и оборотными штрафами — начисляемыми как процент от выручки, что резко повышает цену ошибок в архитектуре ИБ и выборе подрядчиков.
На этом фоне исследование по безопасности ИИ в финтехе Ассоциации ФинТех, опубликованное в декабре прошлого года показывает: 81% опрошенных компаний считают ML и большие языковые модели ядром своих продуктов, 74% фокусируются на защите данных и тестировании моделей, около 60% говорят о комплексных мерах по безопасности ИИ‑систем на всём жизненном цикле.
Параллельно участники профильных мероприятий ожидают, что в 2026 году 5–10% атак на банковскую инфраструктуру будут нацелены именно на ИИ‑системы. Атаки, в основном, будут направлены на отравление данных (data poisoning), манипуляцию промптами и уязвимости в интеграциях внешних моделей.
Вместе с антифрод‑инициативами ЦБ это формирует понятный тренд: ИИ, данные и подрядчики по ИИ окончательно переходят из зоны «инновационных проектов» в зону регуляторного и финансового риска.
Что это значит для компаний
Инвентаризация ИИ‑сценариев и данных.
Перепишите карту процессов так, чтобы явно видеть, где ИИ уже влияет на принятие решений: скоринг, антифрод, KYC/AML, дистанционный онбординг, ассистенты, рекомендательные системы. Для каждого сценария зафиксируйте источники данных, тип модели, ответственных и связь с требованиями ЦБ, ФСТЭК и РКН. Без этого диалог с регулятором будет опираться на ощущения, а не на факты.
Пересборка скоринга с учётом рассрочек.
Проведите ревизию того, как ваши скоринговые модели учитывают рассрочки и BNPL‑продукты. Данные операторов рассрочек и маркетплейсов должны собираться в единый риск‑профиль клиента и не выпадать из общей картины долговой нагрузки. Смоделируйте, как изменятся вероятность дефолта клиентов и порог одобрения по скорингу после массового появления рассрочек в БКИ и роста их доли в портфеле. Заранее подготовьте аргументацию для регулятора и кредитных комитетов с акцентом на риски, доходность и доступность кредитования.
Обновление антифрод‑политик под базы ЦБ и Антифрод 2.0.
Зафиксируйте в политике, как именно вы работаете с фрод‑флагами и обращениями клиентов с учётом ужесточения процедур исключения записей из базы мошеннических операций и планов по созданию единого реестра банковских карт в рамках «Антифрода 2.0». Разделите процессы для кейсов «ошибка модели» и «осознанное мошенничество», пропишите сроки и порядок рассмотрения заявлений, формат эскалации и коммуникации с клиентами и ЦБ — это снизит регуляторную и репутационную нагрузку.
KYC для торговых партнёров и сервисов в ИИ‑каналах.
Если вы выводите продажи или финансовые сервисы в ИИ‑каналы и протоколы вроде YCP, относитесь к каждому подключённому магазину или сервису как к потенциально высокорискованному контрагенту. Заложите минимальный KYC‑набор: проверка регистрационных данных и бенефициаров, статусов по персональным данным и информационной безопасности, истории инцидентов, а также отдельные договорные блоки про работу в ИИ‑канале: ответственность за офферы, согласованные уровни сервиса (SLA) и поддержки, требования к обработке клиентских и транзакционных данных.
Проверка подрядчиков под ФСТЭК‑117 и оборотные штрафы.
Составьте реестр подрядчиков, которые имеют доступ к вашим данным, ИИ‑моделям и интеграциям с государственными системами и сервисами, и для каждого зафиксируйте класс обрабатываемой информации, применимые требования ФСТЭК, Роскомнадзора и ЦБ, а также порядок контроля и разграничения доступа. Пересмотрите шаблоны договоров: пропишите ответственность за утечки и нарушения, порядок и формат аудита, требования к срокам и содержанию уведомлений об инцидентах, а также право в одностороннем порядке ограничивать или прекращать доступ при выявленных нарушениях.
Встроенная AI‑security.
Сместите фокус с единичных аудитов ИИ‑моделей на управление их полным жизненным циклом: от отбора и очистки данных до обучения, ввода в эксплуатацию, мониторинга, реагирования на инциденты и вывода из эксплуатации. Для ключевых ИИ‑сценариев заведите формальные «карты угроз» — с отдельно выделенными атаками на данные, модели, промпты и интеграции — и встройте их в стандартные релизные процедуры ИТ и ИБ.