Оценки уровня угроз
В 2026 году доля атак, затрагивающих системы на базе искусственного интеллекта, может составить от 5% до 10% всех целевых атак на кредитные организации. Под угрозой оказываются как банки, разрабатывающие собственные ИИ-решения, так и те, кто использует внешние сервисы.
Последствия успешных атак на ИИ-системы включают утечки конфиденциальных данных, репутационные и финансовые потери, а также нарушение операционной деятельности банков.
Распространение ИИ в банковской сфере
Аналитические и кибербезопасностные компании прогнозируют, что в 2026 году ИИ будет участвовать в значительной, хоть и не доминирующей, доле атак на крупные кредитные организации. Оценки варьируются: крупнейшие игроки рынка указывают на диапазон 5–7%, другие эксперты называют 5–10% атак, где уязвимости ИИ выступят главным или дополнительным вектором.
Руководители подразделений информационной безопасности банков отмечают, что до 10% целевых атак в этом периоде могут затрагивать ИИ-составляющие инфраструктуры, поскольку технологии перестают быть экспериментальными и всё активнее интегрируются в бизнес-процессы.
Области применения ИИ в банках
Более 20% российских банков уже применяют ИИ в операционной работе и во взаимодействии с клиентами, при этом примерно столько же запускали пилотные проекты, связанные с искусственным интеллектом в 2025 году.
В сумме каждый третий банк активно использует ИИ в рабочих процессах, а сопоставимая доля учреждений находится на стадии тестирования и пилотирования технологий.
Методы атак на ИИ
Во внешних сервисах ИИ чаще всего применяется для автоматизации взаимодействия с клиентами: голосовые помощники облегчают доступ к информации о счетах, чат‑боты обеспечивают круглосуточную поддержку, а алгоритмы персонализируют продуктовые рекомендации.
Во внутренних процессах ИИ используется для оценки кредитоспособности заемщиков, оптимизации работы сотрудников, поддержки бизнес‑решений и усиления мер киберзащиты.
Уязвимые категории банков и последствия
В качестве основных тактик атак на ИИ специалисты выделяют prompt injection и data poisoning. В первом случае злоумышленники манипулируют запросами к модели, чтобы обойти встроенные ограничения и получить конфиденциальную информацию или иные нежелательные ответы. Во втором случае атакующие намеренно подменяют или «загрязняют» тренировочные данные, ухудшая качество и безопасность модели.
Целевые атаки часто ориентированы на цифровые интерфейсы и точки взаимодействия с пользователями, где можно сформулировать вредоносный запрос или спровоцировать модель на раскрытие данных или выполнение действия.
Меры защиты и прогнозы по масштабам атак
Наибольший риск представляют учреждения, разрабатывающие собственные ИИ‑модели без зрелой системы информационной безопасности и регулярного аудита; в таких случаях сложнее обнаружить уязвимости до их эксплуатации. Также под угрозой оказываются банки, полагающиеся на сторонние ИИ‑сервисы и API без строгих механизмов контроля доступа и интеграции.
Последствия успешных атак включают утечки чувствительных данных клиентов и банковских систем, снижение доверия, прямые финансовые убытки и нарушения в повседневной операционной деятельности организаций.

