Данные: грязное топливо или золотой резерв?
Данные перестали быть просто активом: сегодня это сердце цифровой экосистемы компании. Они питают аналитику, автоматизацию и прежде всего искусственный интеллект. Однако их ценность определяется не объёмом, а качеством: актуальностью, полнотой, непротиворечивостью и управляемостью. Gartner разрушает распространённую иллюзию: около 30% ИИ-проектов закрываются уже после пилотной стадии именно из-за проблем с данными.
И это не случайность, а закономерность. Искусственный интеллект напрямую зависит от качества исходных данных, поскольку опирается на них при обучении и в процессе принятия решений. Любой пробел приводит к искажённым выводам, за противоречиями следуют ошибочные интерпретации, а неструктурированность порождает нарастающий хаос. ИИ не исправляет недостатки данных, а системно воспроизводит и усиливает их. Согласно опросу, проведённому экспертами Группы Arenadata в рамках конференции ArenaDAY, более 60% респондентов считают Data Governance (управление данными) и качество данных критически важными условиями для эффективного использования ИИ. При этом 52,4% участников в целом доверяют своим данным, отмечая лишь отдельные незначительные проблемы. Одновременно 31,3% опрошенных сомневаются в их надёжности, указывая на частые ошибки и неполноту.
Сегодня Data Governance выходит далеко за рамки формального соблюдения нормативов. Оно становится стратегической дисциплиной, от которой зависит будущее компании. Только там, где данные приведены в порядок, технологии раскрывают свой потенциал. В такой среде компания перестаёт догонять и начинает задавать темп, где каждый байт работает на результат, а не на иллюзию прогресса.
ИИ-двойник: от утечек к молниеносным атакам
Развитие ИИ неизбежно формирует и его теневую сторону — пространство новых, ранее невиданных уязвимостей. По данным ГК «Солар», утечки корпоративных данных через нейросети выросли в 30 раз всего за год. При этом до 46% конфиденциальной информации, включая файлы и рабочие промпты, утекает через взаимодействие с чат-ботами. Как поясняется в отчёте: «Cотрудники загружают в чат-боты фрагменты исходного кода, финансовые отчёты, юридические документы и клиентские базы, чтобы „упростить“ рутинные задачи: проанализировать данные, составить саммари или написать код. Таким образом, они неосознанно становятся одной из причин утечки информации».
Эта статистика рисует пугающую картину. Границы безопасности размываются: то, что вчера надёжно хранилось во внутренних контурах, сегодня становится лёгкой добычей для внешнего мира. Один неверный запрос, и корпоративные секреты оказываются в открытом доступе.
Однако реальная угроза лежит глубже: искусственный интеллект выходит за пределы инструмента развития и всё чаще становится оружием в руках киберпреступников. Аналитики CrowdStrike констатируют рост атак с применением искусственного интеллекта на 89% по сравнению с прошлым годом. IDC добавляет: к 2028 году 70% организаций столкнутся с атаками deepfake.
Дополнительную тревожность усиливает и отраслевая структура атак. Согласно исследованию Threat Zone 2026, в числе наиболее атакуемых сфер лидируют государственное управление (14%), финансовый сектор (11%), транспорт и логистика (10%), а также электронная коммерция и ритейл (10%). Это означает, что под прицелом оказываются не только отдельные компании, но и ключевые элементы экономической и государственной инфраструктуры.
Сами атаки меняются качественно. Время адаптации DDoS-атак сокращается с часов до минут благодаря интеллектуальной автоматизации. Прогресс обретает двойственную природу: он ускоряет не только бизнес-процессы, но и враждебные манёвры противника. В этих условиях компаниям приходится переосмысливать архитектуру кибербезопасности, где цена каждой ошибки измеряется уже не только деньгами, но и репутацией.
КИИ-загадка: ИИ с привязи или без тормозов
В сфере критической информационной инфраструктуры проблема обретает экзистенциальный масштаб. Можно ли допустить искусственный интеллект в сердце систем, где малейший сбой равносилен национальной катастрофе? Ответ категоричен: без строгих рамок и чётких правил такой шаг недопустим.
ГК «Солар» диагностирует тревожную картину: около 60% компаний пока не разработали политики работы с ИИ. Однако IDC прогнозирует кардинальные перемены: к 2028 году 50% организаций введут обязательный манифест ИИ (AI-манифест) — документ, чётко фиксирующий правила игры.
В КИИ искусственный интеллект без манифеста подобен неуправляемому огню на оружейном складе. Утечки критически важных данных, подмена ключевых решений, ложные срабатывания систем управления. Подобные риски не абстрактны, они материальны и способны парализовать целые сектора экономики.
Необходима продуманная, проактивная модель управления, включающая классификацию всех допустимых сценариев применения ИИ, строгий контроль входных и выходных данных и чёткую ответственность за каждый алгоритмический процесс. Только такая архитектура позволит искусственному интеллекту служить делу национальной устойчивости, а не подрывать её изнутри. Технологический рывок без дисциплины безопасности превращается в уязвимость стратегического масштаба, где цена ошибки измеряется не деньгами, а стабильностью страны.
Подводя итоги нашего путешествия по лабиринтам ИИ-рисков, можно сказать:
- качество данных определяет судьбу каждого проекта, превращая технологию то в мощный двигатель прогресса, то в бесполезную обузу;
- киберугрозы эскалируют с ужасающей скоростью, переходя от массовых утечек к молниеносным ИИ-усиленным атакам и требуя предельной бдительности на всех уровнях;
- наконец, в КИИ манифест ИИ эволюционирует из модного тренда в жизненную необходимость, обеспечивая тот хрупкий, но жизненно важный баланс между дерзостью инноваций и непреклонностью требований безопасности.
Автор статьи:
Алексей Журавлев
Заместитель генерального директора Arenadata