«Лаборатория Касперского» планирует создать центр безопасности ИИ

«Лаборатория Касперского» планирует создать центр безопасности ИИ«Лаборатория Касперского» предлагает создать центр искусственного интеллекта на базе одного из регуляторов. Цель – чтобы новое учреждение занималось вопросами информационной безопасности в сфере искусственного интеллекта.

Об этом рассказал Антон Иванов, директор по исследованиям и разработке АО «Лаборатория Касперского». Он отметил, что в России отсутствует единый центр по обеспечению безопасности искусственного интеллекта (ИИ), и это является проблемой, поскольку нет чёткого понимания модели угроз.

Отсутствует единая база данных ИИ-угроз, а также механизмы идентификации пользователей искусственного интеллекта. Иванов подчеркнул, что многие разработчики используют различные библиотеки для извлечения образов и текстов из фотографий. В настоящее время специалисты по информационной безопасности обнаруживают множество скомпрометированных библиотек, доступных в open source. Большинство дата-инженеров и дата-саентистов применяют этот софт при разработке систем на основе искусственного интеллекта.

Как предупредить их об опасности этого программного обеспечения? На данный момент такого механизма не существует. Поэтому необходимо создать специализированный центр, который будет заниматься вопросами безопасности в сфере искусственного интеллекта, информировать о закладках в ПО, используемом при ИИ-разработке, и о новых способах манипулирования ИИ-моделями.

По словам Иванова, данные о киберрисках для искусственного интеллекта могут собираться в центрах, работающих по принципу CERT (computer emergency reaction team) — группы реагирования на компьютерные инциденты, представляющей собой независимую группу экспертов. Работа над этой идеей ведётся уже несколько месяцев.

Комментарии 2

  • София Сергеенко​
    Автор: София Сергеенко​ Добавлено 26 ноября, 2025 в 11:26

    Создание центра искусственного интеллекта для обеспечения информационной безопасности важно в контексте отсутствия единой базы данных по угрозам ИИ. Необходимость четкого понимания модели угроз становится особенно актуальной, учитывая распространение скомпрометированных библиотек в open source. Развитие механизмов идентификации пользователей искусственного интеллекта поможет предотвратить потенциальные угрозы и обеспечить безопасность в разработке систем на основе ИИ.

  • Егор Некрасов
    Автор: Егор Некрасов Добавлено 22 января, 2026 в 17:50

    Необходим центр безопасности для искусственного интеллекта.