Konfo

«Лаборатория Касперского» планирует создать центр безопасности ИИ

Фото: © unsplash.com
«Лаборатория Касперского» предлагает создать центр искусственного интеллекта на базе одного из регуляторов. Цель – чтобы новое учреждение занималось вопросами информационной безопасности в сфере искусственного интеллекта.

Об этом рассказал Антон Иванов, директор по исследованиям и разработке АО «Лаборатория Касперского». Он отметил, что в России отсутствует единый центр по обеспечению безопасности искусственного интеллекта (ИИ), и это является проблемой, поскольку нет чёткого понимания модели угроз.

Отсутствует единая база данных ИИ-угроз, а также механизмы идентификации пользователей искусственного интеллекта. Иванов подчеркнул, что многие разработчики используют различные библиотеки для извлечения образов и текстов из фотографий. В настоящее время специалисты по информационной безопасности обнаруживают множество скомпрометированных библиотек, доступных в open source. Большинство дата-инженеров и дата-саентистов применяют этот софт при разработке систем на основе искусственного интеллекта.

Как предупредить их об опасности этого программного обеспечения? На данный момент такого механизма не существует. Поэтому необходимо создать специализированный центр, который будет заниматься вопросами безопасности в сфере искусственного интеллекта, информировать о закладках в ПО, используемом при ИИ-разработке, и о новых способах манипулирования ИИ-моделями.

По словам Иванова, данные о киберрисках для искусственного интеллекта могут собираться в центрах, работающих по принципу CERT (computer emergency reaction team) — группы реагирования на компьютерные инциденты, представляющей собой независимую группу экспертов. Работа над этой идеей ведётся уже несколько месяцев.
  • Комментарии
Загрузка комментариев...