English

Риски утечки данных: как ИИ может быть не только союзником, но и угрозой

Искусственный интеллект стал неотъемлемой частью многих отраслей бизнеса. Однако, помимо очевидных преимуществ, связанных с использованием ИИ, важно осознавать и потенциальные угрозы, которые он может представлять. Никита Андреянов, заместитель генерального директора по продуктовой политике Crosstech Solutions Group, рассказал, с какими рисками могут столкнуться компании при использовании искусственного интеллекта.

ИИ в руках злоумышленников

Современные технологии, такие как алгоритмы машинного обучения и нейронные сети, являются удобными инструментами не только для специалистов по безопасности, но и для киберпреступников. Одним из наиболее ярких и распространенных примеров использования ИИ злоумышленниками являются дипфейки — технология, с помощью которой нейросети создают поддельные изображения или подменяют голоса реальных людей. Дипфейки могут быть использованы для обхода биометрической аутентификации. Кроме того, ИИ используется злоумышленниками для создания фишинговых писем, усовершенствования алгоритмов брутфорса — метод, с помощью которого хакеры подбирают числовые и символьные комбинации для взлома логинов и паролей, входа в учетную систему.

Сейчас растет популярность кибератак типа «‎отравление данных». Злоумышленники могут подбрасывать системе заведомо ложные данные, чтобы нарушить её работу. Например, можно заставить алгоритм ИИ воспринимать критически важные системы, например, 1С, как вредоносные. Именно поэтому нельзя полностью доверить искусственному интеллекту ключевые задачи в области информационной безопасности. Необходимо использовать его только в качестве ассистента.

Риски чрезмерного доверия ИИ

Использование искусственного интеллекта несет определенные риски даже при отсутствии злоумышленников. Одной из главных проблем применения ИИ бизнесом является избыточное доверие его алгоритмам. Ни в коем случае нельзя отдавать ему решение комплексных задач. ИИ должен только дополнять и усиливать имеющиеся практики и инструменты, быть помощником, а не заменой реальному сотруднику. Например, нельзя доверить AI настройку математических моделей, так как их неверная работа может создать значительное количество ложных срабатываний, мешая стандартным бизнес-процессам. Более того, такие системы иногда блокируют легитимных пользователей, предоставляя недостаточную прозрачность для специалистов, расследующих инциденты.

Как снизить риски утечки данных при использовании ИИ?

Для минимизации рисков утечки необходимо использовать ряд проактивных практик:

  • Регулярный аудит ИИ-систем.

Целью такого аудита является выявление уязвимых мест в безопасности, которые должны своевременно устраняться.

  • Обеспечение качества данных для обучения моделей.

Качество и безопасность данных — это ключевой момент, который позволяет специалистам быть уверенными, что система работает корректно.

Данные, используемые для обучения моделей, должны быть качественными и безопасными. В ином случае «‎отравленные» данные могут стать причиной недостоверных и даже опасных результатов. Для защиты данных необходимо применять различные практики маскирования и шифрования данных, комплексного контроля доступа и регулярного бэкапирования.

ИИ является удобным инструментом, но его использование требует разумного и безопасного подхода. Он должен быть вспомогательным средством, способным усилить существующие меры безопасности, но не заменять их полностью. Только в таком случае его применение станет не только полезным, но и безопасным.

Новости по теме
«Авантелеком» и IQTEK анонсируют новые ИТ-решения для контакт-центров
«Mailion. Сертифицированный» 1.9 прошел инспекционный контроль в ФСТЭК России
CodeInside на конференции «НА ЗАРЕ»