В отчёте говорится о том, что киберпреступники будут использовать ИИ и как вектор, и как поверхность атаки. В настоящее время дипфейки (Deep Fakes) остаются наиболее известным сценарием применения ИИ в качестве вектора атаки. Однако, по мнению авторов доклада, в будущем потребуются новые технологии проверки данных, которые помогут бороться с кампаниями дезинформации и попытками вымогательства, а также угрозами, нацеленными непосредственно на массивы данных ИИ.
Вот всего несколько примеров использования ИИ в преступных целях:
- крупномасштабные и правдоподобные атаки с использованием социальной инженерии;
- вредоносное ПО для уничтожения документов, которое повышает эффективность атак киберпреступников;
- обман систем распознавания изображений и голоса;
- помощь в поиске целей и уклонении от систем защиты при атаках с применением программ-вымогателей;
- «загрязнение» массивов данных за счёт выявления слепых зон в правилах обнаружения.
В завершение доклада авторы дают несколько рекомендаций:
- Потенциал технологий искусственного интеллекта необходимо использовать в качестве инструмента борьбы с киберпреступностью, чтобы защитить индустрию ИТ-безопасности и правоохранительные органы в будущем.
- Необходимо продолжать исследования, которые помогут развивать технологии кибербезопасности.
- Также необходимо популяризировать и разрабатывать безопасные среды проектирования ИИ.
- Политическую риторику об использовании ИИ в целях кибербезопасности стоит минимизировать.
- Рекомендуется активно использовать государственно-частное партнёрство и создавать мультидисциплинарные экспертные группы