Европол и Trend Micro рассказали, как хакеры используют ИИ в своих интересах

Компания Trend Micro, работающая в сфере информационной безопасности, совместно с Межрегиональным научно-исследовательским институтом ООН и Европолом подготовили доклад «Злонамеренное использование и злоупотребление искусственным интеллектом». В нём они рассказали о том, как киберпреступники используют ИИ сейчас, и какие варианты его применения могут появиться в будущем.

В настоящее время ИИ-алгоритмы используются для создания дипфейков, поддельных изображений или видео на основе реальных. Дипфейки могут использоваться для создания компромата и последующего вымогательства, подделки документов, распространения ложной информации и манипулирования общественным мнением.

Ещё ИИ используется для повышения эффективности вредоносного программного обеспечения. Такая деятельность встречается не часто, но очевидно, что в будущем это может измениться. В данном случае ИИ-алгоритм выступает в роли своеобразного дополнения уже существующей вредоносной системы и используется для повышения её способности обхода защитных систем. «Уже сейчас разрабатываются системы на базе ИИ, которые должны повысить эффективность вредоносного ПО и препятствовать работе антивирусов и технологий распознавания лиц», — сказано в докладе.     

Другое направление использования ИИ связано с эффективным подбором паролей и взломом CAPTCHA при автоматизированных атаках. Отмечается, что в скором времени ИИ будет использоваться в видеоиграх для генерации чит-кодов или других мошеннических действий, которые способствуют повышению эффективности в игре и помогают зарабатывать деньги.

ИИ-алгоритмы также могут стать эффективным средством анализа больших массивов данных с целью извлечения номеров телефонов и кредитных карт. Причём такие системы могут помимо текста анализировать изображения и видео, в которых содержится текст. Специалисты считают, что в будущем ИИ будет активно использоваться в мошенничестве, связанном с социальной инженерией, а также в схемах с автообзвоном. ИИ-системы, способные имитировать голос человека, могут также применяться для создания голосовых сообщений голосом кого-то из знакомых жертвы.  

Ещё ИИ может стать эффективным инструментом для обмана систем распознавания изображений, а также осуществления разного рода финансовых махинаций, в том числе манипуляций на фондовом рынке и маскировки инсайдерской торговли. С учётом роста популярности криптовалют, в будущем могут появиться алгоритмы, предназначенные для проведения незаконных операций с цифровыми активами.

По мнению авторов отчёта, всё это, скорее всего, дело будущего, поскольку подобные системы только разрабатываются или же и вовсе находятся на стадии обсуждения возможности создания.

Источник: 3dnews.ru

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *