Сторонники искусственного интеллекта говорят, что его потенциал безграничен. Но кибермошенники также могут использовать это в своих целях.
Аналитики объяснили AFP, как эта технология может повысить риск онлайн-преступлений.
Фишеры электронной почты
Чат-боты являются наиболее известными из всех инструментов искусственного интеллекта благодаря безудержному успеху ChatGPT и многих других, появившихся после него, не в последнюю очередь Bard от Google.
Фишинг — наиболее распространенная форма кибермошенничества. В нем преступники, выдавая себя за компанию или отдельное лицо, отправляют пакеты электронных писем, содержащих ссылки на поддельные веб-сайты или вредоносное ПО.
Два мира уже начинают сталкиваться: киберпреступники обмениваются на онлайн-форумах советами о том, как лучше всего заставить чат-ботов генерировать фишинговые электронные письма.
Крупные игроки не позволяют пользователям создавать подобные электронные письма, поэтому разработчики разработали программы, направленные на создание фишинговых сообщений, в том числе FraudGPT и WormGPT.
Эффективность этих инструментов еще предстоит проверить. Жером Биллуа из консалтинговой компании Wavestone заявил агентству Франс Пресс: «Мы только в самом начале».
Эксперты говорят, что главное умение чат-ботов для фишинговых группировок — генерировать достаточно понятный текст.
Одним из явных признаков фишингового электронного письма уже давно является неправильная орфография и пунктуация.
«ИИ ускоряет темпы атак», — сказал Биллуа.
ФБР сообщило, что в прошлом году оно получило 300 497 жалоб на фишинговые мошенничества, понесенный ущерб составил 52 миллиона долларов.
Атака клонов
Ранее в этом году мать из США Дженнифер ДеСтефано рассказала, как ей позвонила дочь с просьбой о помощи, а затем похититель сказал ей заплатить выкуп в 1 миллион долларов.
«Я ни на секунду не сомневалась, что это она», — сказала она местным СМИ.
Только голос был имитацией, созданной искусственным интеллектом, и ДеСтефано быстро раскрыл уловку.
Однако это указывает на риск того, что в будущем во время телефонных или видеозвонков будут появляться фейковые изображения близких или коллег. Это событие может стать золотой жилой для мошенников.
Записав всего несколько секунд человеческого голоса, онлайн-инструменты могут создать имитацию, способную обмануть сотрудников или друзей.
Жером Саиз, основатель французской консалтинговой компании OPFOR Intelligence, заявил, что «целая индустрия мелких мошенников», уже умеющих вымогать данные кредитных карт с помощью текстовых сообщений, вероятно, начнет использовать такие инструменты.
Он рассказал агентству Франс Пресс, что такие мошенники зачастую молоды и хорошо владеют техническими инструментами.
Руководство по программированию
Одним из хваленых талантов чат-ботов, таких как ChatGPT, является их способность генерировать приемлемый компьютерный код.
Мошенники могут использовать эти навыки для создания вредоносного ПО, способного заблокировать компьютер жертвы или получить доступ к файлам или учетным записям.
В Интернете ходят слухи о том, что новое поколение специализированных чат-ботов способно выполнять такого рода операции, но убедительные доказательства найти сложно.
Чат-боты, безусловно, могут выявлять недостатки в существующем коде и даже генерировать вредоносный код, но они не могут выполнить его напрямую.
Сайз сказал, что он видит, как ИИ помогает мошенникам, у которых мало таланта, стать более квалифицированными — своего рода наставник по программированию.
Но тот, кто начинает с нуля, не сможет заставить ChatGPT кодировать для него вредоносное ПО», — сказал он.
Сайзу, которому обычно звонят, когда что-то серьезное идет не так, сказал, что он не видел никаких доказательств того, что ни в одном из его дел за последний год был задействован ИИ.
Шон Сёрбер из американской компании по кибербезопасности Tanium столь же осторожен.
«Обеспокоенность по поводу того, как генеративный ИИ повлияет на риски для бизнеса, основана на страхе перед неизвестным, а не на конкретных угрозах», — сказал он.