Полицейская служба Европейского союза опубликовала срочный отчет, предупреждающий, что ChatGPT и другие системы с искусственным интеллектом могут быть использованы для онлайн-мошенничества и других киберпреступлений. Об этом сообщает Euractiv.
Так, большие языковые модели, которые можно использовать для различных целей, таких как ChatGPT от Open AI, могут принести пользу бизнесу и отдельным пользователям. Однако европейское полицейское агентство подчеркнуло, что они тоже являются проблемой для правоохранительных органов, поскольку злоумышленники могут использовать их в своих целях.
«Преступники обычно быстро используют новые технологии и быстро придумали конкретные уголовные способы эксплуатации, представив первые практические примеры только спустя несколько недель после публичного выпуска ChatGPT», - говорится в отчете.
Публикация стала результатом серии семинаров, организованных Инновационной лабораторией Европола для обсуждения потенциального криминального использования ChatGPT как наиболее яркого примера крупных языковых моделей и того, как эти модели могут использоваться для поддержки следственной работы.
Агентство ЕС указывает на тот факт, что правила модерации ChatGPT можно обойти с помощью так называемой техники подсказок – практики ввода данных в модель ИИ именно для получения определенного результата.
Поскольку ChatGPT – новая технология, поэтому с обновлениями постоянно появляются лазейки, которые могут попросить ИИ притвориться вымышленным персонажем или дать ответ в коде. Другие обходные пути могут заменять триггерные слова или изменять контекст в процессе взаимодействия. Орган ЕС подчеркнул, что наиболее эффективные обходные пути, позволяющие освободить модель от любых ограничений, постоянно совершенствуются и усложняются.
Эксперты обнаружили целый ряд незаконных случаев использования ChatGPT, которые хранятся и в самой продвинутой модели OpenAI – GPT-4 – где потенциал вредных реакций системы в некоторых случаях даже выше.
Поскольку ChatGPT может генерировать информацию, пригодную для чтения, Европол предупреждает, что новая технология может ускорить процесс исследования злоумышленником без предварительных знаний о потенциальной сфере преступления, такой как проникновение в дом, терроризм, киберпреступность или сексуальное насилие над детьми.
«Хотя вся информация, предоставляемая ChatGPT, находится в свободном доступе в Интернете, возможность использовать модель для предоставления конкретных шагов, задавая контекстуальные вопросы, значительно облегчает злоумышленникам задачу лучшего понимания и дальнейшего совершения различных видов преступлений», - говорится в отчете.
Фишинг, практика отправки фальшивого электронного письма с целью заставить пользователей перейти по ссылке, является важнейшей областью применения. В прошлом такие мошенничества легко обнаруживались из-за грамматических или речевых ошибок, в то время как текст, сгенерированный искусственным интеллектом, позволяет выдать себя за другого в очень реалистичной манере.
Аналогично, мошенничеству онлайн можно придать большее правдоподобие, используя ChatGPT для создания фальшивой активности в социальных сетях.
Кроме того, способность ИИ выдавать себя за стиль и речь конкретных людей может привести к случаям злоупотреблений по поводу пропаганды, языка ненависти и дезинформации.
Кроме простого текста, ChatGPT также может создавать код на разных языках программирования, расширяя возможности злоумышленников, практически не имеющих знаний в области IT, по превращению естественного языка во вредоносное ПО.
«Очень важно, что меры защиты, не позволяющие ChatGPT предоставлять потенциально вредоносный код, работают только в том случае, если модель понимает, что она делает. Если подсказки разбиты на отдельные шаги, обойти эти меры безопасности попроще», - добавляется в отчете.
ChatGPT считается ИИ общего назначения – моделью, которая может быть адаптирована для выполнения различных задач.
Пока Европейский парламент дорабатывает свою позицию по закону об ИИ, евродепутаты обсуждают введение некоторых строгих требований к этой базовой модели, таких как управление рисками, надежность и контроль качества.
Другой риск заключается в том, что эти большие языковые модели могут стать доступными в даркнете без каких-либо гарантий и быть обучены особо вредным данным. Тип данных, которыми будут питаться эти системы, и то, как их можно будет контролировать – вот главные вопросы грядущего.
Подписывайтесь на наш Тelegram-канал t.me/sudua, на Twitter, а также на нашу страницу в Facebook и в Instagram, чтобы быть в курсе самых важных событий.