Эксперты в области кибербезопасности объяснили, как пользователям следует применять ботов на основе искусственного интеллекта, чтобы не стать жертвой преступников в сети. Об этом сообщает The Sun.
Советник по глобальной кибербезопасности компании ESET Джейк Мур отметил, что ИИ-модели, на которых основаны чат-боты, в большинстве своем безопасны, но существуют и «подводные камни».
По мнению экспертов, риск заключается в том, что вся информация, поступающая от пользователей ботам, может быть раскрыта. Все данные хранятся на серверах и потенциально их можно сломать. В этом случае хакеры получат доступ к самой сокровенной информации. Кладка просит пользователей не «выливать душу» чат-ботам.
Важно быть внимательными при использовании чат-ботов, не шифрующих переписку.
Известно, что шифрование «искажает» разговоры, поэтому никто не может их прочесть. Доступ к данным может получить только тот, у кого есть ключ для расшифровки.
Например, OpenAI защитила все чаты ChatGPT сквозным шифрованием для платных и бесплатных пользователей. Но некоторые приложения могут взимать плату за шифрование или не предлагать его вообще.
«Никогда не делитесь конфиденциальной информацией с чат-ботом, – говорит Мартин Дж. Кремер, эксперт по кибербезопасности в KnowBe4. – Возможно, вам придется поделиться кодом бронирования рейса или частью своего адреса с чат-ботом авиакомпании, но вы всегда можете позвонить оператору вместо того, чтобы использовать бот. Никогда не сообщайте пароли или другие учетные данные для проверки подлинности ШИ-ботам. Не делитесь с ними своими личными мыслями и интимными подробностями».
Ранее стало известно, что ученые создали искусственный интеллект, понимающий сарказм: его обучали на сериалах «Друзья» и «Теория большого взрыва».
Также ученые выяснили, что искусственный интеллект способен к обману.
Подписывайтесь на наш Тelegram-канал t.me/sudua и на Google Новости SUD.UA, а также на наш VIBER, страницу в Facebook и в Instagram, чтобы быть в курсе самых важных событий.