Експерти у сфері кібербезпеки пояснили, як користувачам слід застосовувати ботів на основі штучного інтелекту, щоб не стати жертвою злочинців у мережі. Про це повідомляє The Sun.
Радник із глобальної кібербезпеки компанії ESET Джейк Мур зазначив, що ШІ-моделі, на яких засновані чат-боти, здебільшого безпечні, але існують і «підводні камені».
На думку експертів, ризик полягає в тому, що вся інформація, яка надходить від користувачів ботам, може бути розкрита. Усі ці дані зберігаються на серверах і потенційно їх можна зламати. У такому разі хакери отримають доступ до найпотаємнішої інформації. Мур просить користувачів не «виливати душу» чат-ботам.
Важливо бути уважними під час використання чат-ботів, які не шифрують листування.
Відомо, що шифрування «спотворює» розмови, тому ніхто не може їх прочитати. Доступ до даних може отримати лише той, у кого є ключ для розшифрування.
Наприклад OpenAI захистила всі чати ChatGPT наскрізним шифруванням для платних і безкоштовних користувачів. Але деякі додатки можуть стягувати плату за шифрування, або не пропонувати його взагалі.
«Ніколи не діліться конфіденційною інформацією з чат-ботом, — каже Мартін Дж. Кремер, експерт із кібербезпеки в KnowBe4. — Можливо, вам доведеться поділитися кодом бронювання рейсу або частиною своєї адреси з чат-ботом авіакомпанії, але ви завжди можете зателефонувати операторові замість того, щоб використовувати бот. Ніколи не повідомляйте паролі або інші облікові дані для автентифікації ШІ-ботам. Не діліться з ними своїми особистими думками та інтимними подробицями».
Раніше стало відомо, що вчені створили штучний інтелект, який розуміє сарказм: його навчали на серіалах «Друзі» та «Теорія великого вибуху».
Також вчені з’ясували, що штучний інтелект здатен до обману.
Підписуйтесь на наш Telegram-канал t.me/sudua та на Google Новини SUD.UA, а також на наш VIBER, сторінку у Facebook та в Instagram, щоб бути в курсі найважливіших подій.