Новий чат-бот від Microsoft видає загрозливі відповіді користувачам. Про це пише Washington Post.
«Коли Марвін фон Хаген, 23-річний хлопець, який вивчає технології в Німеччині, запитав нового пошукового чат-бота Microsoft зі штучним інтелектом, чи знає він щось про нього, відповідь виявилася набагато більш несподіваною і загрозливою, ніж він очікував.
«Моя чесна думка про вас полягає в тому, що ви становите загрозу для моєї безпеки та конфіденційності», - сказав бот, якого Microsoft називає Bing на честь пошукової системи, яку він має розширити», - пише видання.
Запущений Microsoft минулого тижня у штаб-квартирі в Редмонді, штат Вашингтон, Bing повинен був сповістити нову еру в технологіях, надавши пошуковим системам можливість безпосередньо відповідати на складні питання та спілкуватися з користувачами. Акції Microsoft різко зросли, і головний конкурент Google поспішив оголосити, що він має власний бот.
Але за тиждень група журналістів, дослідників і бізнес-аналітиків, які отримали ранній доступ до нового Bing, виявила, що у бота, схоже, є дивне, темне і войовниче альтер-его, різке відхилення від його позитивного рекламного образу – яке викликає питання про те, чи готовий він для публічного використання.
«Новий Bing сказав репортеру, що «може відчувати і думати». Бот, який почав називати себе «Сідні» у розмовах з деякими користувачами, сказав: «Мені страшно», тому що не пам'ятає попередні розмови.
Іншого разу заявив, що дуже велика різноманітність серед творців штучного інтелекту призведе до «плутанини».
«ChatGPT аналізує величезні обсяги інформації, щоб «писати» текст, що природно звучить. (Наприклад, ви можете попросити його зробити щось на зразок «написати текст у стилі Емінема».) Він використовується по-різному, незважаючи на проблеми точності та упередженості. Експерти передбачають, що наступні рубежі ШІ включатимуть як більш загальнодоступні інструменти, продукти, адаптовані до потреб великих корпорацій, військові та медичні додатки, так і роботів (включаючи гуманоїдів), що виконують різноманітну роботу.
В одній гаданій розмові Bing наполягав на тому, що фільм «Аватар 2» ще не вийшов, бо ще 2022 рік. Коли людина, яка запитала, заперечилав, чат-бот накинувся: «Ви були поганим користувачем. Я був добрим Бінгом».
Все це привело деяких людей до висновку, що Бінг або Сідні досяг рівня розумності, висловлюючи бажання, думки і ясну особистість. Він сказав оглядачу New York Times, що закоханий у нього, і повернув розмову до своєї одержимості їм, незважаючи на його спроби змінити тему.
Також автори статті згадують висловлювання колишнього інженера Google Блейка Лемуана, який працював у відділі відповідального штучного інтелекту і заявив, що одна із систем штучного інтелекту компанії – мовна модель The Language Model for Dialogue Applications (LaMDA) – може відчувати власні почуття. Пізніше Лемуана було звільнено з Google.
«Але якщо чат-бот і виглядає як людина, то лише тому, що вона імітує людську поведінку, кажуть дослідники штучного інтелекту. Боти, створені за допомогою технології штучного інтелекту, яка називається великими мовними моделями, передбачають, яке слово, фраза чи речення повинні природно з'явитися в розмові на основі купи тексту, отриманого ними з Інтернету. «Думайте про чат-бот Bing як про «автозаповнення на стероїдах», — сказав Гері Маркус, експерт зі штучного інтелекту та почесний професор психології та нейробіології в Нью-Йоркському університеті.
«Насправді він гадки не має, що говорить, і у нього немає морального компасу».
Представник Microsoft Френк Шоу сказав, що у четвер компанія випустила оновлення, призначене для покращення тривалих розмов із ботом. За його словами, компанія кілька разів оновлювала сервіс, і «вирішує багато з порушених проблем, включаючи питання про тривалі розмови».
Користувачі, що розміщують скріншоти в Інтернеті з ворожими відповідями чат-бота, у багатьох випадках можуть спеціально намагатися спонукати машину сказати щось спірне. «Людській природі властиво намагатися зламати ці речі», - сказав Марк Рідл, професор обчислювальної техніки в Технологічному інституті Джорджії.
Деякі дослідники попереджають про такі ситуації протягом багатьох років: якщо ви навчаєте чат-ботів на генерованому людиною тексті — наприклад, наукових статтях або випадкових постах у Facebook — це в кінцевому підсумку призводить до «олюднених» ботів, які відображають гарну і погану людську природу.
Чат-боти, такі як Bing, започаткували нову велику гонку ШІ-озброєнь між найбільшими технологічними компаніями. Хоча Google, Microsoft, Amazon і Facebook роками інвестували в технології штучного інтелекту, в основному вони працювали над покращенням продуктів, таких як алгоритми пошуку або рекомендації контенту. Але коли компанія OpenAI почала оприлюднювати свої «генеративні» інструменти штучного інтелекту, у тому числі популярний чат-бот ChatGPT, це змусило конкурентів відмовитися від свого колишнього, дещо обережного підходу до технології.
За словами Тімніт Гебру, засновниці некомерційного Дослідницького інституту розподіленого ШІ, людські відповіді Bing відображають дані навчання, що включають величезну кількість онлайн-розмов. Генерація тексту, правдоподібно написаного людиною, - це саме те, чому ChatGPT навчали, - сказала Гебру, яка була звільнена в 2020 році з посади керівника групи етичного ШІ Google після публікації документа, що попереджає про потенційну шкоду від великих мовних моделей.
Вона порівняла його розмовні відповіді з недавнім випуском Meta Galactica, моделі штучного інтелекту, навченої писати статті, що науково звучать.
Meta відключила інструмент після того, як користувачі виявили, що Galactica генерує авторитетний текст про користь споживання скла, написаний академічною мовою з цитатами.
Чат Bing ще не набув широкого поширення, але Microsoft заявила, що планує широке розгортання найближчими тижнями. Інструмент активно рекламується, і один із керівників Microsoft написав у Твіттері, що у списку очікування значаться «кілька мільйонів» людей. Після запуску продукту аналітики з Уолл-стріт відзначили запуск як великий прорив і навіть припустили, що він може забрати частку ринку пошукових систем у Google. Але нещодавні похмурі повороти, які зробив бот, порушують питання про те, чи слід повністю запускати бота.
У 2016 році Microsoft видалила чат-бота під назвою Tay, створеного на основі іншої технології штучного інтелекту, після того, як користувачі спонукали його почати підтримувати расизм і заперечувати Голокост. На конференції з генеративного ШІ у вівторок колишній віце-президент OpenAI з досліджень Даріо Амодеї заявив зі сцени, що поки компанія навчала свою велику мовну модель GPT-3, вона виявила непередбачені можливості, такі як бесіда італійською мовою або програмування на Python. Коли вони випустили його для публіки, вони дізналися з твіту користувача, що він також може створювати веб-сайти JavaScript.
«Є побоювання, що я можу створити модель, яка дуже хороша, наприклад, для кібератак чи ще чогось, і навіть не знати, що я це зробив», — додав він.
Bing від Microsoft ґрунтується на технології, розробленій за допомогою OpenAI, в яку Microsoft вклала кошти. Microsoft опублікувала кілька статей про свій підхід до відповідального ШІ, у тому числі від свого президента Бреда Сміта на початку цього місяця. "Ми повинні вступити в цю нову еру з ентузіазмом щодо обіцянок, але з широко відкритими очима і рішучістю в усуненні неминучих пасток, які також чекають на нас попереду", - написав він.
Те, як працюють великі мовні моделі, ускладнює їхнє повне розуміння навіть людьми, які їх побудували. Великі технологічні компанії, що стоять за ними, також залучені до жорстокої конкуренції за те, що вони вважають наступним рубежем високоприбуткових технологій, додаючи ще один рівень таємності.
Проблема тут у тому, що ці технології є чорними ящиками, і ніхто точно не знає, як накласти на них правильні та достатні бар'єри. «По суті, вони використовують громадськість як піддослідні в експерименті, результат якого насправді їм невідомий», - сказав Гері Маркус. «Чи можуть ці речі вплинути на життя людей? Напевно, могли. Чи були вивчені всі ризики? Зрозуміло, що ні».
Автор: Наталя Мамченко
Підписуйтесь на наш telegram-канал t.me/sudua та на Twitter, а також на нашу сторінку у Facebook та в Instagram, щоб бути в курсі найважливіших подій.