Лабораторія досліджень штучного інтелекту компанії OpenAI послабила обмеження на військове застосування чат-боту ChatGPT. Про це повідомляє Business Insider.
Так, у неоголошеному оновленні політики використання штучного інтелекту скасували широку заборону на використання технології для «військових справ», однак новий текст все ще забороняє використовувати служби OpenAI для розробки зброї, травмування людей або знищення майна.
Нова політика тепер включає такий принцип, як «Не завдавай шкоди іншим». Також перелік містить заборону конкретних випадків, як-от розробка або використання зброї.
Деякі експерти зі штучного інтелекту стурбовані тим, що оновлена політика OpenAI надто узагальнена, особливо з огляду на те, що технологія штучного інтелекту вже використовується під час конфлікту в Газі.
Ізраїльські військові заявили, що використовували штучний інтелект для визначення цілей для бомбардування на території Палестини. Експерти відзначають, що оновлена політика все ще досить розпливчаста і залежна від трактування. Також є питання, як компанія збирається забезпечувати її виконання.
OpenAI не розкриває мети оновлення політики використання, але є припущення, що зміни потенційно можуть відкрити двері для майбутніх контрактів із військовими.
Представник OpenAI каже, що існують випадки використання штучного інтелекту стосовно питань національної безпеки, які відповідають місії компанії, що частково й призвело до змін. Наприклад, OpenAI уже співпрацює з Агентством перспективних оборонних досліджень, «щоб стимулювати створення нових інструментів кібербезпеки для захисту програмного забезпечення з відкритим кодом, від якого залежить критична інфраструктура та галузі».
Підписуйтесь на наш Telegram-канал t.me/sudua та на Google Новини SUD.UA, а також на нашу сторінку у Facebook та в Instagram, щоб бути в курсі найважливіших подій.