Центр безпеки штучного інтелекту у США та інші групи експертів разом попередили, що розвиток технологій ШІ загрожує зникненням людства і що необхідно вжити заходів для запобігання такому сценарію розвитку подій.
«Зниження ризику вимирання, яке може статися через ШІ, має стати глобальним пріоритетом поряд з іншими загрозами, як-от пандемії та ядерна війна», - йдеться в заяві, опублікованій на сайті центру (Center for AI Safety).
Документ підписали експерти в галузі ШІ, а також фахівці у сфері інформаційних технологій, економіки, математики, філософії. Серед них - гендиректор компанії Open AI і програміст Сем Олтмен, один із розробників ШІ британський учений Джеффрі Гінтон.
Ініціатори заяви поширили її з метою підвищити обізнаність про ризик ШІ, розпочати дискусії на цю тему, а також розповісти про збільшення кількості експертів і громадських діячів, які серйозно ставляться до загроз від передових технологій ШІ.
Підписуйтесь на наш telegram-канал t.me/sudua та на Twitter, а також на нашу сторінку у Facebook та в Instagram, щоб бути в курсі найважливіших подій.