Компания OpenAI призвала к регулированию «сверхумных» искусственных интеллектов, чтобы защитить человечество от риска случайного создания чего-то, способного его уничтожить. Об этом сообщает The Guardian.
В записке, опубликованной на сайте компании, соучредители Грег Брокман и Илья Суцкевер и генеральный директор Сэм Альтман призывают международного регулятора начать работу над тем, как «проверять системы, требовать проведения аудитов, тестировать на соответствие стандартам безопасности, налагать ограничения на степень развертывания и уровень безопасности», чтобы снизить «экзистенциальный риск», который могут составлять такие системы.
В краткосрочной перспективе они призывают к "определенному уровню координации" между компаниями, работающими на передовой исследования в области ИИ, чтобы обеспечить плавную интеграцию разработки все более мощных моделей в общество, предоставляя приоритет безопасности. Такая координация может осуществляться, например, через проект под руководством правительства или коллективное соглашение об ограничении роста возможностей ИИ.
Исследователи десятилетиями предупреждали о потенциальных рисках, связанных с суперинтеллектом, но с развитием ИИ эти риски стали более конкретными. Американский Центр безопасности искусственного интеллекта (CAIS), который работает над тем, чтобы «уменьшить общественные риски от искусственного интеллекта», описывает восемь категорий «катастрофических» и «экзистенциальных» рисков, которые может представлять развитие ИИ.
Лидеры OpenAI говорят, что эти риски означают, что «люди по всему миру должны демократически решать вопросы о границах и настройках систем ИИ», но признают, что «мы еще не знаем, как разработать такой механизм». Впрочем, они отмечают, что дальнейшее развитие мощных систем стоит риска.
Как писала «Судебно-юридическая газета», Денис Малюська предположил, что роботы на основе искусственного интеллекта могут стать помощниками нотариусов.
Подписывайтесь на наш Тelegram-канал t.me/sudua, на Twitter, а также на нашу страницу в Facebook и в Instagram, чтобы быть в курсе самых важных событий.