Сотрудники Samsung трижды случайно слили секретную информацию через ChatGPT. Об этом сообщает TechRadar .
Отмечается, что сотрудники компании использовали ChatGPT для проверки кода. На это они получили разрешение у своего руководства.
Как выяснилось впоследствии, при работе с ChatGPT один инженер «слил» секретный исходный код, чтобы проверить его на ошибки. Затем второй сотрудник поделился с ChatGPT алгоритмом обнаружения дефектов на чипах.
Третий работник Samsung отправил чат-боту стенограмму производственного совещания, чтобы нейросеть помогла ему сделать презентацию.
Samsung обеспокоена тем, что в дальнейшем количество утечек может участиться. В связи с этим компания запретила сотрудникам использовать ChatGPT на рабочем месте и планирует создать собственную систему генеративного ИИ.
Подписывайтесь на наш telegram-канал t.me/sudua и на Twitter, а также на нашу страницу в Facebook и в Instagram, чтобы быть в курсе самых важных событий.