Працівники Samsung тричі випадково злили секретну інформацію через ChatGPT. Про це повідомляє TechRadar .
Зазначається, що співробітники компанії використовували ChatGPT для перевірки коду. За для цього вони отримали дозвіл у свого керівництва.
Як з'ясувалося згодом, під час роботи з ChatGPT один інженер «злив» секретний вихідний код, щоб перевірити його на помилки. Потім другий співробітник поділився з ChatGPT алгоритмом виявлення дефектів на чипах.
Третій працівник Samsung відправив чат-боту стенограму виробничої наради, щоб нейромережа допомогла йому зробити презентацію.
Samsung стурбована тим, що надалі кількість витоків може почастішати. У зв'язку з цим компанія заборонила співробітникам використовувати ChatGPT на робочому місці та планує створити власну систему генеративного ШІ.
Підписуйтесь на наш telegram-канал t.me/sudua та на Twitter, а також на нашу сторінку у Facebook та в Instagram, щоб бути в курсі найважливіших подій.