В США преступник оспорил приговор, вынесенный в том числе с учетом «выводов» компьютерной программы, которая определяет вероятность рецидива. А программы для кадровиков собирают всю информацию о кандидате из соцсетей. При этом они могут взять и те данные, которые рекрутеры по закону не могут запрашивать. Риски использования искусственного интеллекта обсудили на конференции, передает Pravo.
4 февраля в рамках конференции Legaltech в Нью-Йорке прошла панель, посвящённая рискам в условиях цифровой трансформации. Представители ряда компаний рассказали о сложностях, с которыми сталкивается юрист при использовании технологий искусственного интеллекта (ИИ).
Партнёр и сопредседатель глобальной инициативы по искусственному интеллекту в международной юридической фирме Covington & Burling Ли Тидрих отметил, что так же, как и интернет в 90-х, рост технологий ИИ вновь опережает развитие правовой отрасли. Отсутствие ясности в регулировании многих «технологических» вопросов повышает ставки для организаций. «Надо быть очень осторожным при использовании ИИ, потому что даже если нет никакого риска с точки зрения законодательства, то негативные заголовки в новостях могут привести к репутационному ущербу», – сказал Тидрих.
Вице-президент по юридическим и кадровым вопросам в Canam Steel Corp Рон Пеппе пожаловался на сложности с политикой конфиденциальности. По его словам, при найме сотрудников на работу у компании часто есть возможность собрать все данные кандидата с социальных сетей. Есть информация, которую рекрутерам нельзя запрашивать (например, религия), но программа может, обнаружив при поиске, автоматически её занести в базу данных. Из-за этого неизбежно встаёт вопрос о предвзятости.
Тидрих в ответ привёл в пример дело «Штат против Лумиса», где гражданин США Эрик Лумис в Верховном суде Висконсина оспаривал решение суда первой инстанции. Он приговорил Лумиса к шести годам лишения свободы, используя в том числе показания компьютерной программы COMPAS. Она определяет вероятность рецидива преступления у подсудимого в будущем на основе опросника. Лумис требовал признать незаконным её использование при рассмотрении дела, поскольку, оценивая вероятность совершения им преступления, она могла учесть его расу и пол. Верховный суд оставил решение без изменений, сославшись на то, что суд первой инстанции в своём решении полагался на другие факторы.
Советник по связям с государственными органами компании Verizon Дэвид Кесслер сказал, что недостатки ИИ осложняют работу юриста больше других. Он говорил об этических обязательствах, которые юристы должны учитывать при использовании ИИ в своей организации, в том числе и о том, как лучше всего получить разрешение на использование информации субъекта персональных данных. «Вы обязаны применять должные меры безопасности, когда используете любую технологию», – добавил Кесслер.
Напомним, «Судебно-юридическая газета» сообщала, что в Китае появился уникальный виртуальный судья с искусственным интеллектом.