Этика интеллектуальных систем
Что необходимо сделать для того, чтобы развитие искусственного интеллекта (ИИ) не вступило в противоречие с принципами устойчивости, не привело к нарушению этических норм и прав человека? Об этом рассказывается в материале некоммерческой организации BSR для портала GreenBiz.

Сферы возможного применения ИИ на благо общества разнообразны: медицина, в том числе совершенствование диагностики; транспорт, в особенности распространение беспилотников; правоохранительная деятельность, например более эффективные методы выявления мошенничества, и многое другое.
Но очевидно, что передовые технологии несут и значительные социальные риски. Среди них: возможность нарушения неприкосновенности частной жизни и ущемления трудовых прав из-за вытеснения работников машинами, алгоритмическая предвзятость, связанная с отражением интеллектуальными системами человеческих предпочтений и предубеждений, и другие.
Для нивелирования рисков необходима широкая общественная дискуссия. Социальные последствия внедрения искусственного интеллекта активнее всего обсуждают технологические компании. Но ситуация должна измениться: ведь развитие этой сферы затрагивает бизнес-модели всех участников рынка, независимо от сектора деятельности. В дискуссии должны участвовать команды исследователей, разработчиков продукции, специалистов по маркетингу.
Руководящие принципы ООН по предпринимательской деятельности в аспекте прав человека должны применяться и при внедрении технологий ИИ. Нужно определить наиболее уязвимые группы населения и способы обеспечения доступа к средствам правовой защиты.
В вопросах искусственного интеллекта компаниям следует принять подход, получивший название «Права человека в соответствии с замыслом», который предполагает тщательный учет этой проблематики уже в процессе разработки новых продуктов и услуг.
Необходима интеграция экообразования, экоактивизма и технологий искусственного интеллекта. Примером такого подхода является проект «ИИ на благо Земли» корпорации Microsoft. Важно, чтобы новые потребности в обработке данных не приводили к существенному росту энергопотребления.
Искусственный интеллект чрезвычайно сложен — поэтому необходима убедительная просветительская кампания, которая позволит широким слоям населения получить необходимую информацию и включиться в обсуждение возможностей и рисков, связанных с новыми технологиями.
Этические принципы в области искусственного интеллекта уже активно разрабатываются. Заявления по вопросам этики опубликовали Институт инженеров электротехники и электроники, Ассоциация индустрии программного обеспечения и информации, Отраслевой совет по информационным технологиям и Институт «Будущее жизни». Изучением ключевых проблем в этой области занимаются такие инициативы, как «Партнерство по искусственному интеллекту», Фонд «Этика и управление ИИ» и «Искусственный интеллект сегодня».
Точные пути дальнейшего развития технологий ИИ неизвестны — поэтому человечеству необходимо перспективное мышление, позволяющее подготовиться к разным версиям будущего и продумать возможные долгосрочные последствия сегодняшних решений.
Автор
Светлана Куликова