Моральный кодекс для алгоритмов
Умным технологиям нужны правила поведения для адаптации в обществе
Этические принципы для систем искусственного интеллекта (ИИ) должны стать основой при формировании технических стандартов и правовых норм. О правилах отношений людей и машин говорится в принятом участниками рынка Кодексе этики ИИ. Реализация задекларированных принципов должна повысить доверие граждан к цифровым инновациям. Эксперты считают, что алгоритмы могут быть подотчетны людям лишь в критических моментах, иначе их внедрение в повседневную жизнь замедлится.
ОРИЕНТИРОВАННЫЙ НА ЧЕЛОВЕКА
ИИ – главная технология текущего века, ее можно назвать цивилизационным проектом. Такое мнение высказал вице-премьер Дмитрий Чернышенко на подписании Кодекса в октябре 2021 года.
Дмитрий Чернышенко, правительство РФ:
– Развитие ИИ имеет государственное значение. Эффективность цифровой трансформации в среднем в 6-7 раз выше при его применении, в некоторых отраслях этот показатель доходит до 10. Россия будет использовать технологии ИИ при реализации 42 инициатив социально-экономического развития до 2030 года.
Что будет, когда техника превзойдет человека по способности мыслить? Где предел вмешательства в личную жизнь, после которого индивидуум перестает быть самим собой? Каковы этические границы в мире, в котором возможности науки и техники становятся практически безграничными? Эти актуальные вопросы поднял президент Владимир Путин на встрече дискуссионного клуба «Валдай» в октябре.
Ответить на них должен Кодекс, который представляет собой ряд рекомендаций по этике для всех участников рынка ИИ. Среди основных положений документа: гуманистический подход при развитии технологии, безопасность работы с персональными данными (ПД) и другое.
В Кодексе представлены реальные кейсы от разработчиков ИИ и большой раздел, посвященный исполнению рекомендаций, рассказал управляющий директор Центра регулирования AI ПАО «Сбербанк» Андрей Незнамов. Он отметил, что аналог этого свода правил для ИИ – проект ЮНЕСКО, который будет ратифицирован в 2021 году.
Россия входит в топ-10 стран, поддержавших этическое регулирование на государственном уровне
По словам вице-премьера, это произошло благодаря сильным компетенциям российских IT-компаний – Сбера, «Яндекса», Abbyy, которые разработали внутренние корпоративные принципы в этой области. В целом пока 20 государств утвердили подобные документы. Таковые рассматриваются также в Совете Европы, ВОЗ, объединении стран G20 и т.д.
Внимание к регулированию ИИ обусловлено началом активного внедрения бизнес-кейсов в этой сфере, объяснил вице-президент по взаимодействию с органами государственной власти ПАО «МТС» Руслан Ибрагимов.
Д.Чернышенко предполагает, что до конца года к российской инициативе присоединятся не менее 100 игроков.
Руслан Ибрагимов, ПАО «МТС»:
– Кодекс хоть и является мягкой силой, но чем больше компаний его подпишут и начнут реально применять, тем быстрее на рынке появятся обычаи делового оборота. Это один из источников права.
Подписанты Кодекса отметили, что разработка и внедрение этических принципов в ИИ предусмотрена и национальной концепцией регулирования, и соответствующим федеральным проектом.
ЗАВОЕВАТЬ АВТОРИТЕТ
В России, по данным ВЦИОМ, высокий уровень принятия ИИ – 48% населения хорошо относятся к технологии. В то время как 72% граждан США, Германии, Австралии, Канады и Великобритании сомневаются в надежности алгоритмов.
Вместе с тем
65% опрошенных из 26 стран считают, что наличие этических рамок является ключевым фактором доверия к нейросетям
Большинство людей не осознают, как функционируют системы ИИ. Те же, кто понимает, относятся к ним с большой осторожностью, полагает генеральный директор InfoWatch Наталья Касперская.
Человек в своей истории уже давно ни с кем не соревновался. И страхи перед ИИ не что иное, как боязнь конкуренции людей и машин, говорит Р.Ибрагимов. По его словам, любое новое явление порождает опасения.
Руслан Ибрагимов, ПАО «МТС»:
– У рынка нет иного выбора, кроме как приучать общество к ИИ. Его модель стоит на трех китах: технические стандарты, правовые нормы и этика. Последняя должна быть в основе создания первых двух. Право – это про риски, стандарты – про надежность. Этика охватывает все и является базой, этим обусловлено внимание к ней.
В Microsoft давно принят внутренний кодекс ИИ, рассказал директор по корпоративной работе с органами госвласти Microsoft Сергей Большаков. «В августе компания опубликовала 18 рекомендаций, как сделать алгоритмы более этичными. Например, система должна представляться и сообщать человеку, если диалог ведется с ИИ. Второе – она обязана рассказать, что умеет делать».
Человекоцентричный подход должен быть превращен для машины в код, который проверяем и исполним, считает вице-президент по развитию и планированию Фонда «Сколково» Сергей Израйлит. Там поставили задачу сделать нормы поведения понятными ИИ и три года разрабатывают концепцию машиночитаемого права. Пока такого языка не существует, и если сейчас создать умную машину, то трудно ей объяснить, что такое хорошо и плохо, говорит эксперт.
Сергей Израйлит, Фонд «Сколково»:
– Участники Кодекса пока не пришли к общему мнению в части работы с ПД. Сейчас есть две крайние позиции: нужно соблюдать право – и на частную жизнь, и на предпринимательскую деятельность. Как только мы добавляем сюда ИИ, у нас возникает конфликт между этими категориями. Если право бизнеса ограничено, мы рискуем потерять суверенитет в технологиях. И тогда придется привлекать решения западных вендоров. Но целесообразнее добиться баланса.
ЦЕНА ЭТИЧЕСКОЙ ОШИБКИ
Порядка 127 инцидентов с участием умных алгоритмов зафиксированы в международной базе данных AI INCIDENT DATABASE. Накопленный опыт свидетельствует о недопустимости развития ИИ-технологий без этического регулирования, отметил Д.Чернышенко. Среди упомянутых рисков: потеря приватности, применение в неприемлемых целях, дискриминация по расовому признаку.
Последняя проблема может возникнуть, например, при использовании биометрии в режиме реального времени на автоматизированном пункте пограничного контроля, отметил директор Thales DIS в России Ильдар Скрижалин. По его словам, обеспечение недискриминационного подхода в данном кейсе – задача разработчика.
В США суды используют ИИ COMPAS для оценки вероятности повторных преступлений. В 2016 году алгоритм вынес вердикт: осужденному Эрику Лумису стоит дать шесть лет тюрьмы за первое преступление. Возмущение общества вызвал тот факт, что решение было принято на основе ИИ, но никто не смог в нем разобраться, рассказал президент МТС Вячеслав Николаев. Эксперт считает, что сегодня крайне сложно объяснить, как работает система ИИ, а непонимание напрямую связано с недоверием.
99% заключений по кредитованию физлиц и 30% – в отношении юрлиц в Сбере принимает ИИ, сообщил первый заместитель председателя правления ПАО «Сбербанк» Александр Ведяхин. По его словам, в финансовом учреждении поняли резонанс, который происходит из-за немотивированных отказов и, как следствие, недоверия людей, и стали одними из первых на рынке, кто принял внутренний кодекс ИИ.
Александр Ведяхин, ПАО «Сбербанк»:
– Невнимание к этической части создает проблемы в больших корпорациях. Это приводит к оттоку клиентов, падению стоимости компаний и в итоге к неустойчивому бизнесу.
«ИИ-действия запрограммированы, и в конкретной ситуации в банке при отрицательном ответе даже разработчики не возьмутся предсказать, почему некая совокупность обстоятельств привела к негативному результату», – подтверждает С.Израйлит.
У человека должно быть право опротестовать отказ в кредитовании, считает Н.Касперская. По ее словам, конечное решение по выдаче ссуд должно оставаться за человеком, а не за машиной. Глава InfoWatch подчеркнула, что Кодекс этики для ИИ по сути является моделью угроз, в котором предпринята попытка оценить и предотвратить их.
Вячеслав Николаев, МТС:
– Важно, что в принятом Кодексе прописано, что мы не оставляем пользователя наедине с ИИ, он всегда сможет обратиться к специалисту-человеку и оспорить решение.
Д.Чернышенко, отметил, что ИИ обладает быстрой масштабируемостью, и допущение этических ошибок при неконтролируемом распространении технологий может действительно отразиться на огромном числе пользователей. Вместе с тем риски не стоит демонизировать, а нужно минимизировать, сказал вице-премьер.
Руководитель правовой практики в сфере программного обеспечения технологий «Яндекса» Александр Гаврилин считает, что,
если контролировать действия алгоритмов на каждой стадии, это может убить саму идею внедрения умных систем
Александр Гаврилин, «Яндекс»:
– Беспилотный автомобиль на любом этапе движения принимает сотни решений в моменте. Если человек начнет анализировать этот массив информации, то машина просто никуда не поедет. Согласовываться должны только заключения, которые имеют критическое значение для прав и интересов, лишь они могут быть подконтрольны пользователю.
РЕАЛИЗОВАТЬ КОДЕКС
Этические правила предусматривают целый спектр инновационных проектов и законодательных новшеств. Часть из них планируется внедрить в текущем году.
Участники рынка считают, что при формировании правоприменительной практики целесообразно использовать зарубежный опыт. В Великобритании существует совет по ИИ, во Франции действует национальный институт по цифровой этике. В Индии работает центр по передовому опыту в области умных машин. Создание подобной структуры в России после подписания Кодекса выглядело бы логичным шагом, считает заместитель руководителя ФКУ «Аппарат Общественной палаты России» Александр Юхно. Р.Ибрагимов уточнил, что в документе прописано создание национального совета, который будет отслеживать, как применяются ИИ-практики в компаниях.
В октябре стало известно, что в программы российских вузов внедрят образовательный модуль по компетенциям ИИ. По словам директора департамента стратегического развития и инноваций Минэкономразвития Рустама Тихонова, всех и сразу погрузить в проблематику не получится. Но постепенно с проведением популяризационных кампаний, включением тематических курсов в школьные и университетские учебные планы доверие общества к ИИ и понимание базовых принципов его функционирования вырастет.
А.Незнамов напомнил, что существует план-график законодательных решений, которые нужно принять в интересах развития технологий ИИ. По словам эксперта, в частности, необходимо расширить базовые условия эксперимента по беспилотным автомобилям, создав особый доступ к данным для разработчиков алгоритмов. Р.Ибрагимов уточнил, что
в регулировании по автономным машинам уже в 2021 году нужно прописать вопросы ответственности за возможный ущерб от ИИ
Необходимы и другие поправки в существующую правовую базу.
Руслан Ибрагимов, ПАО «МТС»:
– Важный аспект реализации Кодекса – вопрос регулирования данных. Сегодня ко второму чтению в Госдуме готовится инициатива по изменению базового закона о ПД в части оборота в системах ИИ.
А.Гаврилин считает, что нужно распространить механизм экспериментальных правовых режимов (ЭПР) на инициативы по обработке ПД, создав так называемые «песочницы» данных.
Заместитель руководителя аппарата Совета Федерации Андрей Безруков предложил ряд инициатив по реализации Кодекса с обсуждением таковых на площадке СФ:
- тиражировать опыт ЭПР в регионах;
- урегулировать вопросы интеллектуальных прав в сфере ИИ;
- изучить, как будут трансформироваться трудовые отношения под влиянием ИИ;
- обсудить вопрос омбудсменства в этой области и др.
Александр Юхно, Общественная палата:
– Граждане ожидают от государства реализации социальных функций: использования ИИ для улучшения качества услуг, защиты прав граждан. Кодекс – новая форма мягкого права, которая по мере развития технологий позволяет обнаруживать зоны, требующие изменений в регуляторике.
Стоит закрепить в законодательстве, что компании, особенно из чувствительных отраслей (например, здравоохранения), сотрудничают только с теми разработчиками ИИ, которые приняли свой кодекс, считает директор по взаимодействию с органами государственной власти Abbyy Ольга Минаева. По словам эксперта, подобные директивы есть в части реализации политики импортозамещения.
ЕЩЕ ПО ТЕМЕ: