Регулирование / Статьи
за рубежом персональные данные цифровизация
6.10.2021

Человек, робот и закон

В мире возникает новый правовой порядок для искусственного интеллекта

Власти Китая представили этические правила использования искусственного интеллекта (ИИ). Эта мера – один из эпизодов взрывного роста интереса к общественным отношениям, связанным со смарт-технологиями. Эксперты Научно-технического центра Главного радиочастотного центра (НТЦ ГРЧЦ) сравнили опыт правового регулирования этой сферы в разных государствах.


КОДЕКС ДОЛЖНЫ ЧТИТЬ

В конце сентября Министерство науки и технологий Китая опубликовало «Кодекс этики искусственного интеллекта». Согласно ему, ИИ должен:

  • быть контролируемым;
  • заслуживать доверие;
  • повышать человеческое благополучие;
  • обеспечивать честность и справедливость;
  • защищать приватность и безопасность;
  • повышать этическую грамотность.

Люди имеют право выбора, пользоваться услугами с применением ИИ или прекращать работу с ними в любое время, говорится в документе.

В КНР на государственном уровне подобный стандарт разработан впервые, пишет South China Morning Post. С помощью него Китай стремится обеспечить себе мировое лидерство в этой области к 2030 году и ослабить влияние глобальных технологических компаний, отмечает издание.

Российский кодекс по этике ИИ будет представлен для рассмотрения в правительстве уже в конце октября. Он разработан участниками Альянса в сфере искусственного интеллекта совместно с Аналитическим центром при правительстве РФ и Минэкономразвития. Документ станет частью федерального проекта «Искусственный интеллект» и Стратегии развития информационного общества на 2017–2030 годы.


ВСЕМ МИРОМ

Бурным дискуссиям о регулировании ИИ способствует резкое усиление влияния инноваций во всем мире из-за пандемии, отмечают эксперты Главного радиочастотного центра в своем исследовании. По их мнению,

информационные технологии по своей природе имеют трансграничный характер, их регулирование только на национальном уровне вряд ли будет эффективным

Разработка таких международных документов уже началась – ЮНЕСКО, Организация экономического сотрудничества и развития, Совет Европы, ООН сейчас активно обсуждают их.

Верховный комиссар ООН по правам человека Мишель Башле (Michelle Bachelet) в сентябре призвала запретить применение технологий ИИ, несущих риск реализации человеком своих прав. Верховный комиссар обращает внимание на стремление частных компаний к сбору как можно большего объема персональных данных (ПД). Накопление, хранение, анализ гигантских массивов сведений делают человека уязвимым перед бизнесом и государством, отмечает она. Получение некоторыми госструктурами прямого доступа к ПД, накапливаемых компаниями, увеличивает риск незаконного вмешательства в частную жизнь людей и их фундаментальные права, подчеркивает представитель ООН.

Мишель Башле, ООН:

– Деятельность социальных сетей по сбору и анализу ПД, профилированию людей, таргетированию, персонализации рекламы, контента и рекомендаций, попытки предсказывать поведение людей и влиять на него являются одной из наиболее серьезных угроз правам и свободам человека.

Проанализировав последние события, специалисты НТЦ ГРЧЦ пришли к выводу, что развитое и современное законодательство о защите прав субъектов персональных данных является основой правового регулирования и предпосылкой для ответа на вызовы, создаваемые ИИ-системами. По мнению экспертов,

наибольшим потенциалом для регулирования ИИ обладают европейские документы о защите персональных данных: General Data Protection Regulation (GDPR) и Конвенция 108+

Их преимущества: технологическая нейтральность, сбалансированный и риск-ориентированный подходы, использование гибких инструментов, независимость и значительные полномочия надзорных органов, а также эффективные механизмы реализации и правоприменения.

Но ни одна юрисдикция не способна в одиночку обеспечить регулирование и контроль над решениями на основе машинного интеллекта. Поэтому, считают в НТЦ ГРЧЦ,

только сочетание национальных и глобальных правовых инструментов, тесное сотрудничество стран и наличие международных механизмов принудительного правоприменения способны заставить ИИ служить людям

При этом регулирование смарт-технологий требует гибких подходов: саморегулирования, стандартизации, морально-этической коррекции, маркировки, использование кода и метаданных.


В ПОИСКАХ БАЛАНСА

В России регулирование сферы ИИ началось не так давно: в 2019 году была утверждена Национальная стратегия развития искусственного интеллекта на период до 2030 года. В 2020 году принят закон, в котором содержится понятие «искусственный интеллект». Закреплено и определено это понятие и в Стратегии, также там описаны «технологии ИИ», «набор данных», «вычислительная система» и другие – всего 12 терминов, которых нет в законе «Об информации, информационных технологиях и о защите информации». Об этом рассказал RSpectr управляющий партнер адвокатского бюро «Матюнины и Партнеры» Олег Матюнин. Введение в закон терминов, закрепленных в Стратегии, – принципиальный момент для развития законодательства, подчеркивает он.
В пункте №19 «Стратегии» перечислены принципы развития и использования умных технологий. Они имеют все шансы стать правовыми и войти в закон об информации, считает эксперт.

Олег Матюнин, «Матюнины и Партнеры»:

– Стратегия называет законные и незаконные направления и цели использования ИИ, и их тоже имеет смысл перенести в исходном или переработанном (расширенном) виде в правовые нормы.

По его мнению,

начало регулирования ИИ положено, и задача государства – дойти в распределении допустимого и недопустимого, поощряемого и запрещаемого до логического конца

Юрист Центра интеллектуальной собственности «Сколково» Алла Тиунова перечислила RSpectr наиболее острые и дискуссионные вопросы взаимодействия нейросетей и права.

  • Возможность признания ИИ субъектом права. Одной из частных целей наделения ИИ правосубъектностью является возможность возложить на него ответственность за причиненный вред.

Алла Тиунова, Центр интеллектуальной собственности «Сколково»:

– Реальной возможности получить от ИИ возмещение вреда нет – он не имеет обособленного имущества, из которого впоследствии будут удовлетворены требования, не способен самостоятельно отстаивать свои интересы в суде. Так или иначе отвечает владелец или разработчик технологии.

  • Взаимодействие технологий ИИ и права интеллектуальной собственности. По мнению А.Тиуновой, здесь возникают вопросы о правовом режиме результатов деятельности умных систем и возможности их квалификации в качестве объектов интеллектуальной собственности. «Если мы положительно отвечаем на данный вопрос, возникает новый – кому принадлежат личные неимущественные и исключительные права и, соответственно, может ли быть искусственный интеллект субъектом права на создаваемые им объекты», – рассуждает юрист.
  • Вопросы правомерности использования объектов интеллектуальной собственности, в частности, объектов авторских и смежных прав, технологиями.

«Сейчас важно определить, какие основания свободного использования будут наиболее релевантными для технологий ИИ, и внести соответствующие изменения [в законодательство]. Они позволят избежать ситуаций, когда применение объектов интеллектуальной собственности для машинного обучения, например, будет признано нарушением исключительного права», – полагает она.

В любом случае вносимые в законодательство изменения должны быть поступательными, оправданными, отвечающими действительным потребностям общества, подчеркивает юрист.

Основатель и продюсер компании «РОББО» Павел Фролов отметил в разговоре с RSpectr, что правовая среда должна поддерживать баланс между интересами разработчиков инноваций и их потребителей. Для этого в российском законодательстве важно определить границы полномочий ИИ и сформировать типовые требования к умным системам, которые позволят гарантировать их качество и безопасность для заказчиков.

Павел Фролов, «РОББО»:

– При разработке нормативных актов, регулирующих сферу ИИ, нужно привлекать участников рынка: поставщиков соответствующих систем, их заказчиков и научно-исследовательские организации. Отличный пример – 23 Азиломарских принципа искусственного интеллекта, опубликованных в 2017 году при содействии Future of Life Institute и подписанных четырьмя тысячами экспертов.

Самым актуальным вопросом правового регулирования ИИ-систем, по мнению декана факультета интернет-профессий и искусственного интеллекта Университета «Синергия» Ильи Дубинского, являются правила работы с персональными данными.

Илья Дубинский, Университет «Синергия»:

– С одной стороны, ПД необходимо защитить, а с другой – дать компаниям возможность пользоваться ими, чтобы бизнес мог совершенствовать свои продукты и сервисы на основе машинного обучения.

По словам юриста GMT Legal Снежаны Поцелуевой, важно учитывать, что сейчас сложно говорить о существовании действительно «искусственного интеллекта», который был бы схож с человеческим разумом. «Современные программы, безусловно, умеют самообучаться, однако это происходит на основании анализа больших объемов данных. В этой связи необходимо сотрудничество экспертов в сфере IT и экспертов в сфере права для целей выведения наиболее оптимальных нормативных положений», – пояснила она RSpectr.

При этом необходимо осознавать автономность систем ИИ. Поэтому вопрос разграничения ответственности стоит остро, подчеркивает С.Поцелуева.

Изображение: RSpectr, Freepik.com

ЕЩЕ ПО ТЕМЕ:

Машинный разум с высокими рисками
Государства задумываются об этических вопросах использования искусственного интеллекта


Еще по теме

Каких поставщиков услуг хостинга выбрало государство для своих информсистем

Регуляторы и производители поспорили о стоимости отечественного ПО

Готовы ли бизнес и госсектор к выполнению требований президента об импортозамещении ПО

Эксперты обсудили идею введения штрафов за сбор избыточных персональных сведений

Эксперты отрасли оценили предложенный Минтрудом профстандарт ИБ-специалиста по защите КИИ

Как добиться максимальной компенсации в суде при защите персданных

Как институт уполномоченных операторов персданных поможет бизнесу

Как новый закон об обезличивании персданных повлияет на бизнес

Почему расследованием инцидентов с персональными данными должны заняться цифровые криминалисты

При каких условиях в организации может начаться проверка защиты персданных

Помогут ли механизмы самоконтроля операторов в защите личной информации граждан

Нужен ли ИТ-рынку национальный стандарт доверенной среды исполнения

Почему ограничения в размещении базовых станций угрожают развитию сетей связи

Поможет ли риск-ориентированная модель безопасному обороту персональных данных

Нужна ли правосубъектность искусственному интеллекту