Регулирование / Статьи
цифровизация
16.11.2020

Искусственная угроза

Стоит ли ограничивать этическими нормами работу умных машин

Западные страны озаботились вопросом контроля деятельности искусственного интеллекта (ИИ). В России наоборот – волна хайпа о его безграничных возможностях позволяет привлекать инвестиции в цифровые проекты. Эксперты считают, что угрожающий людям ИИ в ближайшее время не появится.


МЕЖДУНАРОДНОЕ РЕГУЛИРОВАНИЕ

В связи с ростом популярности ИИ власти многих стран и международные организации озаботились созданием этических принципов для умных машин.

ЮНЕСКО приступила в этом году к двухлетнему процессу разработки первого глобального нормативного документа. Организация создала специальную группу экспертов (СГЭ), которая представила государствам-членам в сентябре 2020 года первый проект Рекомендации по этическим аспектам искусственного интеллекта. Свои замечания представители стран должны внести до 31 декабря 2020 года.

В 2019 году к решению этического вопроса подключились американские военные. В Пентагоне попросили Совет по оборонным инновациям (Defense Innovation Board, DIB) разработать набор этических принципов использования ИИ в военных действиях. В феврале 2020 года свод правил был создан и утвержден.

Весной 2019 года Еврокомиссия сообщила, что компании, работающие с ИИ, должны установить механизмы, которые обеспечат подотчетность алгоритмов и позволят проследить, как искусственный интеллект принимает решения.

Чиновники комиссии выделили три необходимых ключевых момента: 

  • прозрачность;
  • надзор со стороны человека;
  • соблюдение законов о защите данных.


В ЮНЕСКО считают, что 

из-за угрозы монополизации несколькими странами технологий искусственного интеллекта необходимо ввести строгое регулирование

Иначе развивающиеся страны не будут обладать правами собственности на такие технологии, что сильно затормозит развитие их экономик.

Во всемирной организации прогнозируют, что к 2022 году добавленная стоимость от применения искусственного интеллекта может составить почти 4 трлн долларов. К 2030 году ожидается наибольший экономический рост в Китае и Северной Америке, на долю которых придется 70% глобального воздействия ИИ, отмечают в ЮНЕСКО.


БИЗНЕС ОБЪЕДИНЯЕТСЯ

Еще в 2016 году крупнейшие технологические корпорации Amazon, DeepMind (Google), Facebook, IBM и Microsoft договорились о сотрудничестве в сфере ИИ, создав этическое «Партнерство по искусственному интеллекту». Также в проекте участвуют Salesforce, eBay, Intel, SAP, Sony, ряд неправительственных и международных организаций.

В июле 2018 года 164 компании и более 2,4 тыс. человек из 90 стран мира, включая основателей DeepMind, Skype и SpaceX, обязались не разрабатывать автономное оружие на базе ИИ. В том же году компания SAP выпустила этический кодекс, которым она руководствуется при создании технологий в сфере искусственного интеллекта. Главная цель – не допустить дискриминации в отношении людей, в том числе лишения их рабочих мест.

В феврале 2020 года компания Bosch выпустила руководство с этическими принципами по использованию ИИ в своих интеллектуальных продуктах. В течение следующих двух лет Bosch планирует обучить порядка 20 тыс. сотрудников работе с ИИ.

Выступая на 4-м саммите Всемирного экономического форума по устойчивому развитию (Sustainable Development Impact Summit 2020), первый заместитель председателя правления СберБанка Александр Ведяхин перечислил риски использования искусственного интеллекта:

  • выход систем из-под контроля и причинение вреда человеку и обществу;
  • непонимание и непредсказуемость действий алгоритмов;
  • недостаточная устойчивость и надежность систем принятия решений, которые могут приводить к опасным последствиям для общества;
  • использование технологий ИИ для манипуляции общественным мнением, включая растущую опасность так называемых fakenews;
  • дискриминация людей по социальным, демографическим или расовым признакам.

Павел Катков, основатель юридической компании в сфере цифровых технологий «Катков и партнеры», рассказал RSpectr, что опасность искусственного интеллекта состоит в повышающейся самостоятельности систем.
По мнению эксперта, 

применение ИИ с параметрами самообучения в определенных отраслях стоит ограничить законодательно

«К таким сферам можно отнести стратегические направления, указанные в законе №57-ФЗ: оборона, медицина, критическая инфраструктура и безопасность», – отмечает П.Катков.


КТО ХАЙПУЕТ НА ТЕМЕ

Ряд экспертов видит за трендом внедрения ИИ много шума и спекуляций. Глава Ассоциации интернета вещей Андрей Колесников сказал в беседе с RSpectr, что все угрозы от искусственного интеллекта надуманны: «Если оценивать ситуацию не с маркетинговой позиции, а технической, то нет никакого ИИ. Есть набор детерминированных алгоритмов, которые работают по заказу людей. Нейросеть – это техническая имплементация. Существуют риски спекуляции на ИИ, когда некоторые люди хотят переложить свою персональную ответственность на искусственный интеллект, которого не существует».

Один из собеседников RSpectr, возглавляющий компанию в сфере цифровой медицины, пояснил на условиях анонимности, что 

любой проект с элементами нейросети выгодно причислять именно к ИИ

«Сегодня очень много стартапов, создающих продукты на базе самообучающихся машин. Чтобы привлечь инвесторов, надо удивить их уникальной технологией. Поэтому с 2018 года в России начался большой хайп вокруг проектов с ИИ». Наш собеседник отметил, что ожидалось снижение внимания к искусственному интеллекту в 2020-2021 годах, но цифровизация из-за коронакризиса может поддержать пиар вокруг условного ИИ. В Северной Америке уже произошло снижение интереса.

Результаты исследования PwC «Прогнозы развития технологии искусственного интеллекта» (AI predictions) в 2020 году показывают, что только 4% руководителей компаний в США планируют внедрить технологию ИИ в масштабе всей своей организации, тогда как год назад их доля составляла 20 процентов.

Эксперты отмечают, что

умные машины пока не сформировали интеллект, поэтому угроза может состоять в доверии несовершенным технологиям, работающим с ошибками

Искусственный интеллект сегодня находится на начальной стадии своего развития, поэтому выгоды от его применения пока неочевидны, а риски достаточно велики, говорит RSpectr заместитель генерального директора по науке и развитию ГК «Информационная внедренческая компания» (ГК ИВК) Валерий Андреев. «В каких-то элементарных ситуациях с простым и четким сценарием ИИ помогает принимать решения, но там, где требуется взглянуть на ситуацию под разными углами зрения, искусственный интеллект бессилен», – пояснил эксперт.

Эту проблему подтверждал в 2019 году в своем публичном выступлении Герман Греф: «Маленькая ошибка, закравшаяся в алгоритм, в нашей практике привела к потере миллиардов рублей».

О неверных рекомендациях ИИ свидетельствуют и врачи. «Нередко умные машины обрабатывая данные, делают на их основе совершенно неправильные выводы и предоставляют их специалисту. Вряд ли стоит комментировать возможные последствия лечения, построенного на неверном диагнозе», – отмечает В.Андреев.

Представитель ГК ИВК считает, что 

искусственный интеллект преждевременно назвали интеллектом

Валерий Андреев, ГК ИВК:

– ИИ совершенно несоразмерен человеческому интеллекту, и результаты его аналитических опытов пока достаточно поверхностны. Это первые «пробы пера». Опасно принимать их за глубокий объективный анализ и на его основании предпринимать действия, которые могут повлиять на жизнь и здоровье людей, экологию и функционирование бизнеса.

Эксперт признает, что нынешний ИИ нужен в ряде отраслей, где можно сэкономить время и человеческие ресурсы, ускоряя процессы за счет машин. «Например, при построении моделей белковых молекул в ходе их конформационного анализа, когда нужно обработать колоссальный объем исходных данных», – отмечает он.


СОВРЕМЕННЫЙ ИИ НЕ ЗАХВАТИТ МИР

Этические принципы нужны не столько для защиты от коварных планов растущего ИИ, сколько от его ошибок, которые могут быть опасны для жизни.

Если система столкнется с не предусмотренной автором комбинацией условий, то искусственный интеллект может принять неверное решение, выйдя за рамки утвержденных параметров, поясняет RSpectr руководитель проектного офиса по ИИ АО «ЭР-Телеком Холдинг» Игорь Михайловский.

Эксперт считает, что 

важно иметь возможность оперативного отключения системы

«Пока мы работаем со специальными отраслевыми видами ИИ. Всеобщий искусственный интеллект ожидается через несколько десятилетий. До этого времени необходимо отработать практику применения этических принципов на профильных видах ИИ», – сообщил RSpectr генеральный директор IT-компании Omega Алексей Рыбаков.

«В настоящее время большая часть исследований направлена на практическое применение технологий слабого искусственного интеллекта (СИИ), решающих узкие задачи, и потенциально на технологии обобщенного ИИ (ОИИ)», – рассказал RSpectr ведущий специалист Data Science компании Bell Integrator Иван Прошин.

Основатель VizorLabs (разрабатывает системы компьютерного зрения и видеоанализа на основе ИИ и нейросетей) Василий Долгов в разговоре с RSpectr отмечает риски, связанные с использованием системы.

Василий Долгов, VizorLab:

– Этические аспекты применения ИИ вызваны не свойствами самой технологии, а различными аспектами ее применения. Основной риск – это сбор и использование персональных данных (ПД). Поэтому технологии, позволяющие обходиться без ПД, будут развиваться и пользоваться спросом. Например, определение пола и возраста человека уже возможно без распознавания лица.

«Порядка 17% рабочего времени тратится на сбор информации, 16% на обработку данных, до 18% приходится на предсказуемые физические активности на производстве. Вероятно, до 80% этого времени вскоре будет автоматизировано силами ИИ», – делится прогнозами с RSpectr директор по инновационным решениям Oberon Евгений Овчаров.

Несмотря на разные оценки эффективности, все понимают, что умные машины войдут в жизнь человека навсегда. Сложно отрицать их очевидные преимущества перед человеком: точность, высокая пропускная способность, масштабируемость. ИИ необходим современной экономике.

Изображение: RSpectr, Pixabay.com

ЕЩЕ ПО ТЕМЕ:

Как роботы меняют экономику
Умные цифровые помощники для новых отраслей осваивают человеческие навыки


Еще по теме

Что нужно знать родителям о влиянии искусственного интеллекта на детей

Как повлияет система обязательного страхования от утечек на операторов ПД

Каким стал профиль современных киберугроз

Готовы ли госкорпорации тратить из бюджетов не менее 70% на ПО-вендоров

Зачем операторам связи упростят доступ в многоквартирные дома

Как бизнес будет работать с биометрической информацией в новых условиях

Как попасть и не выпасть из реестра провайдеров хостинга

Какие меры безопасности примут провайдеры для борьбы с нелегальными доменами

ФСТЭК, НКЦКИ и Минцифры обозначили приоритеты в защите КИИ, госинформсистем и персональных данных

Почему безопасность «с пеленок» станет неотъемлемой частью всех киберсистем

Власти и участники телеком-рынка оценили перспективы защищенности суверенной информационной инфраструктуры

Что сейчас обсуждают специалисты по защите персональных данных

Почему компаниям не надо быть святее Папы Римского при защите персональной информации

Чего ожидать от нейросетей и как избежать необратимых последствий

Что нужно знать юристу, решившему работать в ИТ-компании