Машинный разум с высокими рисками

Государства задумываются об этических вопросах использования искусственного интеллекта

Нейросети и алгоритмы постепенно проникают во все сферы нашей жизни. С развитием искусственного интеллекта (ИИ) становятся более очевидными как потенциал, так и риски, которые он в себе несет. На днях Еврокомиссия выступила с инициативой о регулировании его использования в общественных сферах деятельности. По мнению еврокомиссаров, это необходимо, чтобы обеспечить безопасность и повысить доверие граждан к новым технологиям. Российские эксперты говорят о необходимости принятия этического кодекса для разработчиков ИИ.


ЕВРОПЕЙСКИЙ ПОДХОД

21 апреля Еврокомиссия анонсировала подготовку законопроекта, который должен обеспечить безопасность и повысить доверие граждан к технологиям ИИ. Об этом сообщается на сайте регулятора.

Ведомство опубликовало классификацию сфер, в которых не рекомендовано применение ИИ. Например,

предлагается запретить использование технологии для манипулирования поведением людей, проведения оценки поведения или социального скоринга

Отмечается, что внедрение системы удаленной биометрической идентификации в общественных местах (например, системы распознавания лиц) сможет осуществляться только для определенных целей – например, поиска пропавших детей, предотвращения террористической угрозы. Для этого потребуется специальное разрешение властей.

Также Еврокомиссия выделила перечень сфер с «высокими рисками» (транспорт, образование, медицина и др.), «ограниченными рисками» (чат-боты) и «минимальными рисками» (использование ИИ в видеоиграх или спам-фильтрах).

Чтобы попасть на рынок, высокорисковые технологические решения должны будут соответствовать строгим критериям точности, безопасности, качества данных и открытости для пользователей и регуляторов.

В свою очередь, ИИ-решения, которые представляют минимальный риск для общества, эксперты ЕС предлагают никак не регулировать. По их мнению, к этой категории относится подавляющее большинство систем ИИ.

Согласно проекту документа, компании, которые занимаются разработкой запрещенных услуг ИИ, предоставляют неверную информацию или не сотрудничают с национальными властями, могут быть оштрафованы на сумму до 4% от годового дохода.

Тьерри Бретон (Thierry Breton), комиссар по внутреннему рынку:

– Искусственный интеллект – это средство, а не цель. Он открывает огромный потенциал для развития в таких сферах, как здравоохранение, транспорт, энергетика, сельское хозяйство и туризм. Также это сопряжено с целым рядом рисков. Инициатива направлена на укрепление позиций Европы как центра передового опыта в области ИИ от лабораторных разработок до рыночного использования.

Предполагается, что за контроль будут отвечать национальные регуляторы стран ЕС. Кроме этого, будет создан Европейский совет по искусственному интеллекту (European Artificial Intelligence Board), который выработает более детальные стандарты по разработке и эксплуатации ИИ.


ЭТИЧЕСКИЙ ВОПРОС

Сегодня в России ИИ находится в фокусе внимания государственной власти и высокотехнологичных компаний, есть национальная стратегия его развития и отдельный федеральный проект. Центром компетенций федпроекта является Сбербанк.

В ноябре 2019 года президент РФ Владимир Путин на конференции Artificial Intelligence Journey предложил подумать над формированием свода этических правил взаимодействия человека с ИИ.

«Мы с вами должны обязательно помнить: нельзя изобретать технологии ради самих технологий, и наша главная цель – это устойчивое гармоничное развитие, рост качества жизни и новые возможности для людей, для граждан», – подчеркнул В.Путин.

На этой неделе в рамках Дискуссионного клуба ВШЭ и Сбера начальник Управления президента РФ по развитию информационно-коммуникационных технологий и инфраструктуры связи Татьяна Матвеева сообщила, что российскими экспертами подготовлен проект этического кодекса, его принятие может состояться до конца года.

По словам Т.Матвеевой, документ позволит, с одной стороны, повысить уровень доверия общества к технологиям ИИ, с другой стороны, – поможет разработчикам избежать возможных ошибок.

Татьяна Матвеева, Управление президента РФ по развитию ИКТ и инфраструктуры связи:

– Не нужно ждать решений от других стран – мы должны принять российские этические нормы и представлять их как передовую практику. В долгосрочной перспективе кодекс повысит шансы России для завоевания мировых рынков.

Т.Матвеева подчеркнула, что

среди принципов работы ИИ важны прозрачность, предсказуемость, ответственность, стабильность, надежность

Каждый из них не исключает, а дополняет другой. Но самым главным принципом развития, наивысшей ценностью ИИ остается человекоцентричность – он должен быть нацелен на благо человека, развитие его возможностей, созидание и помощь.

Т.Матвеева предложила принципы «верхнего уровня» закрепить законодательно, а отраслевые нормы принимать в рамках саморегулирования самими игроками рынка.

Генеральный директор ABBYYY Россия Дмитрий Шушкин в ходе заседания пресс-клуба НП «РУССОФТ» 22 апреля отметил, что многие крупные разработчики ИИ в мире сформировали собственные принципы и подходы к этике в этой сфере. «Безусловно, технологии должны быть безопасными, должны защищать персональные данные, ИИ не должен приносить вред людям, а работа алгоритмов должна быть прозрачной – нужно сделать так, чтобы было понятно, почему система принимает те или иные решения, чтобы это было объяснимо», – уверен Д.Шушкин.

Директор корпоративного развития компании Tet Виктор Торопов отметил в разговоре с RSpectr, что наиболее правильным подходом будет сочетание того, что является юридически обязательным и что носит рекомендательный характер. «Какими бы ни были правила, следует иметь в виду, что они не должны препятствовать развитию отрасли и накладывать значительную административную нагрузку на компании при регулярной оценке ИИ-решений, отчетов и так далее», – подчеркнул он.


ИИ-ПЕРСПЕКТИВЫ

Сегодня уже очевидно, что модели ИИ можно использовать для очень широкого спектра задач. В том числе для таких, о которых еще 20 лет назад говорилось, что их нельзя решать с помощью компьютерного разума и способность к их реализации является атрибутом высшей нервной деятельности. Например, сейчас ИИ может поддерживать беседу, управлять автомобилем, ставить диагноз и многое другое.

Во многих областях искусственный интеллект работает уже давно и успешно. ИИ активно применяется в:

  • промышленности и энергетике;
  • банках;
  • ритейле и онлайн-торговле;
  • телекоммуникациях и медиа;
  • PR, рекламе и маркетинге;
  • грузоперевозках и логистике;
  • HR-менеджменте.

Согласно исследованию МФТИ и Центра компетенций НТИ «Искусственный интеллект», чаще всего ИИ применяют для анализа данных (67,1%), в финансовых технологиях (17,5%) и нейролингвистическом программировании (NLP; 11%).

Руководитель Центра бизнес-аналитики RAMAX Group Сергей Левашов рассказал RSpectr, что одним из наиболее перспективных для развития искусственного интеллекта внедрений ИИ является медицина. Самым яркий пример на данный момент – кейс диагностики нейросетью коронавирусной инфекции по рентгеновским снимкам легких. Такие разработки появились в нескольких странах. В России, например, подобные решения предложили специалисты Университета Иннополис и ученые Белгородского государственного национального исследовательского университета.

«Здесь необходим регуляторный контроль, но будущее диагностики явно за платформами ИИ», – говорит С.Левашов.

Еще одно перспективное направление, по словам эксперта, – автоматический (беспилотный) транспорт. Первые шаги делают многие лидеры рынка от Tesla до «Яндекса», но алгоритмы пока сырые и не подкреплены законодательной базой, отмечает С.Левашов.

В частности,

не понятно, кого считать виновником аварии, если автомобилем управлял автопилот

Исполнительный директор компании – производителя системы мониторинга «Антисон» (ООО «КСОР») Андрей Белоусов уверен в необходимости промышленного применения решений на базе компьютерного зрения. Например, в сфере системы безопасности и контроля автотранспорта (интеллектуальные транспортные системы).

Андрей Белоусов, «КСОР»:

– Сегодня человеческий фактор – основная причина инцидентов на дорогах. 94% ДТП происходит по вине человека, а семь из десяти случаев происходят именно по невнимательности водителя. С помощью технологий ИИ возможно предотвратить ДТП и другие происшествия, связанные с состоянием водителя во время поездок, снизить риски и повысить уровень безопасности пассажиров и участников дорожного движения при несчастных случаях или ЧП.

«Антисон» уже стоит на всем пассажирском транспорте Москвы. Благодаря технологии за 2020 год удалось снизить аварийность на дорогах столицы на 26% (с учетом общего снижения пассажиропотока в условиях пандемии).

При помощи компьютерного зрения система обнаруживает факторы риска, например, человек надолго закрыл глаза и, возможно, он засыпает, и предупреждает водителя звуковым сигналом.

Генеральный директор компании Omega Алексей Рыбаков отмечает, что использование ИИ в страховании станет несомненным конкурентным преимуществом. По словам эксперта, за рубежом искусственный интеллект стал практически необходимым условием для эффективного бизнеса в этой сфере. В Россию этот тренд пришел значительно позднее, но уже появляются стартапы, которые составят конкуренцию традиционным компаниям. Они, в частности, применяют:

  • виртуальных помощников, которые в считаные секунды анализируют большие массивы данных и множество факторов, после чего предлагают застраховать конкретный набор рисков и генерируют персонализированные услуги;
  • чат-боты, которые освобождают клиентов от заполнения сложных бумаг, переводя их речь или текст в формализованные шаблоны документов;
  • технологии машинного обучения, которые могут быстро составить экспресс-оценку повреждений автомобиля или квартиры, избавляя людей от лишней рутины, и произвести выплату в считаные часы.

Накопленные данные предотвращают факты мошенничества, анализируя поведение и отсекая нечестные схемы на ранних стадиях. Например, если водитель жалуется, что во время аварии шел дождь, что увеличило тормозной путь, то ИИ проверяет данные о погоде с учетом времени, места и при необходимости дает специалисту сигнал о мошенничестве.


БЕГ С БАРЬЕРАМИ

В МФТИ на базе выручки компаний, применяющих технологии ИИ, подсчитали, что этот рынок в России составляет 291,5 млрд рублей.

В выборку вошло 480 организаций. Лидерами роста выручки в сегменте ИИ в 2019 году стали «Яндекс» (18 млрд рублей), «Лаборатория Касперского» (11 млрд) и «Инфосистемы Джет» (5 млрд рублей).

Оценить рынок по данным 2020 года пока невозможно, так как в публичном доступе информация о выручке появится ближе к маю, пояснили авторы доклада. Но по сравнению с 2018 годом рынок ИИ в 2019-м увеличился почти на 10%, говорится в исследовании.

На 2020 год Россия не входила в число стран – лидеров в области ИИ и заметно отставала по большинству направлений, отмечается в докладе. Сильнее всего разрыв в области научных исследований. Однако

в прошлом году РФ заняла первое место по уровню компетенций и навыков специалистов по ИИ в мире

В докладе подчеркивается, что один из ключевых факторов, замедляющих развитие ИИ, – недоинвестированность отрасли со стороны государства. В частности, фундаментальной и прикладной науки, опытно-конструкторских работ, создания продуктов и стимулирования потребителей. За последние три года господдержка составила около 8,7 млрд рублей, что примерно в 350 раз ниже по объему, чем аналогичные показатели в Китае.

А.Рыбаков полагает, что для России характерны те же трудности, что и для других стран. Среди барьеров для внедрения ИИ он назвал:

  • недоступность информации: для работы ИИ требуются качественные данные, чем их больше, тем лучше работает ИИ;
  • высокая стоимость внедрения;
  • риск для безопасности: при отсутствии системы защиты алгоритмы ИИ или данные могут скопировать или скорректировать в нежелательном контексте;
  • проблемы с интеграцией: при внедрении может выясниться, что разработанные алгоритмы требуют переработки других информационных систем компании;
  • человеческий фактор: часть сотрудников будет сопротивляться внедрению ИИ, поскольку это потребует переобучения или смены их трудовых функций;
  • недостаточная нормативно-правовая база: некоторые действительно инновационные вещи упираются в отсутствие законов, например, недавно компания Cognitive Pilot по этой причине заморозила проект беспилотных автомобилей.

Изображение: RSpectr, Freepik

ЕЩЕ ПО ТЕМЕ:

Этика для искусственного интеллекта
Создателей цифровых решений могут обязать встраивать инструменты защиты данных