/ IT

ВОЗ предупредила о рисках использования ИИ в медицине

Всемирная организация здравоохранения (ВОЗ) призвала «защитить автономию человека» при принятии решений в сфере медицины и сохранить конфиденциальность персональных данных пациентов. Применение искусственного интеллекта (ИИ) в медицине может принести большую пользу, однако это чревато рисками, которые необходимо минимизировать.

Об этом говорится в опубликованном докладе ВОЗ. «Как и все новые технологии, искусственный интеллект имеет огромный потенциал улучшения здоровья миллионов людей в мире, но, как и все технологии, он может быть неправильно использован и нанести вред», – сказал генеральный директор ВОЗ Тедрос Гебрейесус. Он считает, что доклад ВОЗ призван стать для государств «ценным руководством в том, как добиться максимальной пользы от применения ИИ и при этом минимизировать риски и избежать ловушек».

Авторы доклада предупреждают, в частности, что не следует переоценивать пользу ИИ в тех случаях, когда его внедрение осуществляется за счет инвестиций, необходимых для достижения всеобщего охвата населения услугами здравоохранения. Кроме того, указывается на риски, связанные с «неэтичным сбором и использованием данных» о пациентах, а также обращается внимание на необходимость обеспечения безопасности пациентов, включая кибербезопасность. По словам экспертов, «нерегулируемое применение ИИ может поставить права пациентов и общин в подчиненное положение в отношении мощных коммерческих интересов технологических компаний или же интересов правительств в сфере наблюдения и социального контроля».

Авторы доклада предлагают странам для снижения этих рисков руководствоваться шестью принципами. Первый из них гласит, что необходимо «защищать автономию человека» при принятии решений в медицинской сфере: именно «люди должны всегда сохранять руководство в лечебных системах». Кроме того, следует обеспечить «приватность и конфиденциальность» в здравоохранении, и пациентов надо информировать о «юридических рамках защиты данных».

Среди других рекомендованных экспертами принципов – контроль за качеством систем ИИ, их безопасностью и эффективностью, транспарентность используемых технологий, определение ответственности за надлежащую работу систем. Кроме того, как считают в ВОЗ, ИИ должен использоваться в медицине при обеспечении «максимально возможного широкого равноправного доступа» к услугам здравоохранения без дискриминации. Наконец, разработчикам при создании систем ИИ в медицине необходимо заботиться об энергоэффективности и минимизировать негативные последствия для окружающей среды.

Исполнительный директор Департамента рынка капиталов ИК «УНИВЕР Капитал» Артем Тузов сказал RSpectr, что риски, о которых пишет в своем докладе ВОЗ, по большей части повторяют стандартные опасения, связанные с применением искусственного интеллекта.

«В частности, там говорится о рисках неправомерного использования собираемых ИИ данных, хотя этот риск, скорее, несет не сам ИИ, а те люди, которые им управляют или обслуживают. <…> Почти все указанные претензии можно предъявить ко всем передовым медицинским разработкам – как правило, сначала они доступны только богатым, но постепенно цена снижается благодаря обходу патентов и массовому производству. Кроме того, упоминается о необходимости сохранения принципа «автономности человека», то есть окончательные решения в любом случае должен принимать человек. Видимо, таким образом рекомендатели страхуются от некоего гипотетического «восстания машин», – считает эксперт.

А.Тузов отметил, что в докладе представлены не все риски применении ИИ в медицине. По его мнению, нужно обратить внимание и на то, что по мере передачи решения сложных задач в компетенцию ИИ, снизятся требования к знаниям и навыкам врачей. Это несет как риск роста безработицы, так и угрозу того, что связь между медицинской практикой, теоретическими исследованиями и медицинским образованием будет теряться. Причиной этого эксперт называет то, что обычные операторы ИИ на местах не будут способны самостоятельно оценивать новые выявленные угрозы и искать их решение, передавать свой практический опыт новым поколениям медиков.

«Также, в случае некоей ситуации, при которой работоспособность ИИ будет массово нарушено, человечество может оказаться перед лицом отсутствия подготовленных медицинских кадров, способных работать без помощи ИИ. А таких рисков немало, от неких катастроф, приводящих к перебоям в электроснабжении и нарушению линий связи, до компьютерного взлома, внедрения вирусов и сбоев системы», – уверен А.Тузов.

Тем не менее, добавляет эксперт, эти риски пока несут гипотетический характер. «Даже в такой упорядоченной системе, как дорожное движение, искусственный интеллект периодически сталкивается с неразрешимыми задачами. Это вынуждает сохранять человеческий контроль над автомобилями с автопилотом, в такой сложной системе, как человеческий организм. Поэтому ИИ еще долго не будет позволено самостоятельно принимать решения. Ведь платить по юридическим искам от пострадавших придется все-таки людям, а не компьютерам, – рассуждает А.Тузов. – В тех странах, которые имеют технические и финансовые возможности для широкого внедрения ИИ риск быть засуженным ловкими адвокатами остается довольно высоким. Впрочем, живые врачи тоже не застрахованы от ошибок, даже если им помогает ИИ».

Специалист центра машинного обучения ИТ-компании «Инфосистемы Джет» Егор Кривов сказал RSpectr, что риски ИИ в медицине подобны сложностям, возникающим при использовании любой другой новой технологии: нужно аккуратно отслеживать качество ее работы. По этой причине многие системы с применением ИИ для здравоохранения работают в режиме «второго мнения», не заменяя человека, а дополняя его.

«Я принимал участие в создании системы для разметки опухолей головного мозга, и эта разметка отправлялась к специалисту, который проверял ее, исправлял возможные ошибки и только потом использовал разметку для лечения. В конечном итоге система ускоряла операции, но ее работа всегда проверялась специалистом», – рассказал эксперт.

По его мнению, специфичные риски ИИ связаны с использованием данных при создании системы. Из этого вытекают вопросы приватности данных, конфиденциальности, владения данными и возможные смещения качества работы алгоритма из-за недостатка данных специфических категорий пациентов среди группы для обучения модели, считает Е.Кривов.

Медицина считается ключевой областью для внедрения ИИ, продолжает эксперт. По его мнению, в первую очередь такие системы могут помочь врачу решать рутинные трудоемкие задачи, требующие большого внимания:

  • анализ изображений КТ;
  • МРТ;
  • рентгена.

«Есть исследования, показывающие, что сочетание «человек + машина» работает лучше, чем просто человек, но это нужно проверять на каждой задаче по отдельности. Также ИИ используется для ускорения создания лекарств и для постановки диагноза по текстовым данным. – рассказывает Е.Кривов. – Прямо сейчас в Москве идет тестирование ИИ для обработки рентгеновских снимков. Отобрали 21 компанию, каждая предоставила свои решения для задачи диагностики заболеваний. В ежедневном режиме их запускают и проверяют результаты, обрабатывая около 4,5 тыс. инструментальных исследований в день».

Е.Кривов считает, что, несмотря на все риски, в будущем ИИ будет обязательным инструментом врачей, как и анализы крови, УЗИ, КТ и МРТ, которые тоже считались когда-то экспериментальными технологиями.

Руководитель направления Industry X Accenture в России Антон Епишев сказал RSpectr, что риски, указанные в докладе, действительно существуют. ML-модели обучаются на данных, и разработчикам по разным причинам проще собирать данные в развитых странах.

«При таком обучении суждения, полученные при помощи моделей, могут быть предвзятыми, не учитывать сложность ситуации – просто потому, что система машинного обучения не встречалась с таким раньше. Помимо проблем с выборкой данных для обучения, есть еще значимый риск в части распределения обязанностей. Если человек видит, что работу за него делает машина, он склонен полностью отдавать свои задачи и полагаться на машину больше, чем на себя. Поэтому должны быть прописаны очень четкие регламенты того, как врач должен пользоваться разработанными моделями: он должен всегда понимать, что его мнение приоритетно. Также должен быть длительный период внедрения и адаптации», – считает эксперт.

По словам А.Епишева, сейчас нет особой возможности остановить распространение использования ИИ в медицине, важно научиться с ним существовать и правильным образом взаимодействовать. Использование продвинутых технологий в медицине дает врачам огромное преимущество, считает эксперт. Он отметил, что ради этого стоит преодолеть некоторые сложности, связанные с внедрением ИИ и адаптацией.

«С одной стороны, медицина очень консервативная сфера. С другой стороны, малейшие изменения могут привести к разрушительным последствиям. Безусловно, здравоохранение будет долго адаптироваться и привыкать к тому, что теперь есть помощники. Но если посмотреть на эксперименты, можно увидеть, что мнение врача, сопровожденное ИИ, значительно точнее, нежели отдельно врача или машины. Совместная работа врача и машинного обучения, определяющего онкологию, повышает точность диагноза до 96%», –- привел пример В.Епишев.

Сегодня технологии значительно опережают регулирование и существуют некоторое время в «сером» поле, продолжает эксперт. Затем подтягивается нормативная база – часто предусматривающая введение множества ограничений – и происходит откат. В медицине все будет развиваться по аналогии, считает А.Епишев. С точки зрения перспектив применения ИИ в медицине – все начнется с систем поддержки принятия решений на основании статистического анализа данных, моделей компьютерного зрения. В медицине много бюрократии и работать с ней помогут алгоритмы машинного обучения: в частности, они могут применяться для анализа текстов диагнозов и историй болезни, заключил эксперт.

Изображение: Freepik.com

Систему QR-кодов в Москве могут расширить
29.06.2021, 16:30
Следующая новость