На искусственный интеллект сейчас обращают все большее внимание наряду с интернетом вещей, облачными вычислениями и блокчейном. На него возлагаются большие ожидания – а порой даже слишком большие. Но, как и в отношении любой технологии, по поводу ИИ возникают этические вопросы, связанные с рисками ненадлежащего использования – будь то умышленное злоупотребление или случайная ошибка. Особенно остро эти вопросы стоят тогда, когда от ИИ зависит жизнь человека – например, при его использовании в медицине.

Пётр Крамек, Data Science & Engineering Team Leader, SAS, рассуждает о том, как должен выглядеть этичный ИИ в здравоохранении.

В секторе здравоохранения на новые технологии возлагают большие надежды, связанные с решением насущных проблем – в первую очередь ждут, что они помогут справиться с ростом издержек и нехваткой медперсонала при растущем спросе на услуги. При этом предполагается. что одну из ключевых ролей в преобразовании сектора здравоохранения сыграет ИИ. Но важно, чтобы его применение не нарушало норм этики, а для этого необходимы три вещи: регулирование использования, объективность и объяснимость.

Регулирование использования

Данные – это нефть 21 века, «топливо» для искусственного интеллекта. Но чем больше генерируется данных, тем серьезнее наши опасения по поводу сохранения конфиденциальной информации. Скандалы последних лет, связанные с утечками, особенно инцидент с Cambridge Analytica, показали, что при наличии достаточного количества информации можно предсказывать поведение людей и влиять на решения отдельных лиц в угоду политическим целям.

В секторе здравоохранения такие опасения тоже есть. Существуют компании, которые проводят генетические тесты и собирают базы данных ДНК. Это чрезвычайно секретная информация, которая может причинить серьезный ущерб, если окажется не в тех руках. И одновременно эти хранилища генетических данных способны стать источником бесценных сведений для медицинских исследований. То есть необходимо обеспечить конфиденциальность личной информации, но в то же время содействовать научному прогрессу.

Как следствие, нужны адекватные меры регулирования, надзора и обеспечения безопасности. Мы должны гарантировать, что медицинские данные будут использоваться только в надлежащих целях в ограниченном объеме, что доступ к ним будут только у уполномоченного персонала и оговоренных алгоритмов. Мы также должны гарантировать, что при каждом использовании такие данные будут проходит процедуру объективной оценки их добавочной ценности и потенциальной опасности.

Объективность

Эффективность машинного обучения напрямую зависит от качества, количества и репрезентативности данных, используемых для обучения моделей. Одна из самых частых проблем – перекос в выборке данных, когда превалируют одна часть аудитории, а другая почти не представлена. Это обычно называют алгоритмической предвзятостью ИИ. Как следствие, ИИ-модели часто дают худшие результаты по менее представленным группам населения.

Например, если данные о мужчинах превалируют над данными о женщинах, то модели будут работать точнее в отношении мужчин. Модели для диагностики рака кожи, которые обучаются в основном на пациентах со светлой кожей, будут давать менее точные результаты применительно к пациентам с более темной кожей. В секторе здравоохранения, плохая работа модели применительно к определенной группе пациентов может быть источником недостоверной информации, что приведет к неправильно поставленным диагнозам и неэффективному лечению.

Введение необъективных данных в ИИ-модели приведет к системной предвзятости, от которой мы всеми силами стремимся избавиться. Учитывая то, насколько сильно тот или иной результат работы ИИ может отразиться на пациентах, чрезвычайно важно, чтобы модели обучались на диверсифицированных данных, где представлены все группы населения.

Объяснимость

Некоторые алгоритмы, традиционно используемые в системах ИИ, в том числе в нейронных сетях, считаются «черными ящиками»: это означает, что система выдает результаты, но невозможно объяснить, почему она сделала такой вывод. Мы можем задать определенные параметры и изменить исходные данные, добавив новые характеристики. Однако у нас нет четкого представления о том, почему алгоритм отнес то или иное наблюдение в ту или иную категорию.

Как следствие, мы можем получить очень точную модель, которая дает неожиданные результаты. Широко известен случай, когда исследователи обучили алгоритм различать собак и волков. Результаты были очень точными, но, как оказалось, алгоритм принимал решение на основании фона на картинке, а не силуэта животного или цвета шерсти: в данных для обучения модели на всех изображениях волков были деревья или лес.

Поэтому важна объяснимость: необходимо интерпретировать, понимать и знать, на чем «черные ящики» основывают свои решения. Когда речь идет о здравоохранении, неправильная классификация может вызвать ситуацию, опасную для здоровья и даже жизни человека. Соответственно, очень важно иметь возможность проверить все аспекты данных, используемых алгоритмами. Иногда использование менее сложных моделей обеспечивает более высокую объяснимость.

Линейная регрессия или дерево решений могут обеспечить достаточный уровень точности и дать хорошее представление о том, какие переменные и факторы стали ключевыми для модели. Когда мы используем более сложные модели, нам потребуются дополнительные инструменты для поддержки объяснений. Но и в том, и в другом случае специалисты должны проверить объяснение на предмет потенциальных ошибок и сомнений в выборе переменных и характеристик, использованных моделью.

Ошибаются не только люди

Алгоритмы ИИ, работающие по этим принципам, могут эффективно подтвердить диагноз и помочь врачам в лечении. В качестве примера можно привести сотрудничество компании SAS и медицинского центра Amsterdam University Medical Center (UMC) по оценке результатов компьютерной томографии. Алгоритмы глубокого обучения с использованием машинного зрения повышают скорость и точность оценки по снимкам КТ, как организм пациента реагирует на химиотерапию. Алгоритмы оценивают общий объем опухоли (в сравнении с традиционными плоскостными замерами, которые делает рентгенолог).

Это помогает врачам выбрать наиболее действенную стратегию лечения. Как отмечает доктор Гирт Каземир (Geert Kazemier) из медицинского центра Amsterdam UMC, технологии ИИ должны быть прозрачными и открытыми, если мы хотим их использовать для преобразования сектора здравоохранения: «Если вы создаете алгоритмы, чтобы помочь врачам принимать решения, должно быть понятно, что конкретно алгоритм делает. Только представьте, какими могут быть последствия, если он предложит то, что навредит пациенту, а врач последует его совету. Увы, но факт, ошибаться свойственно не только людям».


Новые комментарии:

Ваш адрес email не будет опубликован. Обязательные поля помечены *