Искусственный интеллект в медицине – зеркало социального неравенства

Чем больше масштаб внедрения технологий искусственного интеллекта, тем чаще люди задумываются о таких ценностях, как справедливость, равенство, гуманность
21 марта 2021  19:21 Отправить по email
Печать

Исследование Кембриджского университета показало, что уже при машинном обучении медицинских систем искусственного интеллекта закладывается дискриминация национальных меньшинств, групп с низким социальным статусом, людей, не имеющих доступа в интернет и просто редко обращающихся к врачам. Применение неадекватных критериев диагностики для пациентов из подобных групп приводит к резкому росту ошибок при диагностике и назначении лечения.

Чем больше масштаб внедрения технологий искусственного интеллекта (ИИ), тем чаще люди задумываются о таких ценностях, как справедливость, равенство, гуманность. Особенно остро вопрос о несправедливости распределения благ и медицинской помощи, реализующегося системами управления с ИИ, стоит в Индии, сохраняющей устои традиционного кастового общества. Об этом пишет Соумья Рамасубраманян в своей статье «Мнение экспертов: использование ИИ для борьбы с COVID-19 может нанести вред малоимущим группам населения», опубликованной индийским информационным агентством The Hindu 19 марта 2021 года.

В 2020 году IT-компании в разных странах мира разработали методы, позволяющие использовать возможности больших данных и машинного обучения в медицине. Модель, разработанная Массачусетским технологическим институтом, использует искусственный интеллект (ИИ) для выявления бессимптомных пациентов с вирусом COVID-19 посредством записи кашля на их смартфоны. В Южной Корее компания использовала облачные вычисления для сканирования рентгеновских снимков грудной клетки для наблюдения за инфицированными пациентами.

ИИ и машинное обучение широко применялись во время пандемии, а их использование варьировалось от обработки данных до распространения вакцины. Но эксперты из Кембриджского университета поднимают вопросы об этической стороне использования ИИ, поскольку считают, что технология имеет тенденцию наносить вред национальным и прочим меньшинствам и лицам с более низким социально-экономическим статусом.

«Ослабление этических требований в условиях кризиса может иметь непредвиденные пагубные последствия, которые продлятся намного дольше, чем период пандемии», — сказал Стивен Кейв, директор Кембриджского центра разведки будущего.

Например, прогнозирование с помощью ИИ ухудшения состояния пациентов, которое требует вентиляции лёгких, может быть ошибочным, поскольку модель ИИ использует предвзятые данные. Наборы данных, использованные для машинного обучения алгоритмов, не соответствуют группам людей, которые редко пользуются услугами здравоохранения, таким как представители этнических меньшинств и групп с низким социальным статусом.

Другая проблема заключается в том, как используются алгоритмы для распределения вакцин на местном, национальном и глобальном уровнях.

«Во многих случаях ИИ играет центральную роль в определении того, кто лучше всех сможет пережить пандемию. В условиях кризиса здравоохранения такого масштаба ставки на справедливость и равенство чрезвычайно высоки», — сказала Алекса Хагерти, научный сотрудник Кембриджского университета.

Исследователи также отмечают, что дискриминация национальных меньшинств закладывается в технологии ИИ при выборе симптомов из медицинских записей пациентов.

Использование мобильных приложений для отслеживания контактов во время пандемии также подверглось критике со стороны нескольких авторитетных экспертов по всему миру. Они заявили, что такие приложения не могут помочь тем, у кого нет доступа к интернету, и тем, кто не обладает цифровыми навыками. К недостаткам приложений можно отнести и проблемы с конфиденциальностью персональных данных пользователей.

В Индии программы биометрической идентификации связаны с программой вакцинации, что вызывает опасения по поводу конфиденциальности и безопасности данных. Алгоритмы распределения вакцин, в том числе те, которые используются международным проектом COVAX, управляются ИИ, разработанным частной компанией. Хагерти отметила, что эти алгоритмы частных компаний больше напоминают «черный ящик».

Подписывайтесь на наш канал в Telegram или в Дзен.
Будьте всегда в курсе главных событий дня.

Комментарии читателей (0):

К этому материалу нет комментариев. Оставьте комментарий первым!
Нужно ли ужесточать в РФ миграционную политику?
Какой общественно-политический строй в России?
43% социалистический
Подписывайтесь на ИА REX
Войти в учетную запись
Войти через соцсеть