Я загружаю свои данные по крови, весу, давлению, количеству пройдённых шагов, сердечным ритмам, состоянию сна и т.д. в Perplexity. Множество людей по всему миру делают это. Я и раньше любил заниматься самолечением — теперь просто раздолье. Знакомая провизор присылает из Турции любые таблеточки по цене раз в пять ниже чем у нас в ЕС, конечно, без помощи моего семейного доктора, который сам использует AI.

The Wall Street Journal пишет: все больше американцев загружают свои медицинские данные в ИИ‑чатботы, надеясь получить персонализированные рекомендации. Но вместе с удобством растут и риски: использование искусственного интеллекта в сфере здоровья остаётся вне рамок традиционных медицинских стандартов конфиденциальности.

По данным опроса KFF, треть взрослых в США обращались к ИИ за медицинскими советами в течение последнего года, и 41% из них загружали в чатботы личные медицинские сведения.

Популярные сервисы — ChatGPT, Claude, Perplexity, Microsoft Copilot — внедрили функции подключения к Apple Health, носимым устройствам и медицинским записям. Интеграции отключены по умолчанию, но включаются одним нажатием.

Чтобы предоставить доступ к медкарте, пользователи проходят верификацию через сторонние сервисы: скан лица, дата рождения, номер телефона, документы. Затем выбирают категории данных — от лекарств до лабораторных анализов.

Что умеют чатботы

ИИ‑модели анализируют показатели здоровья, сопоставляют их с симптомами и дают рекомендации, учитывая историю болезней.

Автор статьи протестировала Claude и Perplexity в трёх сценариях:

1. Оценка риска сердечно‑сосудистых заболеваний

Оба чатбота изучили липидограмму и данные Apple Watch. Оценка риска оказалась низкой. Perplexity дал более клинически точный ответ, запросив дополнительные данные. Claude, по мнению врача‑консультанта, слишком серьёзно воспринял показатели фитнес‑трекера.

2. Подбор добавок для сна и тренировок

ИИ рекомендовал магний и креатин, указал на отсутствие анализа железа. Сравнение с OpenEvidence — инструментом, основанным на медицинских исследованиях, — показало совпадение рекомендаций.

3. Усталость и боль в горле

Оба чатбота заметили изменения в вариабельности сердечного ритма и рост пульса — возможные признаки болезни. Советы сводились к отдыху, жидкости и симптоматическим мерам.

Где ИИ ошибается

Исследование Nature Medicine показало, что ИИ может неверно оценивать экстренные ситуации. В одном случае ChatGPT Health рекомендовал «ночное наблюдение» пациенту с угрозой дыхательной недостаточности вместо немедленной госпитализации.

ИИ также может учитывать предыдущие разговоры пользователя, что способно сместить рекомендации в сторону непроверенных методов.

Главный риск — конфиденциальность

Медицинские данные защищены законом, но эти правила не распространяются на коммерческие чатботы.

Кардиолог Ами Бхатт предупреждает: пациенты должны понимать, как именно сервис хранит и использует их данные.

Anthropic и Perplexity утверждают, что не используют пользовательскую информацию для обучения моделей и позволяют отключить доступ в любой момент. Тем не менее, эксперты подчёркивают: приватность остаётся уязвимой.

Почему люди всё равно идут к ИИ

Дефицит врачей и перегруженность системы здравоохранения подталкивают пациентов искать ответы самостоятельно.

Автор отмечает: её анализы были нормальными, врач не перезвонил — а ей хотелось понять детали. ИИ заполнил этот пробел.

Добавить комментарий

Популярные

Больше на ЯБЛОКО daily

Оформите подписку, чтобы продолжить чтение и получить доступ к полному архиву.

Читать дальше