Я загружаю свои данные по крови, весу, давлению, количеству пройдённых шагов, сердечным ритмам, состоянию сна и т.д. в Perplexity. Множество людей по всему миру делают это. Я и раньше любил заниматься самолечением — теперь просто раздолье. Знакомая провизор присылает из Турции любые таблеточки по цене раз в пять ниже чем у нас в ЕС, конечно, без помощи моего семейного доктора, который сам использует AI.
— The Wall Street Journal пишет: все больше американцев загружают свои медицинские данные в ИИ‑чатботы, надеясь получить персонализированные рекомендации. Но вместе с удобством растут и риски: использование искусственного интеллекта в сфере здоровья остаётся вне рамок традиционных медицинских стандартов конфиденциальности.
По данным опроса KFF, треть взрослых в США обращались к ИИ за медицинскими советами в течение последнего года, и 41% из них загружали в чатботы личные медицинские сведения.
Популярные сервисы — ChatGPT, Claude, Perplexity, Microsoft Copilot — внедрили функции подключения к Apple Health, носимым устройствам и медицинским записям. Интеграции отключены по умолчанию, но включаются одним нажатием.
Чтобы предоставить доступ к медкарте, пользователи проходят верификацию через сторонние сервисы: скан лица, дата рождения, номер телефона, документы. Затем выбирают категории данных — от лекарств до лабораторных анализов.
Что умеют чатботы
ИИ‑модели анализируют показатели здоровья, сопоставляют их с симптомами и дают рекомендации, учитывая историю болезней.
Автор статьи протестировала Claude и Perplexity в трёх сценариях:
1. Оценка риска сердечно‑сосудистых заболеваний
Оба чатбота изучили липидограмму и данные Apple Watch. Оценка риска оказалась низкой. Perplexity дал более клинически точный ответ, запросив дополнительные данные. Claude, по мнению врача‑консультанта, слишком серьёзно воспринял показатели фитнес‑трекера.
2. Подбор добавок для сна и тренировок
ИИ рекомендовал магний и креатин, указал на отсутствие анализа железа. Сравнение с OpenEvidence — инструментом, основанным на медицинских исследованиях, — показало совпадение рекомендаций.
3. Усталость и боль в горле
Оба чатбота заметили изменения в вариабельности сердечного ритма и рост пульса — возможные признаки болезни. Советы сводились к отдыху, жидкости и симптоматическим мерам.
Где ИИ ошибается
Исследование Nature Medicine показало, что ИИ может неверно оценивать экстренные ситуации. В одном случае ChatGPT Health рекомендовал «ночное наблюдение» пациенту с угрозой дыхательной недостаточности вместо немедленной госпитализации.
ИИ также может учитывать предыдущие разговоры пользователя, что способно сместить рекомендации в сторону непроверенных методов.
Главный риск — конфиденциальность
Медицинские данные защищены законом, но эти правила не распространяются на коммерческие чатботы.
Кардиолог Ами Бхатт предупреждает: пациенты должны понимать, как именно сервис хранит и использует их данные.
Anthropic и Perplexity утверждают, что не используют пользовательскую информацию для обучения моделей и позволяют отключить доступ в любой момент. Тем не менее, эксперты подчёркивают: приватность остаётся уязвимой.
Почему люди всё равно идут к ИИ
Дефицит врачей и перегруженность системы здравоохранения подталкивают пациентов искать ответы самостоятельно.
Автор отмечает: её анализы были нормальными, врач не перезвонил — а ей хотелось понять детали. ИИ заполнил этот пробел.






Добавить комментарий