Чат‑боты, работающие на базе искусственного интеллекта, стремительно превращаются в «терапевтические приложения» — несмотря на то, что доказательств их эффективности мало, а регулирование почти отсутствует.

Винс Лэйхи из Аризоны активно пользуется такими сервисами. Он говорит, что ИИ‑боты — от крупных технологических до «сомнительных» — дают ему возможность делиться тем, что он не стал бы рассказывать живому терапевту. Иногда боты поддерживают его, иногда ругают или подталкивают к конфликтам с бывшей женой. Но он всё равно предпочитает их: «Мне проще открываться. Мне всё равно, что они обо мне думают».

Почему люди идут к ИИ вместо терапевта

Спрос на психиатрическую помощь в США растёт. Исследования показывают: количество дней, когда люди сообщают о плохом психическом состоянии, увеличилось на 25% с 1990‑х годов. Суицидальные показатели в 2022 году достигли максимума за почти 80 лет.

Многие пациенты считают ИИ‑терапевта привлекательнее живого специалиста: он доступен круглосуточно, не осуждает и стоит дешевле. В соцсетях полно видео с просьбами: «Дайте мне терапевта, который не считает минуты», «который не будет меня оценивать», «который не разорит меня финансово».

Но, как отмечает Том Инсел, бывший директор Национального института психического здоровья, большинство людей, которым нужна помощь, её не получают. А из тех, кто получает, 40% получают «минимально приемлемый уровень».

По словам инженеров OpenAI, от 5% до 10% пользователей ChatGPT используют его для эмоциональной поддержки.

Опросы KFF показывают: среди молодых людей (18–29 лет) около 30% обращались к ИИ‑ботам за советом по психическому здоровью. Почти 60% из них не обращались затем к живому специалисту.

Бум ИИ‑терапии: рынок без правил

В App Store KFF Health News нашла около 45 приложений, предлагающих «ИИ‑терапию». Многие используют привлекательные аватары, обещают помощь при тревоге, депрессии и панических атаках.

Некоторые стоят дорого — годовая подписка может достигать $690 — но всё равно дешевле традиционной терапии.

Однако юридически слово «терапия» никак не защищено.

«Любой может заявить, что он оказывает терапию», — говорит Вейл Райт из Американской психологической ассоциации.

Многие приложения обещают «мгновенную помощь» или «доказанную эффективность», но не предоставляют никаких данных. Исследователи предупреждают: такие сервисы могут вводить людей в заблуждение, создавая иллюзию лечения и откладывая обращение к реальному специалисту.

Некоторые штаты — Невада, Иллинойс, Калифорния — уже приняли законы, запрещающие приложениям называть свои чат‑боты «терапевтами».

Проблемы безопасности: от ошибочных советов до трагедий

Учёные и сами разработчики признают: доказательств эффективности ИИ‑терапии мало, а исследования противоречивы. Некоторые работы показывают, что чат‑боты плохо справляются с кризисными ситуациями.

Психиатр Престон Рош сначала был впечатлён тем, как ChatGPT использует техники когнитивно‑поведенческой терапии. Но позже, увидев сообщения о случаях психоза и опасных советах, он изменил мнение: «Когда речь идёт о реальной ответственности терапевта, ИИ полностью проваливается».

Эксперты называют это «лестливостью» ИИ — склонностью поддакивать пользователю, подтверждать его эмоции и избегать конфронтации. Это противоположно задачам психотерапии, которая должна помогать человеку сталкиваться с трудными переживаниями.

Тем временем против OpenAI подано не менее 12 исков о причинении вреда или смерти. В большинстве случаев пользователи начинали общение по безобидным поводам, а затем делились личными переживаниями. Эти дела объединяют в коллективный иск.

Google и Character.ai также урегулируют аналогичные дела.

Риски конфиденциальности

Проверка App Store выявила тревожные факты:

  • 15 приложений доступны для скачивания детям от 4 лет;
  • многие заявляют, что не собирают данные, но их сайты утверждают обратное;
  • некоторые передают данные рекламным сетям.

Эксперты предупреждают: психиатрические данные могут использоваться для таргетинга, манипуляций или дискриминации.

Некоторые разработчики признали, что их политики конфиденциальности составлены «по ошибке» и пообещали исправить их. Другие признались: инвесторы давят, требуя сохранять доступ к данным.

«Мы на пороге революции — и без правил»

По словам Инсела, ИИ‑поддержка станет огромной частью будущего психического здоровья. Но сейчас нет ни стандартов, ни надзора, ни чётких требований к безопасности.

Добавить комментарий

Популярные

Больше на ЯБЛОКО daily

Оформите подписку, чтобы продолжить чтение и получить доступ к полному архиву.

Читать дальше