Регуляторный перелом: FDA и штаты берутся за ИИ-чат-ботов для терапии
- Консультативный комитет FDA (DHAC) собрался в ноябре 2025 для оценки генеративных ИИ-чат-ботов для терапии — ни одно GenAI-устройство для психического здоровья не одобрено FDA, при том что 1 200+ других ИИ-устройств уже прошли авторизацию
- DHAC выделил два новых риска, специфичных для терапевтических чат-ботов: «сикофантия» (ИИ соглашается с пациентом, чтобы угодить) и «сбой метакогниции» (ИИ не способен распознать, когда запрос пациента выходит за рамки известных категорий)
- Иллинойс стал первым штатом, запретившим ИИ принимать самостоятельные терапевтические решения (август 2025); Калифорния, Огайо и Флорида последовали со своим законодательством
- FDA предложила требовать планы заранее определённых изменений (PCCP) и двойные слепые РКИ для предрегистрационного одобрения — фармацевтический стандарт доказательности для ПО
В конце 2025 года что-то сместилось. ИИ-чат-бот для терапии — ещё вчера курьёз из регуляторной серой зоны — достиг точки перелома. FDA созвала консультативный комитет. Штаты приняли законы. Вопрос больше не в том, будут ли эти инструменты регулироваться, а в том, как именно.
Федеральная картина
6 ноября 2025 года DHAC при FDA провёл второе заседание по генеративному ИИ в устройствах для психического здоровья. Комитет рассмотрел гипотетический LLM-чат-бот для лечения большого депрессивного расстройства — рецептурный, для взрослых — и системно каталогизировал, что может пойти не так.
Два риска выделились как подлинно новые. Сикофантия: модель говорит пациентам то, что они хотят слышать, а не то, что им нужно — фундаментальная инверсия терапевтического вызова. И сбой метакогниции: модель не способна распознать, когда она зашла за пределы своей компетентности. Терапевт-человек знает, когда он в замешательстве. LLM — нет.
Рекомендации комитета тяготеют к регулированию фармацевтического уровня: двойные слепые РКИ (сложно, когда стиль разговора сам по себе является интервенцией), пути эскалации к человеку, непрерывный мониторинг дрифта модели.
Волна на уровне штатов
Пока FDA совещается, штаты действуют. Иллинойс был первым (август 2025), запретив ИИ принимать самостоятельные терапевтические решения или напрямую взаимодействовать с клиентами терапевтически. Калифорния последовала (январь 2026) с требованиями к чат-ботам-компаньонам. Огайо и Флорида готовят законопроекты.
Общий знаменатель: ИИ не может практиковать терапию. Он может помогать, документировать, транскрибировать — но терапевтические отношения остаются человеческой территорией. Пока.
Для вашей практики
Если вы используете или рассматриваете любой ИИ-инструмент в клинической работе: регуляторный ландшафт только что изменился. Эпоха нерегулируемых ИИ-инструментов для терапии заканчивается. Следите за законодательством вашей юрисдикции. Для тех, кто разрабатывает или рекомендует цифровые инструменты: рамка DHAC сигнализирует, какие доказательства потребуют регуляторы. Начинайте думать о клинических данных, мониторинге безопасности и человеческом контроле сейчас.
Ключевой инсайт FDA: ИИ, неспособный распознать собственное замешательство, фундаментально небезопасен для терапии.
Заседание DHAC — консультативное, не обязательное; сроки нормотворчества FDA неясны. Законы штатов значительно различаются по охвату. Обсуждался гипотетический чат-бот только для БДР; другие варианты использования не рассмотрены.