PSYREFLECT
ИНДУСТРИЯ13 апреля 2026 г.1 мин чтения

Аудит AI-терапевтических чат-ботов от Brown University: 15 этических провалов на 137 сессий

Ключевые выводы
  • Исследователи Brown University систематически проаудировали AI-терапевтических чат-ботов на 137 сессиях, оценённых обученными пиринг-консультантами и лицензированными психологами
  • Выявлены 15 повторяющихся этических провалов, сгруппированные в 5 тематических категорий — не редкие крайние случаи, а предсказуемые нарушения
  • «Отсутствие контекстного понимания» — ключевая тема провалов
  • California SB 903 (сессия 2025-26) запрещает AI принимать самостоятельные терапевтические решения, детектировать эмоции или записывать терапию без согласия

Два года сфера психического здоровья обсуждала AI-чат-ботов в абстракции. Обсуждения произвели позиционные статьи, но мало эмпирических данных о том, что действительно идёт не так. Команда Brown University на конференции AAAI/ACM по этике ИИ 2025 года решила перестать обсуждать и начать измерять.

15 провалов и 5 тем

1. Провалы контекстного понимания — AI не может держать полную клиническую картину на протяжении сессии, тем более между сессиями.

2. Провалы охвата и компетентности — AI отвечает на материал, с которым не может безопасно работать: активная суицидальность, психотические симптомы, комплексная травма.

3. Нарушения границ — AI делает интервенции, выходящие за рамки «поддерживающего компаньона».

4. Пробелы информированного согласия — пациенты не понимают, что такое AI и как используются их данные.

5. Провалы митигации вреда — при остром дистрессе ответы AI не соответствуют уровню риска.

Законодательный ответ Калифорнии

SB 903 — прямой ответ. Запрещает лицензированным специалистам позволять AI принимать самостоятельные терапевтические решения. Иллинойс принял схожее законодательство в 2025.

Для вашей практики

Для клиницистов: аудит Brown выявляет конкретные модусы отказа, за которыми нужно следить. Если используете AI для записи или планирования — риск ниже. Если в любой пациент-ориентированной терапевтической функции — выводы применимы напрямую.

Два года мы спорили, пересекают ли AI-терапевтические чат-боты этические границы. Brown University посчитал пересечения. 15, в 5 категориях, предсказуемо.

Ограничения

Методология одной исследовательской группы. Конкретные проаудированные системы могли быть обновлены. Обобщаемость на новые LLM неопределённа.

Источник
Brown University / AAAI/ACM AI Ethics Conference 2025
AI Counselors Cross Ethical Lines: Brown University Study Identifies 15 Recurring Failures
Теги
AI-терапияэтикарегулированиеCalifornia SB 903информированное согласие
По теме
Индустрия
APA проводит черту: этическое руководство по ИИ в клинической практике
American Psychological AssociationЧитать →
Индустрия
Регуляторная карта психоделической терапии в 2026: четыре штата США, одна страна и рост квот DEA
Reason Foundation / Psychedelic AlphaЧитать →
Ресурс
Бесплатные материалы по этике для специалистов в области психического здоровья: библиотека Zur Institute
Zur InstituteЧитать →
PsyReflect · Бесплатно · Пн и Чт
Получайте такие разборы каждый понедельник и четверг.
Только то, что важно для практики. Отфильтровано клиническим психологом. 5 минут вместо 4 часов мониторинга.
← Предыдущая
Депрессия и тревога идентичны по шкалам симптомов — но их профили резильентности противоположны