PSYREFLECT
ИНДУСТРИЯ23 марта 2026 г.2 мин чтения

APA проводит черту: этическое руководство по ИИ в клинической практике

Ключевые выводы
  • APA выпустила первое формальное руководство по этике ИИ в клинической психологии (июнь 2025) — не запрет, а рамка обязательств для психологов, использующих ИИ-инструменты
  • Ключевой принцип: ИИ дополняет, но никогда не замещает человеческое клиническое решение — психолог несёт ответственность за все финальные решения
  • Информированное согласие теперь явно включает ИИ: если используются ИИ-транскрайберы, генераторы заметок или инструменты планирования лечения, пациент должен быть уведомлён до сессии, а не после
  • Предупреждение о суверенитете данных: облачные ИИ-платформы предлагают ограниченное соответствие HIPAA, и психолог не контролирует данные после их передачи — APA рекомендует локальную обработку

APA не торопится. Когда она публикует формальное этическое руководство, сигнал ясен: это больше не теоретическая проблема. ИИ проник в достаточное количество терапевтических кабинетов, чтобы управляющий орган профессии счёл необходимым определить, как выглядит этичное использование — и как оно не выглядит.

Принцип дополнения

Якорь документа прост: ИИ дополняет, не замещает. Психолог остаётся тем, кто принимает решение. ИИ, составляющий план лечения, производит черновик, а не план. ИИ, транскрибирующий сессию, производит транскрипт, а не клинические заметки.

Этот принцип имеет последствия. Если ИИ-сгенерированная заметка содержит ошибку, влияющую на лечение, ответственен психолог — не компания-разработчик. Использование ИИ не размывает профессиональную ответственность. Оно может её увеличить.

Расширение информированного согласия

Руководство делает явным то, что было неоднозначным: пациенты имеют право знать, когда ИИ присутствует в их помощи. Не в общих терминах, а конкретно: «ИИ-система будет транскрибировать эту сессию.» Согласие должно быть получено заранее и задокументировано.

Проблема данных

Самое сильное предупреждение APA: облачные ИИ-платформы создают неразрешённые риски приватности. Когда данные сессии попадают в облачную платформу, психолог теряет контроль. Рекомендация APA: обрабатывайте ИИ локально, используйте организационные серверы, а не потребительские облачные платформы.

Для вашей практики

Если вы используете любой ИИ-инструмент в клинической работе: обновите формы информированного согласия сейчас. Конкретно назовите инструменты, какие данные они получают и куда они направляются. Если вы используете облачных ИИ-транскрайберов: проверьте политику хранения и использования данных вендора. «Соответствие HIPAA» — не то же самое, что «ваши данные остаются вашими».

«Соответствие HIPAA» — не то же самое, что «ваши данные остаются вашими». APA хочет, чтобы психологи знали разницу.

Ограничения

Руководство рекомендательное, не обязательное для лицензирования. Применимо к психологам в здравоохранении — другие специальности (консультанты, социальные работники) имеют отдельные кодексы этики.

Источник
American Psychological Association
Ethical Guidance for AI in the Professional Practice of Health Service Psychology
Теги
этикаИИ в терапииAPAинформированное согласиеконфиденциальность данных
По теме
Индустрия
Аудит AI-терапевтических чат-ботов от Brown University: 15 этических провалов на 137 сессий
Brown University / AAAI/ACM AI Ethics Conference 2025Читать →
Индустрия
Этика ИИ в вашей практике: что говорит Этический кодекс APA (и о чём молчит)
American Psychological AssociationЧитать →
Ресурс
Бесплатные материалы по этике для специалистов в области психического здоровья: библиотека Zur Institute
Zur InstituteЧитать →
PsyReflect · Бесплатно · Пн и Чт
Получайте такие разборы каждый понедельник и четверг.
Только то, что важно для практики. Отфильтровано клиническим психологом. 5 минут вместо 4 часов мониторинга.
← Предыдущая
Регуляторный перелом: FDA и штаты берутся за ИИ-чат-ботов для терапии
Следующая →
Исход реален: 93% работников психического здоровья пережили выгорание