- Категория
- Новости
ИИ как психотерапевт: Therabot демонстрирует новые возможности в поддержке психического здоровья
- Дата публикации
Учёные показали, что чат-бот на основе искусственного интеллекта Therabot помогает значительно уменьшать симптомы психических расстройств. Однако его автономное использование следует ограничить из-за потенциальных рисков.
Специалисты Дартмутского колледжа провели рандомизированное контролируемое исследование для оценки Therabot — текстового чат-бота для платформ iOS и Android, обученного на диалогах когнитивно-поведенческой терапии третьей волны.
В испытание было включено 210 взрослых (средний возраст 33,9 года, 59,5% женщин) с тремя нарушениями:
- Большим депрессивным расстройством (142 пациента),
- Генерализованным тревожным расстройством (116),
- Высоким риском расстройств пищевого поведения (89).
Участников случайным образом распределили в группы с 4-недельным доступом к Therabot (106), который предлагал персонализированную цифровую терапию, или контрольную группу (104), участники которой посещали традиционного психотерапевта.
Симптомы расстройств оценивались в начале, через 4 недели и через 8 недель исследования по шкалам PHQ-9 (депрессия), GAD-Q-IV (тревожное расстройство) и WCS (проблемы с пищевым поведением). Исследователи также анализировали вовлечённость пользователей, приемлемость и терапевтический альянс (доверие к чат-боту).
Как показали исследователи, пользователи Therabot продемонстрировали более выраженное снижение симптомов психических расстройств по сравнению с контрольной группой. Например, в группе с депрессией после 4 недель лечения разница в баллах PHQ-9 составила -6,13 против 2,63; в группе с тревожным расстройством – 2,32 против 0,13 по GAD-Q-IV; в третьей группе разница в оценке по WCS составила 9,83 против 1,66.
Терапевтический альянс был сопоставим с взаимодействием с обычным психотерапевтом, но пациенты из активной группы оценили Therabot как интуитивный, полезный и похожий на настоящего врача. Однако в 28 случаях потребовалось вмешательство персонала из-за рисков безопасности (например, суицидальных мыслей) или неадекватных ответов бота. На основании этого исследователи заключили, что полная автономия ИИ в психотерапии невозможна из-за высоких рисков, требующих контроля экспертов.