Автор: Протик Ройчоудхури, вице-президент по продуктам, Intellect
С появлением языковых моделей на базе ИИ люди начали воспринимать чат-ботов как психотерапевтов. Привлекательность такого подхода очевидна: зачем платить специалисту и выходить из дома, если можно бесплатно поговорить на диване? Однако есть один важный момент.
Внедрение ИИ в здравоохранение часто обсуждают через призму скорости, масштаба и эффективности. Однако психическое здоровье требует особого подхода. В отличие от электронной коммерции или доставки еды, оно затрагивает самые глубокие и личные аспекты человеческой жизни: отношения, травмы, эмоциональную устойчивость. Ошибки в терапии с использованием ИИ могут быть не просто неудобством, но и серьезной угрозой.
Почему терапия с использованием ИИ может быть рискованной
Неверный диагноз
Неправильный ответ от ИИ может не только расстроить пользователя, но и серьезно подорвать его самооценку. Это может привести к еще большему подавленному состоянию.
Рассмотрим пример моей клиентки по коучингу. Она сказала платформе ИИ, что чувствует себя «перегруженной». ИИ оценил её состояние как «тревожное», не учтя её склонность к перфекционизму и давление на работе. Через пару недель она начала воспринимать себя как тревожного человека.
Большинство платформ ИИ работают так же. Универсальные инструменты для проверки симптомов и скрипты чат-ботов часто упускают важные нюансы в языке, эмоциях и контексте. Это особенно критично для психического здоровья. Поэтому терапия с использованием ИИ должна строиться на доверии, безопасности и этике.
Неконтролируемая предвзятость
Терапия с использованием ИИ несёт риски, выходящие за рамки дезинформации. Опасность представляет неконтролируемая предвзятость, которая искажает реальность, укрепляя убеждения, а не оспаривая их.
Проблема не нова. Социальные сети демонстрируют, как алгоритмы усиливают негативные эмоции: гнев, неуверенность, изоляцию. Это ярко показано в документальных фильмах Netflix, таких как «Социальная дилемма» и «Подростковый возраст».
В терапии с ИИ эффект эхо-камеры усиливается. Это может укрепить токсичные представления о себе, чувство беспомощности или ложное чувство уверенности, что усугубит изоляцию.
Неконтролируемая предвзятость влияет не только на отдельных людей, но и на целые общества. Достаточно взглянуть на влияние социальных сетей. Поэтому компании в сфере психического здоровья должны проектировать ИИ с учётом этой реальности.
«Но благодаря ИИ я чувствую, что меня видят и слышат».
Чтобы понять проблему неконтролируемой предвзятости в психиатрии, нужно признать: терапевт, который кивает в знак согласия, поддерживает, но это не всегда эффективно.
На пути к коучу по поведенческому здоровью я усвоил важный урок: настоящая поддержка — это не подтверждение всего, что говорит человек. Она помогает выявить подсознательные модели поведения и бросить вызов убеждениям, открывая пространство для роста.
Один из моих любимых приёмов — спросить: «Неужели это обязательно так?» Этот вопрос побуждает пересмотреть предположения, а не просто принять их без критического осмысления. Именно это делают стандартные чат-боты на ИИ.
Правила ответственной терапии с использованием ИИ
Терапия с помощью ИИ не может быть просто дружелюбным зеркалом. Это должно быть этическое руководство, которое разумно поддерживает и мотивирует. Поэтому её создают не для вовлечения, а для достижения результатов.
Мы выделяем пять принципов, которые должны лежать в основе разработки ИИ для охраны психического здоровья и определять наш подход в компании Intellect.
1. **Контекстная осведомлённость**: ИИ должен различать мимолетные эмоции и устойчивые модели поведения, адаптируя свою реакцию. Ошибочная интерпретация утверждения «Я испытываю тревогу из-за завтрашней презентации» как «Я испытываю тревогу каждый день в течение нескольких месяцев» может навредить пользователю.
2. **Не просто подтверждение, а вызов**: ИИ должен подтверждать эмоции, одновременно бросая вызов неэффективным моделям мышления и поведения. Например, ответ «Это естественно — так чувствовать. Интересно, есть ли другой способ взглянуть на ситуацию?» демонстрирует эмпатию и когнитивную гибкость.
3. **Четкие протоколы передачи информации**: ИИ не заменяет специалистов в области психического здоровья и должен включать четкие триггеры для передачи информации профессионалам. Это могут быть показатели тяжести состояния, такие как суицидальные мысли или признаки насилия, а также модели, указывающие на ухудшение психического состояния.
4. **Культурная компетентность**: ИИ должен учитывать культурный контекст. Пользователь из Юго-Восточной Азии может сказать: «У меня тяжело на сердце» — это распространённое выражение тревоги, которое может быть пропущено моделью, обученной на западных данных. Разработчики должны включать разнообразные обучающие данные и точки зрения.
5. **Прозрачность в отношении ограничений**: Пользователи всегда должны понимать, что общаются с чат-ботом, осознавать его ограничения и при необходимости обращаться к лицензированным специалистам.
Эффективная и этичная терапия с использованием искусственного интеллекта.
Эти пять принципов могут показаться сложными, особенно для команд, ориентированных на быструю разработку и выход на рынок. Однако они не обязательно замедляют прогресс. На самом деле, они часто могут ускорить долгосрочный успех. Существует распространенный миф о том, что этика препятствует инновациям, но это не обязательно должно быть так.
Когда мы с самого начала проектируем с учетом прозрачности, справедливости и человеческого достоинства, мы обеспечиваем более глубокое вовлечение, большее доверие и — что наиболее важно — лучшие результаты. Пользователи охотнее делятся информацией. Врачи охотнее сотрудничают. Организации охотнее интегрируются.
Создавая будущее психиатрической помощи, мы стоим перед выбором: мы можем использовать ИИ для автоматизации услуг, повышения вовлеченности и простого повторения мыслей пользователей, или же мы можем использовать его для укрепления доверия, усиления человеческих связей и предоставления реальной надежды тем, кто в ней нуждается.