AI психологічний терапевт ефективно Падіння депресії, не боїться критики, люди більше готові бути друзями з AI

Дослідницька група коледжу Дартмут (Dartmouth College) в США розробила AI чат-бота під назвою Therabot, і їхні результати дослідження були опубліковані в журналі New England Journal of Medicine. Дослідження виявило, що психологічне консультування за допомогою AI чат-бота має суттєвий ефект і може вирішити проблему нестачі психологічних фахівців. Але також визнано, що AI терапія має свої ризики і вимагає уважного нагляду та участі експертів у галузі психічного здоров'я.

AI чат-бот Therabot, ефективний у психологічному консультуванні

У восьминедельному експерименті 106 учасників з депресією, тривожністю або розладами харчування взаємодіяли з Therabot через мобільний додаток, вводячи підказки про свої почуття або ініціюючи розмову, коли це було необхідно. Результати показали:

Симптоми депресії зменшилися на 51%

Симптоми пацієнтів з тривожним розладом зменшилися на 31%

Зниження ваги та тривожності щодо тіла у осіб з ризиком розладів харчування на 19%

Люди хочуть дружити з Therabot, бо AI Боти не критикують їх.

Коли люди ініціюють діалог з додатком, Therabot відповідає природними, відкритими текстовими діалогами на основі оригінального навчального набору, розробленого дослідниками відповідно до найкращих практик сучасної доказової психологічної терапії та когнітивно-поведінкової терапії.

Наприклад, якщо людина з тривогою скаже Therabot, що останнім часом вона відчуває себе дуже напруженою і перевантаженою, він може відповісти: «Давайте зробимо крок назад і подивимося, чому ви так почуваєтеся». Якщо Therabot під час розмови з користувачем виявляє високий ризик, такій як суїцидальні наміри, він запропонує користувачеві зателефонувати на 911 або звернутися до гарячої лінії запобігання самогубствам чи кризової служби, користувачеві потрібно лише натиснути кнопку на екрані.

Дослідження показали, що люди не лише детально реагують на підказки Therabot, але й часто ініціюють розмову. Взаємодія з програмним забезпеченням також проявляється у підвищенні під час часу, пов'язаного з дискомфортом, наприклад, вночі (.

Доцент біомедичної даних науки та психіатрії Ніколас Якобсон зазначив:

«Ми не очікували, що люди будуть ставитися до цього програмного забезпечення як до друга. Це свідчить про те, що вони насправді встановлюють стосунки з Therabot. Мені здається, що люди також готові спілкуватися з Боти, тому що вони не будуть їх критикувати.»

Штучний інтелект у психологічному консультуванні може компенсувати нестачу професіоналів.

Дослідники вважають, що хоча лікування штучним інтелектом все ще потребує термінового нагляду клінічних лікарів, воно може надати миттєву підтримку багатьом, хто не може регулярно отримувати допомогу від фахівців з психічного здоров'я або потребує термінової допомоги.

Хоча догляд обличчям до обличчя все ще незамінний, середній медичний працівник у США лікує 1,600 пацієнтів з депресією або тривожними розладами. АІ-терапія не потребує тривалого очікування або особистого візиту, і може забезпечити результати, які відповідають традиційній психотерапії.

Ми сподіваємося, що генеративний штучний інтелект зможе допомогти надати психологічну підтримку великій кількості людей, які позбавлені системи особистого догляду, а також бачимо потенціал поєднання інтерперсональної терапії та програмного лікування.

AI психологічна терапія все ще має ризики

Хоча ці результати дуже обнадійливі, жоден генеративний штучний інтелект не може повністю автономно працювати в сфері психічного здоров'я, оскільки він може стикатися з різноманітними високими ризиками. Команда зазначила, що розуміння та кількісна оцінка ризиків, пов'язаних із використанням генеративного штучного інтелекту в психологічному здоров'ї, є важливими.

З 2019 року Therabot розробляється в лабораторії штучного інтелекту та психічного здоров'я в Дартмуті, при цьому постійно проводяться консультації з психологами та психіатрами Дартмуту та Дартмутським медичним коледжем.

Однак результати дослідження показують, що розробка та клінічне тестування цієї системи потребують суворих стандартів безпеки, ефективності та участі, а також тісного нагляду та участі фахівців у галузі психічного здоров'я.

Дослідницька команда повинна мати можливість втручатися, якщо пацієнт висловлює серйозні занепокоєння щодо безпеки, такі як суїцидальні думки, або якщо відповіді програми не відповідають найкращим практикам, команда дослідників може бути зобов'язана негайно втрутитися.

Від моменту виходу ChatGPT багато людей увійшли в цю сферу, вони легко можуть запропонувати концепцію, яка на перший погляд виглядає чудово, але її безпека та ефективність ще не були добре підтверджені. І це один з випадків, що потребує серйозного нагляду.

Ця стаття про те, як AI-психотерапевти ефективно знижують депресію, не бояться критики, і люди охочіше стають друзями з AI. Спочатку з'явилася на Лан Новини ABMedia.

Переглянути оригінал
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити