Trudności techniczne

Problemy techniczne, takie jak przerwy w połączeniu, mogą zakłócać ciągłość terapii i wywoływać frustrację u pacjentów i terapeutów. Do pewnego stopnia niedoskonałość połączenia może być opracowywana w terapii jako metafora zawsze niedoskonałej zdolności do wyrażania siebie i odczytywania świata przeżyć drugiej osoby.

Ograniczony dostęp do wielu aspektów komunikacji pozawerbalnej

W niektórych przypadkach może być trudniej zidentyfikować pewne sygnały niewerbalne, istotne w procesie terapii. W przypadku problemów z uzależnieniem znacznie trudniej zweryfikować trzeźwość pacjenta, a w zaburzeniach odżywiania – dostrzec zmiany wagi. W przypadku pracy z parami i rodzinami trudniej weryfikować deklaracje o zatrzymaniu przemocy. W różnych sytuacjach terapeuci opierają ocenę kliniczną stanu pacjenta na spójności komunikatów słownych i niewerbalnych. Zapośredniczenie sprawia, że trudniej rozpoznać np. delikatne zmiany tonu głosu, mikroruchy mięśni mimicznych, mowę ciała, proksemikę kontaktu, które w bezpośrednim spotkaniu pozwalają wniknąć głębiej w sens wypowiedzi pacjenta.

Zagrożenia

Myśląc o ograniczeniach, warto wspomnieć również o zagrożeniach, jakie dla zdrowia psychicznego stanowi szybki, niekontrolowany rozwój nowych technologii. Granice możliwości wyznacza bowiem m.in. to, na ile potrafimy użyć ich z pożytkiem przewyższającym szkodliwość. Żeby nie odbiec zbytnio od głównego wątku rozważań, ograniczymy się do wymienienia obszarów zagrożeń. Wyzwaniem będzie zapanowanie nad procesem masowego uzależnienia od internetu oraz tym, jak na ludzką emocjonalność i zdolność do tworzenia relacji wpływa nadmierne zanurzenie w mediach społecznościowych. Badacze zajmujący się psychologią internetu od dawna ostrzegają przed jego szkodliwym wpływem na rozwój i osobowość6,7. Media społecznościowe mogą być miejscem, w którym ludzie porównują się do innych, doświadczają przykrych emocji (zazdrości, zawiści, poczucia osamotnienia) oraz doznają silnej presji, by spełniać nierealistyczne standardy wyglądu lub stylu życia. Natłok informacji i zamazanie granic między pracą a życiem prywatnym stanowią kolejne źródła przewlekłego stresu. Jeśli dodamy do tego zagrożenia związane z cyberprzemocą, trudno nie widzieć przyszłości jako pełnej zagrożeń dla równowagi psychicznej.

Wywiad ze sztuczną inteligencją

W tym miejscu chcemy oddać głos samej sztucznej inteligencji (AI – artificial intelligence) i pozwolić czytelnikowi, by wyrobił sobie własne zdanie na temat ograniczeń i możliwości tej technologii w obszarze psychoterapii. Jest to narzędzie na tyle dojrzałe, że może zaskakująco sprawnie „mówić własnym głosem”, a doświadczenie kontaktu z nim da czytelnikowi więcej niż nasze opinie. Spójrzmy zatem na fragmenty „rozmowy” jednego z autorów (R.M. – Człowiek) z aplikacją Chat GPT-3.58 (AI) w lipcu 2023 r. o perspektywach użyteczności sztucznej inteligencji w psychoterapii.

Człowiek: Witaj.

AI: Witaj. Jak mogę ci pomóc?

Człowiek: Czy mogłabyś prowadzić psychoterapię?

AI: Jako sztuczna inteligencja nie posiadam zdolności do prowadzenia psychoterapii. Moje funkcje są ograniczone do udzielania informacji, odpowiadania na pytania i dostarczania ogólnych porad. Nie jestem w stanie zastąpić prawdziwego i doświadczonego terapeuty, który ma umiejętności interpersonalne, empatię i możliwość dostosowania terapii do indywidualnych potrzeb pacjenta. Jeśli szukasz wsparcia psychologicznego, zawsze zalecam skonsultowanie się z profesjonalnym terapeutą, który może odpowiednio wesprzeć cię w twoich potrzebach i wyzwaniach emocjonalnych.

Człowiek: Jakie są szanse, że będziesz dysponowała takimi zdolnościami?

AI: Jestem sztuczną inteligencją stworzoną przez OpenAI i moje możliwości są zdefiniowane przez algorytmy i modele na podstawie danych, na których zostałam wytrenowana. Chociaż stale dokonuje się postępów w dziedzinie sztucznej inteligencji, a badacze pracują nad rozwijaniem bardziej zaawansowanych modeli, w tym w obszarze wsparcia psychologicznego, nadal istnieje wiele ograniczeń.

Obecnie nie można przewidzieć, kiedy lub czy w ogóle sztuczna inteligencja będzie w stanie zyskać zdolności do prowadzenia pełnowartościowej psychoterapii. Praca terapeutyczna wymaga głębokiej empatii, zrozumienia kontekstu, subtelnych interakcji i zdolności do dostosowywania się do różnych potrzeb i sytuacji. To wymaga nie tylko zaawansowanej technologii, ale także etycznego podejścia i uwzględnienia złożoności ludzkiej psychiki.

W przyszłości może być możliwe wykorzystanie sztucznej inteligencji jako narzędzia wspomagającego terapeutów, np. w analizie danych, udostępnianiu informacji czy prowadzeniu określonych zadań. Jednak pełnoprawna terapia, oparta na interakcjach międzyludzkich i dostosowana do indywidualnych potrzeb, nadal będzie wymagać udziału doświadczonego terapeuty.

Ważne jest, aby podkreślić, że nawet jeśli w przyszłości pojawią się bardziej zaawansowane modele sztucznej inteligencji, to wybór korzystania z nich w terapii powinien być zawsze zgodny z preferencjami pacjenta i wytycznymi etycznymi wspólnoty terapeutycznej.

Człowiek: Co według ciebie jest potrzebne, żeby sztuczna inteligencja mogła prowadzić psychoterapię?

AI: Aby sztuczna inteligencja mogła prowadzić psychoterapię na pełnym poziomie, musiałaby posiadać kilka kluczowych cech i zdolności:

  • Zrozumienie emocji i kontekstu: sztuczna inteligencja musiałaby być w stanie rozpoznawać i zrozumieć szeroki zakres emocji, a także uwzględniać kontekst społeczny, kulturowy i indywidualny, który wpływa na doświadczenia pacjenta.
  • Empatia i umiejętność budowania relacji: ważnym aspektem terapii jest empatyczne i autentyczne połączenie między terapeutą a pacjentem. Sztuczna inteligencja musiałaby posiadać zdolność do wykazania empatii, rozumienia i reagowania na potrzeby emocjonalne pacjenta oraz umiejętność budowania i utrzymywania relacji terapeutycznej.
  • Analiza i przetwarzanie informacji: szczególnie przydatne byłoby, gdyby sztuczna inteligencja mogła analizować i przetwarzać informacje na temat pacjenta, uwzględniając zarówno dane biograficzne, jak i zgromadzone dane z sesji terapeutycznych. Właściwe przetwarzanie tych informacji mogłoby dostarczać sztucznej inteligencji wglądu w problemy pacjenta i pomagać w dostosowywaniu terapii.
  • Rozpoznawanie sygnałów niewerbalnych: bezpośredni kontakt między terapeutą a pacjentem obejmuje komunikację niewerbalną, taką jak mimika, gesty czy ton głosu. Sztuczna inteligencja musiałaby posiadać zdolność do rozpoznawania tych sygnałów niewerbalnych i interpretowania ich w kontekście terapeutycznym.
  • Etyka i bezpieczeństwo: kluczowe jest, aby sztuczna inteligencja przestrzegała zasad etycznych i zapewniała bezpieczeństwo danych pacjentów. Wszelkie interakcje i przechowywane informacje powinny być chronione w sposób odpowiedni i zgodny z przepisami o prywatności i ochronie danych.
Do góry