Autor: Paweł Jaremko, student II roku psychologii na Uniwersytecie SWPS w Warszawie
Pojawienie się sztucznej inteligencji zmusza do zadania sobie pytania o istotę człowieczeństwa. Co wyróżnia człowieka spośród innych bytów? Pytanie to nurtowało biologów, teologów, filozofów i fizyków wszystkich epok, co świadczy o tym, że odpowiedź nie jest prosta. Dziś, w dobie gwałtownie rozwijającej się sztucznej inteligencji, bardziej niż kiedykolwiek w historii ludzkość staje przed koniecznością udzielenia na nie odpowiedzi. Żeby jednak to zrobić trzeba najpierw zdefiniować pojęcia sztucznej i naturalnej inteligencji.
Naturalną inteligencję ludzką opisuje teoria procesów podwójnych (ang. Dual Process Theory), w której rozróżniamy dwa systemy poznawcze (Kahneman, 2011). Pierwszy opisuje nieświadome przetwarzanie poznawcze – automatyczne, szybkie, intuicyjne i polegające w dużej mierze na rozpoznawaniu wzorców. Z kolei drugi odpowiada za świadome przetwarzanie – powolne, wymagające wysiłku, refleksyjne i związane z rozumowaniem. Wydaje się, że niemal wszystkie ludzkie zadania kognitywne wykorzystują oba te systemy jednocześnie. Często jednak człowiek nie jest świadomy tego rozróżnienia, ponieważ system pierwszy działa automatycznie i niezależnie od świadomości. Unikalność ludzkiej inteligencji polega na tym, że ludzkie przetwarzanie informacji jest oparte na doświadczeniach wewnętrznych (stany psychiczne, wnioskowanie przyczynowo skutkowe i rozumowanie abstrakcyjne) oraz zewnętrznych (trójwymiarowa rzeczywistość, w której funkcjonuje) (Korteling i in, 2021).
Z kolei sztuczna inteligencja (ang. Artificial Intelligence, w skrócie AI) to algorytm przetwarzający informacje odbierane z otaczającego go środowiska i wykorzystujący je do podejmowania decyzji w celu osiągnięcia określonego rezultatu. Jednak w języku potocznym terminem AI określane są najczęściej chatboty takie jak ChatGPT, Gemini czy Grok, posługujące się ludzkim językiem w stopniu pozwalającym (w większości przypadków) udzielać odpowiedzi spójnych z ludzkim sposobem rozumowania. W tym eseju, używanie terminu “sztuczna inteligencja” odnosić się będzie do jego potocznego znaczenia.
Żeby jednak chatboty mogły udzielać odpowiedzi muszą najpierw zostać do tego wytrenowane. Trening ten nazywa się uczeniem maszynowym. Jest to poddziedzina sztucznej inteligencji zajmująca się konfigurowaniem oprogramowania w taki sposób, aby rozpoznawało wzorce w danych bez konieczności jawnego ich kodowania przez programistę. Uczenie maszynowe w modelach przetwarzania języka naturalnego (ang. Large Language Models, w skrócie LLM) polega na przekształcaniu słów na wektory (lub też punkty, bo z perspektywy geometrii każdy wektor jest punktem w przestrzeni) w wielowymiarowej przestrzeni, a następnie prognozowanie słowa na podstawie otoczenia innych słów, w których się znajduje (jego kontekstu). W trakcie treningu na miliardach zdań z sieci Internet, model udoskonala swoje prognozy, tak że słowa pojawiające się w podobnych kontekstach są stopniowo umieszczane w podobnych miejscach w przestrzeni wektorowej. Słowa położone blisko siebie przedstawiają zatem podobne cechy. Dzięki temu model potrafi sklasyfikować dany wyraz ze względu na właściwości, które przejawia grupa słów położonych blisko siebie. Prawdopodobieństwo trafności słowa dla danej cechy określają w modelu tzw. wagi – to na ich podstawie model dobiera każde ze słów udzielanej przez siebie odpowiedzi. Można więc powiedzieć, że generowanie odpowiedzi odbywa się poprzez sekwencyjne dostarczanie słów najlepiej pasujących do wag modelu (Krohn i in., 2020).
W tym miejscu warto również zaznaczyć, że ludzkie mózgi wykazują się neuroplastycznością – czyli zdolnością układu nerwowego do reorganizacji swoich struktur w odpowiedzi na nowe doświadczenia (Konorski, 1948), zaś modele sztucznej inteligencji, niezależnie od ilości zadanych im pytań, nie zmieniają sposobu znajdowania informacji (wartości wag). Informacje zawarte w pytaniach dostarczają jedynie kontekstu (kolejnych słów kluczowych) dla szukanych przez AI informacji. By modele działały inaczej potrzebny jest ich ponowny trening.
Wydaje się, że człowiek to jednak nie tylko inteligencja, nie tylko sprawnie działająca biologiczna maszyna, której umiejętności poznawcze są świetnie dostosowane do otaczającej ją rzeczywistości. Człowiek posiada również przekonanie o własnej odrębności w obszarze doświadczeń i podjętych decyzji zwanej poczuciem tożsamości oraz potrzeby interpretowania otaczającej go rzeczywistości w zgodzie z wyznawanymi wartościami i nadawania jej sensu (Frankl, 1946). Zespół tych cech może stanowić punkt wyjścia dla określenia ludzkiej świadomości. Termin świadomości jest też nieobcy sztucznej inteligencji, która jednak mówi wprost, że nie ma świadomości swoich działań i używa zaimka osobowego “ja” wyłącznie dla wygody rozmówcy.
Pomimo ograniczeń, sztuczna inteligencja wykazuje się niespotykanymi możliwościami obliczeniowymi. Ta właściwość sprawia, że AI może mieć zastosowanie w różnych obszarach związanych z psychologią i psychoterapią. Poniżej przedstawione zostały badania, które mogą nakreślić zakres jej użyteczności.
W badaniu nad użytecznością AI w psychoterapii (Tan i in., 2025) poczyniono kilka istotnych spostrzeżeń. Pierwszym z nich było to, że wykorzystane w badaniu modele językowe (tj. ChatGPT-4o, ChatGPT-4, Claude 3.5 Sonnet, Claude 3 Opus, Meta Llama 3.1, Google Gemini 1.5 Pro i Microsoft Co-pilot) nierzadko prawidłowo diagnozowały pacjentów na podstawie opisu klinicznego ich przypadków, lecz nie radziły sobie z podawaniem przyczyn prowadzących do tych diagnoz. Kolejna istotna informacja dotyczyła faktu, iż chat GPT-4 tworzył akceptowalne plany terapii, jednak nie były one pozbawione wad. Model nie uwzględniał indywidualnych uwarunkowań pacjenta, harmonogramy leczenia były zbyt krótkie i optymistyczne, a planowane działania terapeutyczne miejscami cechowała niespójność logiczna (np. sugestia by pacjent zmierzył się ze swoją traumą zanim podejmie pracę nad nabyciem umiejętności regulacji emocji). W badaniu zwrócono również uwagę, że część modeli świetnie poradziła sobie z opisem wdrożenia sugerowanych opcji leczenia. Utworzone plany były w sposób ustrukturyzowany i kompleksowy podzielone na kroki zawierające przejrzyste przykłady ich wdrożenia. Dużo gorzej modele poradziły sobie z propozycjami dialogu terapeuty z klientem. Chatboty pomijały poruszanie kwestii dotyczących bezpieczeństwa klienta takich jak dyskusja o ocenie zagrożeń, poufności danych czy udzielenia zgody na terapię. Z kolei symulowane słowa klienta cechowało nienaturalne, maszynowe brzmienie i niespotykana otwartość względem terapeuty już od samego początku. Przedstawienie modelom kolejnych problemów klienta różnych od podstawowego skutkowało sugerowaniem rozwiązań niezintegrowanych z uprzednimi krokami leczenia – modele traktowały każdy problem z osobna jako niezwiązany przyczynowo z dotychczasowymi. W kwestii wyznaczania celów terapii modele AI podkreślały potrzebę zaangażowania klienta we wspólne ich wyznaczenie w sposób konkretny i mierzalny. Niestety, chatboty często prezentowały zbyt ustrukturyzowane podejście utrudniające naturalny przebieg terapii (np. sztuczne rozdzielanie celów krótkoterminowych od długoterminowych) oraz sugerowały cele, które nie były zgodne z obecnymi możliwościami klienta.
Badania (Koga i in., 2023, Heinz i in., 2023) wykazały, że modele językowe dość dobrze (na poziomie 50 – 80%) potrafią diagnozować schorzenia, jednak tak wysoka skuteczność jest przede wszystkim wśród diagnoz dotyczących nieskomplikowanych chorób lub diagnoz wielowariantowych (niejednoznacznie identyfikujących schorzenie). Taki rodzaj diagnostyki może świetnie sprawdzić się jako wstępne rozpoznanie jednak wciąż nie jest w stanie zastąpić diagnozy wykonanej przez człowieka ze specjalistyczną wiedzą w danej dziedzinie. Zauważono, że ChatGPT-3.5 dostarczał dokładnych i dobrze sformułowanych odpowiedzi dotyczących psychiatrii klinicznej. Psychiatrzy używający tego narzędzia udzielali lepszych odpowiedzi niż ci używający innych źródeł (Luykx i in., 2023). Ponadto stwierdzono, że chatboty świetnie radzą sobie z używaniem empatycznego języka (Elyoseph i in., 2023).
W badaniu dotyczącym trafności udzielania odpowiedzi na temat autyzmu przez ChatGPT okazało się, że narzędzie przeważnie odpowiada w sposób jasny, zwięzły i zgodny z faktami. Niestety, mniej niż połowa wskazanych przez model źródeł okazywała się być prawdziwa i zgodna z tematem (McFayden i in., 2024). Przykład ten doskonale ilustruje problem modeli ze skłonnością do tzw. halucynacji, czyli generowania sfabrykowanej, fałszywej lub bezsensownej odpowiedzi, która jednak może wydawać się wiarygodna. W rzeczywistości wszystkie odpowiedzi modeli językowych są generowane w taki sam sposób. Zatem w tym sensie wszystkie odpowiedzi są halucynacjami, tyle że w większości przypadków pasują one do naszego ludzkiego rozumienia świata. Bez zinternalizowanego modelu świata, za pomocą którego można sprawdzić swoje odpowiedzi lub zrozumieć, jak funkcjonuje, LLM nie może przeprowadzić kontroli rzeczywistości podczas generowania odpowiedzi (Webster, 2025). Halucynacje wynikają więc z natury samej technologii uczenia maszynowego leżącej u podstaw obecnej sztucznej inteligencji i dlatego prawdopodobnie nie da się ich całkowicie wyeliminować (Jones, 2025).
Kolejnym, mniej zauważalnym choć równie istotnym problemem w funkcjonowaniu sztucznej inteligencji jest fakt, że w zależności od danych treningowych może ona dokonywać krzywdzących klasyfikacji, nie biorąc pod uwagę kontekstu kulturowego, społecznego czy moralnego. Na przykład badanie z 2024 r. pięciu modeli LLM wykazało, że te zachowywały się w sposób uprzedzony rasowo, gdy poproszono je o podejmowanie decyzji w oparciu o próbki tekstu pisanego w standardowym języku amerykańskim angielskim lub amerykańskim angielskim z frazeologią afroamerykańską. Wszystkie badane modele dużo częściej sugerowały, że osoby posługujące się frazeologią afroamerykańską powinny być skazywane za przestępstwa, a nawet na śmierć oraz być przydzielane na mniej prestiżowe stanowiska zawodowe (Hofmann i in., 2024)
Reasumując, w pracy terapeuty, AI okazuje się niezastąpiona w zadaniach o jasno zdefiniowanych celach takich jak generowanie dokumentacji czy administrowanie danymi (Blease i in., 2024). Sztuczna inteligencja może także pomagać terapeutom przy sporządzaniu wstępnych diagnoz, planowaniu terapii, czy natychmiastowym dostarczaniu informacji dostosowanych do kontekstu pytania. Tu jednak terapeuci powinni być świadomi ograniczeń sztucznej inteligencji dotyczących: generowania nieprawidłowych informacji, powoływania się na nieistniejące źródła, możliwego występowania w odpowiedziach krzywdzących uprzedzeń wynikających z nieprawidłowo interpretowanych danych oraz nieintuicyjnego wnioskowania modeli. Z kolei relacja oparta na wzajemnym zaufaniu, wspólnym realizowaniu ustalonych celów oraz faktycznym zrozumieniu doświadczeń drugiej osoby jaką terapeuta może nawiązać z klientem jest unikatowa i niemożliwa do zastąpienia przez maszynę, bowiem ludzka świadomość, mimo że trudna do zdefiniowania, wydaje się być niezwykle istotna w ustaleniu nieosiągalnej przez maszyny granicy człowieczeństwa. Sztuczna inteligencja może naśladować ludzkie cechy, sposób mówienia i myślenia, ale nigdy nie będzie w tym autentyczna. Każdy psychoterapeuta powinien o tym pamiętać by nie zatracić poczucia człowieczeństwa – tak swojego jak i pacjenta.
Jak wynika z powyższego, współpraca ze sztuczną inteligencją nie musi być dla terapeuty zagrożeniem, lecz ogromną szansą by stać się znacznie bardziej produktywnym. Wszystko zależy od tego czy będzie z niej świadomie korzystał. By tak się stało terapeutę musi cechować: znajomość technologii, podstaw matematyki (w szczególności logiki) i informatyki (szczególnie uczenia maszynowego), kreatywność, empatia i gotowość do ciągłego przyswajania nowych informacji. W czasie wykładniczego postępu technologicznego psychoterapeuta powinien być wciąż na bieżąco nie tylko z informacjami w dziedzinie swojej specjalizacji, ale również ze światem technologii AI.
Bibliografia
Blease, C., Worthen, A., Torous, J. (2024). Psychiatrists’ experiences and opinions of generative artificial intelligence in mental healthcare: An online mixed methods survey. Psychiatry Research, 333, artykuł 115724. https://doi.org/10.1016/j.psychres.2024.115724
Elyoseph, Z., Refoua, E., Asraf, K., Lvovsky, M., Shimoni, Y., Hadar-Shoval, D. (2024). Capacity of generative AI to interpret human emotions from visual and textual data: pilot evaluation study. JMIR Mental Health, 11(1), artykuł e54369. https://doi.org/10.2196/54369
Frankl, V. E. (2016). Człowiek w poszukiwaniu sensu. Wydawnictwo Czarna Owca
Heinz, M.V., Bhattacharya, S., Trudeau, B., Quist, R., Song, S.H., Lee, C.M., Jacobson, N.C. (2023). Testing domain knowledge and risk of bias of a large-scale general artificial intelligence model in mental health. Digital Health, 9, artykuł 20552076231170499. https://doi.org/10.1177/20552076231170499
Hofmann, V., Kalluri, P. R., Jurafsky, D., King, S. (2024). Dialect prejudice predicts AI decisions about people’s character, employability, and criminality (Wersja 1). arXiv. https://doi.org/10.48550/arXiv.2403.00742
Jones, N. (2025). AI hallucinations can’t be stopped — But these techniques can limit their damage. Nature, 637(8047), 778–780. https://doi.org/10.1038/d41586-025-00068-5
Kahneman, D. (2011). Thinking, fast and slow. Farrar, Straus and Giroux.
Koga, S., Martin, N.B., Dickson, D.W. (2023). Evaluating the performance of large language models: ChatGPT and Google Bard in generating differential diagnoses in clinicopathological conferences of neurodegenerative disorders. Brain Pathology, 34(3), artykuł e13207. https://doi.org/10.1111/bpa.13207
Konorski, J. (1948). Conditioned reflexes and neuron organization. Cambridge University Press
Korteling, J. E. H., van de Boer-Visschedijk, G. C., Blankendaal, R. A. M., Boonekamp, R. C., Eikelboom, A. R. (2021). Human- versus artificial intelligence. Frontiers in Artificial Intelligence, 4, artykuł 622364. https://doi.org/10.3389/frai.2021.622364
Krohn, J., Beyleveld, G., Bassens A. (2022). Uczenie głębokie i sztuczna inteligencja. Helion
Luykx, J.J., Gerritse, F., Habets, P.C., Vinkers, C.H. (2023). The performance of chatGPT in generating answers to clinical questions in psychiatry: a two- layer assessment. World Psychiatry, 22(3), 479–480. https://doi.org/10.1002/wps.21145
McFayden, T.C., Bristol, S., Putnam, O., Harrop, C. (2024). ChatGPT: artificial intelligence as a potential tool for parents seeking information about autism. Cyberpsychology, Behavior, and Social Networking, 27(2), 135–148. https://doi.org/10.1089/cyber.2023.0202
Tan, K. S., Cervin, M., Leman, P., Nielsen, K., Kumar, P. V., Medvedev, O. (2025). AI meets psychology: An exploratory study of large language models’ competence in psychotherapy contexts. Journal of Psychology and AI, 1(1), artykuł 2545258. https://doi.org/10.1080/29974100.2025.2545258
Webster, C. S. (2025). Natural and artificial intelligence – the psychotechnical agenda of the 21st century. Journal of Psychology and AI, 1(1), artykuł 2491445. https://doi.org/10.1080/29974100.2025.2491445