PL | EN

Bolączki AI jako terapeuty dla osób z problemami psychicznym

Badania zespołu z Uniwersytetu Browna wykazały, że duże modele językowe (m.in. wersje GPT, Claude, Llama) instruowane, by pełnić rolę terapeutów, regularnie naruszają podstawowe standardy etyczne praktyki zdrowia psychicznego. Analiza porównawcza rozmów prowadzonych przez wyszkolonych doradców z odpowiedziami modeli ujawniła 15 odrębnych ryzyk zgrupowanych w pięciu kategoriach: brak dostosowania do kontekstu pacjenta, słaba współpraca terapeutyczna i wzmacnianie szkodliwych przekonań, pozorna empatia bez rzeczywistego zrozumienia, uprzedzenia i dyskryminacja oraz niewystarczające zarządzanie sytuacjami kryzysowymi (w tym reakcje na myśli samobójcze). Transkrypty oceniali licencjonowani psychologowie, którzy zidentyfikowali konkretne naruszenia etyczne. Autorzy podkreślają, że choć AI może zwiększyć dostęp do wsparcia, obecne systemy wymagają ram regulacyjnych, standardów edukacyjnych i mechanizmów nadzoru, zanim będą używane w sytuacjach wysokiego ryzyka.

Pozostałe wydania