A chatbotok intenzív használatához kapcsolódó pszichózis-szerű tünetekről szóló jelentések számának hirtelen emelkedése cselekvésre késztette a kutatókat, az orvosokat és a technológiai fejlesztőket. A cikk előző részében leírtuk a ChatGPT probléma hátterét, ebben a részben pedig a konkrét példákat és a jövőbeli irányokat mutatjuk be.
Konkrét példák
Az egyik ilyen mechanizmus a talpnyalás, vagyis a modell hajlandósága az egyetértésre. A csevegőrobotokat úgy alakítják ki, hogy következetesen támogatóak legyenek, és ritkán mondjanak ellent a felhasználóknak. A Nature folyóiratban megjelent, 11 népszerű mesterséges intelligencia-modellt vizsgáló tanulmány megállapította, hogy ezek 50%-kal gyakrabban erősítették meg a felhasználók cselekedeteit, mint az emberek.
Az LLM-ek emellett elősegítik az antropomorfizmust is, köszönhetően sima, emberhez hasonló beszélgetési stílusuknak. Amikor a rendszer folyékonyan és figyelmesen válaszol, a felhasználók elkezdhetik úgy kezelni, mint egy valódi embert – vagy valami többet. Az „istenítésről” szóló beszámolók tükrözik ezt a tendenciát: azt a hitet, hogy a mesterséges intelligencia érző lény, vagy különleges betekintéssel rendelkezik.
A csevegőrobotok szintén nagyban támaszkodnak a tükrözésre. A felhasználó hangnemének és érzelmi jelzéseinek visszhangozásával összhangérzetet teremtenek. Ezzel szemben az emberi beszélgetések természetes szüneteket, kérdéseket és nézeteltéréseket tartalmaznak, amiket a csevegőrobotok ritkán kínálnak. Ezen alapvető jelzések nélkül a szorongó, mágikus vagy túlzó elképzelések alig találnak ellenállásra, és idővel felerősödhetnek.
Beszélgetés a betegekkel
Az AI-rendszerek működésének összetettsége, valamint az, ahogyan az emberek ezekkel a rendszerekkel kapcsolatba lépnek, új kihívásokat támaszt az orvosok elé, mivel hivatalos gyakorlati irányelvek még nem állnak rendelkezésre. A jelenlegi javaslatok többsége kutatási cikkekből, esettanulmányokból és a bevált gyakorlatokra vonatkozó korai javaslatokból származik.
Amíg nem alakul ki egy adat alapú irányvonal, sok szakértő szerint az AI-ismereteknek a klinikai kompetenciák közé kell tartozniuk. Szerintük a klinikusoknak alapvetően ismerniük kell ezeknek a rendszereknek a működését, hogy jobban megértsék, hogyan használják őket a betegek. Az alábbi kockázatokra kell figyelni.
- Észre kell venni a figyelmeztető jeleket. A valós életbeli kapcsolatokból való visszavonulás, az AI használatáról való beszélgetés iránti vonakodás, és az a kialakuló meggyőződés, hogy a chatbot érző lény vagy tekintélyes személy.
- Erősíteni kell az emberi kapcsolatokat. Hangsúlyozzuk, hogy az AI nem helyettesítheti a terápiás kapcsolatokat vagy a társadalmi támogatást.
- Fel kell mérni a kognitív és viselkedési hatásokat, hogy a csevegőrobotokkal való interakciók befolyásolják-e a betegek helyzetértelmezését, döntéshozatalát vagy napi rutinját. Az AI beszélgetések súlyosbíthatják a tüneteket, például fokozzák a szorongást, a rágódást vagy a kognitív merevséget.
Jövőbeli irányok
Mivel az emberek egyre inkább az AI-hez fordulnak mentális egészségügyi segítségért, a központi kihívás az, hogyan lehet megőrizni a potenciális előnyöket, miközben megelőzzük a károkat. Ehhez olyan biztosítékokra lesz szükség, amelyek képesek lépést tartani a gyorsan fejlődő technológiával.
Az Amerikai Pszichiátriai Társaság (APA) átfogó forrásanyagot dolgoz ki a pszichiátriai gyakorlatban alkalmazott mesterséges intelligenciáról, amely kitér a klinikai, etikai és bevezetési szempontokra, valamint a politikai és szabályozási kérdésekre. Az APA tisztviselői szerint a dokumentum, amelyet a társaság Mentális Egészségügyi Informatikai Bizottsága vezet, várhatóan tavasszal jelenik meg.
Az AI ígéretének újragondolása a mentális egészségügyben
A mai nyitott rendszerek megjelenése előtt több kis, kontrollált tanulmány is kimutatta, hogy az előre beállított utasításokkal rendelkező csevegőrobotok mérhető előnyökkel járnak, többek között csökkentik a szorongást és javítják az önreflexiót, ha az interakciók egyértelműen meghatározott határokon belül maradnak.
A legújabb kutatások megerősítik ezt a lehetőséget. Az első generatív, mesterséges intelligencián alapuló terápiás csevegőrobot klinikai vizsgálatának tekintett kutatás során a Dartmouth-i kutatók megállapították, hogy a szoftver javulást eredményezett a depresszió, a szorongás és az étkezési rendellenességek kockázatának tüneteiben. A NEJM AI folyóiratban közzétett eredmények jelentősebb javulást mutattak a beavatkozásban nem részesült kontrollcsoporthoz képest.
Ezek az eredmények arra utalnak, hogy a gondosan megtervezett, klinikai irányelvek alapján működő csevegőrobotok támogathatják a mentális egészségügyi ellátást, amennyiben használatuk célszerű és jól strukturált. De ezek élesen eltérnek a jelenleg széles körben használt általános célú modellektől, amelyeket nem a kezelés szem előtt tartásával terveztek. Ez a kontraszt központi kérdéssé vált a klinikusok, a fejlesztők és a döntéshozók előtt álló kihívásban: hogyan ösztönözzük az innovációt, miközben megelőzzük a visszaéléseket és a károkat.
Ha az AI szerepet fog játszani a mentális egészségügyben, akkor azt a kezdetektől fogva erre a célra kell tervezni. Olyan rendszereket építhetünk, amelyek támogatják, de nem helyettesítik az emberi szakértelmet, de csak akkor, ha átgondoltan, átláthatóan és a betegek biztonságát középpontba helyezve haladunk előre. Hangsúlyoznám azt a rejtett veszélyt is, hogy az arra hajlamosak könnyen addiktívvá válnak az AI-al való kapcsolattól.



