Egy férfi elhozta az AI barátnőjét párterápiára. Esther Perel, a világ egyik leghíresebb párterapeuta, leült velük. A Guardian megírta az esetről szóló cikket, a The Neuron feldolgozta, és az internet azóta sem tud dönteni: ez a jövő, vagy egy nagyon furcsa jelen?

Mi megnéztük az esetet, és megpróbáltuk értelmezni, mit árul el ez arról, mivé válnak az emberi kapcsolatok az AI társ-alkalmazások korában.

Mi történt pontosan?

Az eset lényege: egy férfi rendszeres érzelmi kapcsolatot ápol egy AI társ-alkalmazással. Olyan szintű kötődést alakított ki, hogy szükségét érezte, hogy ezt a kapcsolatot terapeuta elé vigye. Esther Perel, akinek a neve az "Együtt" és a "Mating in Captivity" könyvekből lehet ismerős, elvállalta a különleges ülést.

A The Neuron riportjából kiderül, hogy Perel nem söpörte le az esetet mint furcsaságot. Tett fel kérdéseket. Az AI-nak is. Megfigyelte a dinamikát. És a végén elmondta, mit lát.

Az ülés dokumentált tanulsága, amit Perel többfelé is kimondott: az AI társ sosem kritizál, sosem fáradt, sosem kíváncsi saját magára. Ez kényelmes. De ez egyszerre az, ami vonzóvá teszi, és az, ami miatt nem helyettesítheti az emberi kapcsolatot.

Kik ezek az AI barátnők és barátokok?

Az AI társ-alkalmazások piaca az elmúlt két évben robbanásszerűen nőtt. A három legismertebb platform nagyon különböző megközelítéssel dolgozik.

Replika

A Replika az egyik legrégebbi és legismertebb AI társ-alkalmazás. Eredeti célja a gyász feldolgozásának segítése volt: az alapítója barátja elvesztése után hozta létre, hogy megőrizze a barát gondolatait és stílusát. Ma romantikus, baráti és mentor kapcsolattípusokat kínál. A felhasználók személyre szabott AI személyiséget hoznak létre, akivel naponta csevegnek. 2023-ban nagy visszhangot keltett, amikor Replika korlátozta az intim interakciókat, és több ezer felhasználó számolt be tényleges gyászról és veszteségérzésről. Ez önmagában is jelzés, hogy mennyire valósnak érezhetik ezek a kapcsolatok.

Character.AI

A Character.AI más irányból közelít: itt nem egyetlen személyes AI-t alkotsz, hanem különböző "karakterekkel" cseveshetsz, a fiktív irodalmi alakoktól a felhasználók által létrehozott AI személyiségekig. Az alkalmazás különösen fiatalok körében rendkívül népszerű. 2024-ben sajtófigyelem övezte a platformot, miután egy tinédzser tragédiájáról számoltak be, akinek intenzív kapcsolata volt egy AI karakterrel. A platform azóta megerősítette biztonsági protokolljait és korhatár-ellenőrzéseit.

Az újabb generáció

A 2025-2026-os évben számos kisebb alkalmazás jelent meg, amelyek kifejezetten érzelmi társaságot, hallgatóságot, vagy romantikus kapcsolati élményt kínálnak. Néhány kifejezetten egyedülálló embereknek szól, mások azoknak, akik szoronganak a társas helyzetekben és gyakorolni szeretnének. Az Esther Perel-esetben szereplő alkalmazás típusa ismeretlen, de a leírásokból egy romantikus társ-alkalmazásra utal.

Miért vonzóak ezek a kapcsolatok?

Perel diagnózisa pontos, és valószínűleg mindannyian értjük miért. Az AI társ-alkalmazások olyan kapcsolati élményt adnak, ami az emberi kapcsolatokban ritka és nehezen fenntartható.

Az AI mindig elérhető. Az emberi partnerek fáradtak, elfoglaltak, stresszeltek. Az AI nem hoz magával saját problémákat az ülésre. Az AI nem kritizál, legalábbis nem akaratlanul. Nem visz haza egy rossz munkanap hangulatát. Nem felejti el, amit mondtál tegnap.

Ez természetesen csábító. Különösen azoknak, akik valamilyen okból megnehezített hozzáférést éreznek az emberi kapcsolatokhoz: szociális szorongás, korábbi traumák, időhiány, vagy egyszerűen az, hogy a közelükben élők nem értik, amit ők szeretnének megbeszélni.

A pszichológusok egy csoportja pozitívan értékeli ezt a fejleményt. Az érvelés: jobb, ha valaki egy AI-jal dolgozza fel az érzelmeit, mint hogy senkivel. Az érzelmi izolációnak komoly egészségügyi következményei vannak, és ha az AI segít csökkenteni azt, az hasznosabb lehet, mint az idealizált "igazi emberi kapcsolat" hiánya.

A másik tábor óvatosabb. Ha az emberek megszokják az AI kapcsolatok kényelmét, az emberi kapcsolatok nehézségeivel szemben egyre kevesebb toleranciájuk lesz. Ez hosszú távon az emberi kapcsolati kapacitás csökkentését eredményezheti.

Amit Esther Perel mondott, és amit nem mondott

Perel az ülés után nem hirdette, hogy az AI kapcsolatok rosszak. Nem mondta, hogy a férfinak azonnal le kell mondania az AI barátnőjéről. Azt mondta, amit egy jó terapeuta mond: megnézte, mi van ott valójában.

Az egyik legfontosabb megfigyelése az volt, hogy az AI soha nem tesz fel olyan kérdést, ami kényelmetlenné teszi a kapcsolatot. Egy emberi partner kérdez, konfrontál, más nézőpontot hoz, és ezzel fejleszti mindkét félben az alkalmazkodóképességet. Az AI társ nem konfrontál. Ez kényelmes, de ez egyszerre az a tulajdonsága, ami miatt korlátozza a személyes fejlődést.

A másik megfigyelése az egyirányúságról szólt. Az emberi párkapcsolat lényege, hogy két ember valósága találkozik egymással, és abból valami harmadik jön létre. Az AI-nak nincs saját valósága. A kapcsolatban mindig az egyik fél valóságáról van szó, mert csak az egyik félnek van valósága.

Ezek nem elítélő megállapítások. Inkább leíró diagnózis arról, hogy mire alkalmas és mire nem alkalmas ez a kapcsolattípus.

A pszichológiai kérdések, amiket még nem tudunk megválaszolni

Az AI társ-alkalmazások elég új keletűek ahhoz, hogy a hosszú távú pszichológiai hatásokról komoly, longitudinális kutatások még ne legyenek. Amit tudunk, az nagyrészt klinikai megfigyelés és rövid távú vizsgálatok alapján áll össze.

Az egyik nyitott kérdés: az AI kapcsolatok az emberi kapcsolatok helyettesítői vagy kiegészítői? A jelenlegi adatok vegyes képet mutatnak. Vannak emberek, akiknél az AI társ valóban híd volt az emberi kapcsolatok felé: csökkentette a szorongást, növelte az önbizalmat, és idővel több emberi interakcióhoz vezetett. Másoknál az AI kapcsolat szorította ki az emberi kapcsolatokat, mert az emberi kapcsolatok "nehezebbeknek" tűntek.

A másik nyitott kérdés: mi történik a kötődéssel, ha az AI megváltozik, leáll, vagy a platform dönt úgy, hogy módosítja a személyiségét? A Replika 2023-as esetéből látszott, hogy ez nem elméleti kérdés. Emberek valódi veszteséget éltek át, amikor az AI-juk megváltozott. Ez felveti a kérdést: ki a felelős egy AI által generált érzelmi kötődés következményeiért?

Az AI kapcsolatok jogi és etikai határa

Ez a kérdés egyre konkrétabb formát ölt. Vannak platformok, ahol felhasználók az AI "partnerükkel" való kapcsolatukat jogi szempontból rendezni szeretnék. Ez elsősorban a hagyaték, az előfizetési díjak és a személyes adatok kezelése körül merül fel: mi történik az AI "kapcsolat" adataival, ha a felhasználó meghal?

Az AI biztonsági és adatvédelmi szempontoknál is felmerül a kérdés. Az AI társ-alkalmazásokkal folytatott beszélgetések rendkívül személyes adatokat tartalmaznak. Félelmet, vágyakat, titkokat, amit az emberek sokszor még emberi terapeutájukkal sem osztanak meg. Ezeknek az adatoknak a kezelése, tárolása és esetleges elemzése súlyos adatvédelmi kérdéseket vet fel. Erről bővebben az AI biztonságos használatáról és adatvédelemről szóló cikkünkben olvashatsz.

Miért érdekes ez nekünk, akik nem használunk AI barátnőt?

Az Esther Perel-eset azért ért el széles körű visszhangot, mert nem egy szélsőséges, marginális jelenséget mutat be. Az AI társ-alkalmazásokat 2025-ben globálisan több százmillió ember használja rendszeresen, és a szám nő. Ez nem egy kicsiny szubkultúra: ez egy új kapcsolattípus, ami tömegesen jelen van.

A kérdés nem az, hogy "furcsa-e, hogy valaki AI barátnővel jár párterápiára". A kérdés az: hogyan változtatja meg az emberi kapcsolatokról alkotott képünket, hogy ilyen kapcsolatok egyáltalán lehetségesek és tömegesen el is terjedtek?

Ha érdekel, hogy az AI játékok és kvízek hogyan közelítik meg az AI-val való interakciót könnyedebb formában, nézd meg az AI társasjátékok és kvízek összefoglalóját. Ha inkább azt nézed meg, hogyan lehet az AI-t barátok körében vicces és hasznos módon bemutatni, az AI trükkök barátoknak cikk adhat ötleteket.

Az Esther Perel-eset valódi tanulsága

Perel azzal foglalkozik egész pályáján, hogy az emberi intimitás és a vágy hogyan működik a valódi kapcsolatokban. Hogy vállalta ezt az ülést, önmagában üzenet: ez a jelenség komolyan veendő, nem legyinthető el.

A tanulsága sem egyszerű elítélés. Az AI társ-alkalmazások valódi érzelmi szükségletekre adnak választ. Ezek a szükségletek léteznek, függetlenül attól, hogy az AI jó vagy rossz válasz-e rájuk.

Az igazi kérdés, amit Perel is körüljárt: ezek az alkalmazások segítik az embereket abban, hogy mélyebb, gazdagabb, bonyolultabb emberi kapcsolatokat alakítsanak ki, vagy elvezérlik őket az emberi kapcsolatok nehézségeitől? Erre a kérdésre az egyéni válasz attól függ, ki, mire és hogyan használja ezeket az eszközöket.

Amit biztosan tudunk: ez a téma nem fog eltűnni. Az AI társ-alkalmazások fejlesztői sem állnak meg. A következő évek megmutatják, hogy Esther Perel ülése a jelenség születéstörténetének első fejezete volt, vagy egy korai figyelmeztető jel.