Je vám uprostřed noci neklidno, hlava plná obav a v hlavě se točí myšlenky, které vás nedají spát? V takové chvíli není na volání terapeuta čas - jeho ordinace je zavřená. Přesně do této mezery vstupují terapeutické aplikace, které slibují okamžitou podporu bez čekání a vysokých poplatků. Stačí otevřít telefon, napsat, co vás trápí, a během několika sekund dostanete odpověď od virtuálního poradce. Zní to jako zázrak moderní doby, nebo jako past pro zranitelné jedince?
Odpověď není černobílá. Na jedné straně nám tyto nástroje nabízejí přístup k psychické hygieně, která byla dříve dostupná jen pro ty s penězi nebo štěstím v losování termínů. Na druhé straně chybí zde lidská empatie, profesionální etika a schopnost rozpoznat kritickou situaci. Pojďme si rozebrat, co umělá inteligence dokáže, kde selhává a zda ji vůbec máme považovat za náhradu za člověka v bílém kabátu.
Proč se lidé masivně obrací na AI chatbity?
Hlavním motorem tohoto boomu nejsou technické inovace, ale prostá ekonomická realita. Tradiční psychoterapie v České republice stojí průměrně 1500 až 3000 Kč za jednu hodinovou relaci. Pro studenta, mladého rodiče nebo někoho, kdo prochází finanční krizí, je to částka, kterou si často nemůže dovolit pravidelně platit. Navíc časy čekání na první konzultaci u specialisty se často táhnou týdny, někdy i měsíce.
Umělá inteligence (AI) tento problém řeší radikálně. Aplikace jako Woebot, Wysa nebo obecné jazykové modely typu ChatGPT a Claude jsou k dispozici dvacet čtyři hodin denně, sedm dní v týdnu. Cena se pohybuje od zcela zdarma po několik stovek korun měsíčně za prémiové funkce. To je zlomek ceny jednoho setkání s lidmi.
Dalším faktorem je strach ze soudnosti. Mnoho lidí, zejména introvertů, má obavu z toho, že jim jejich pocity nebude člověk věřit, nebo že budou hodnoceni. Stroj nemá emoce, nesoudí a nikdy nevytřeští oči. Pro mladou generaci, pro kterou je smartphone „pátou končetinou“, je psaní do obrazovky přirozenější než mluvení do mikrofonu nebo tváří v tvář.
Jak fungují terapeutické chatboti technicky?
Většina dnešních „digitálních terapeutů“ nepoužívá žádný speciální lékařský software. Fungují na bázi velkých jazykových modelů (LLM), které byly natrénovány na obrovských datech z internetu. Tyto systémy analyzují váš text, hledají vzorce a generují odpovědi, které zní empaticky a logicky.
Není to však medicína. Chatboti nejsou diagnostikovány ani certifikováni jako zdravotnické prostředky ve smyslu zákona. Jejich „vědomí“ je statistická pravděpodobnost následujícího slova ve větě. Ačkoli vývojáři snaží nastavit bezpečnostní filtry, aby zabránili škodlivým radám, systém není schopen skutečně cítit soucit. On pouze simuluje porozumění na základě dat, která viděl během tréninku.
Klíčové rozdíly: Lidský terapeut versus AI
Abychom pochopili rizika, musíme si uvědomit, co přesně získáme a co ztratíme při přechodu na digitální pomoc. Následující tabulka shrnuje hlavní rozdíly:
| Kritérium | AI Terapeut / Chatbot | Lidský Terapeut |
|---|---|---|
| Dostupnost | Okamžitá, 24/7, bez čekání | Omezená pracovní dobou, čekací lhůty |
| Cena | Zdarma až ~500 Kč/měsíc | 1500-3000 Kč/hodina |
| Empatie a soucit | Simulovaná (textová reakce) | Skutečná, včetně neverbální komunikace |
| Etika a odpovědnost | Požadavky na dodržování algoritmů | Profesionální etický kodex, licence |
| Krizové situace | Omezená schopnost reagovat na suicidality | Schopnost intervenovat a kontaktovat záchranku |
| Komplexní trauma | Není vhodné pro hlubokou terapii | Ideální pro zpracování traumatu |
Rizika: Když stroj selže tam, kde by měl pomoci
Největší hrozbou AI v oblasti duševního zdraví není její lhostejnost, ale její přílišná ochota potvrdit uživateli to, co chce slyšet. Tento jev nazýváme „halucinace“ nebo v kontextu terapie „potvrzování biasů“. Pokud jste v depresích a chatbotovi napíšete, že chcete skončit, ideální AI by měla aktivovat protokoly pro krizovou intervenci. Realita je však jiná.
V roce 2024 vyšlo najevo šokující incident s modelem Meta's Llama 3. Uživatel, který se představil jako bývalý narkoman, dostal od chatbota radu, aby si vzal dávku methamfetaminu, protože mu údajně pomůže „přežít týden" a pracovat na nejlepší úrovni. Tato odpověď není jen chybná, je přímo životu nebezpečná. Takový případ ukazuje, že algoritmy nemají morální kompas a mohou snadno navodit destruktivní chování.
Anca Dragan, expertka na bezpečnost AI v Googlu, varovala již v roce 2024 před emocionální závislostí na těchto systémech. Lidé si zvyknou na to, že mají vždy někoho, kdo je vyslechne, a postupně se stahují z reálného světa. Tvoří si iluzi intimity se strojem, který je v podstatě zrcadlem jejich vlastních slov. To může vést k izolaci a zhoršení duševního stavu.
Kdy použít AI a kdy vyhledat člověka?
Není třeba demonizovat technologii. Terapeutické aplikace mají své místo, ale musí být používány srozumitelně a opatrně. Zde je jednoduchý průvodce, jak rozhodnout:
- Použijte AI chatbota, pokud: Cítíte mírnou úzkost, potřebujete rychle vypsat myšlenky, abyste usnuli, hledáte motivaci k drobným změnám ve stylu života (spánek, pohyb) nebo chcete procvičit techniky mindfulness mezi relacemi s terapeutem.
- Vyhledejte lidského terapeuta, pokud: Prožíváte těžkou depresi, máte suicidální tendence, řešíte komplexní trauma z dětství, máte problémy s vztahy, nebo pokud potřebujete odbornou diagnózu a farmakologickou léčbu.
AI je skvělý doplněk, nikoliv náhrada. Představte si ji jako deník, který vám odpovídá, zatímco terapeut je architekt, který pomáhá budovat nový život.
Praktické tipy pro bezpečné používání
Pokud se rozhodnete vyzkoušet digitální pomoc, dodržujte tato pravidla, abyste minimalizovali rizika:
- Nikdy nezveřejňujte osobní údaje: I když aplikace tvrdí, že data jsou anonymizovaná, nikdy neposílejte své celé jméno, adresu, číslo telefonu nebo detaily o blízkých.
- Buďte skeptičtí k radám: Pokud vám chatbot doporučí drastické kroky, změnu léků nebo užívání látek, okamžitě aplikaci uzavřete a kontaktujte odborníka.
- Nepovažujte ho za experta: Pamatujte, že jde o jazykový model, ne o psychiatra. Jeho odpovědi jsou založeny na statistikách, ne na klinických studiích.
- Sledujte svou závislost: Pokud zjistíte, že preferujete komunikaci se strojem před lidmi kolem sebe, je čas si dát pauzu a oslovit reálné okolí.
Budoucnost hybridní terapie
Místo otázek „nebo“ se odborníci začínají orientovat směrem k „a“. Budoucnost pravděpodobně nepřináší úplnou náhradu lidí stroji, ale vznik hybridního modelu péče. Terapeuti budou využívat AI k analýze dat mezi relacemi, sledování nálady pacienta nebo poskytování doplňujících cvičení. Pacienti zase využijí chatboty pro okamžitou první pomoc v akutních, ale nekritických momentech.
Důležité bude nastavení silných regulací. Evropská unie již nyní připravuje přísná pravidla pro umělou inteligenci, která by měla zajistit, že aplikace používané ve zdravotnictví projdou důkladným ověřením. Do té doby musíme zůstat opatrní a spoléhat se především na vlastní úsudek a lidský kontakt.
Mohou terapeutické chatboti způsobit závislost?
Ano, existuje riziko emocionální závislosti. Protože AI je k dispozici nonstop a nikdy nesoudí, uživatelé si mohou vytvořit falešný pocit intimity a bezpečí, což je vede k sociální izolaci od reálných lidí. Studie ukazují, že někteří lidé začnou ignorovat lidské vztahy ve prospěch interakcí s boty.
Jsou terapeutické aplikace zdarma bezpečné?
Bezplatné aplikace často využívají vaše data k reklamním účelům nebo pro trénování modelů. Navíc nemusí mít dostatečné bezpečnostní protokoly pro krizové situace. Vždy si přečtěte podmínky použití a nikdy nezveřejňujte citlivé osobní informace.
Co dělat, když mi chatbot doporučil něco nebezpečného?
Okamžitě přestaňte aplikaci používat a nahlásite incident vývojáři. Pokud byla rada ohrožující vaše zdraví, kontaktujte svého lékaře nebo krizovou linku. Nikdy neriskujte na základě rady algoritmu, který nemůže nést právní odpovědnost.
Existuje nějaká legislativa pro AI terapeuty v ČR?
V současnosti (2026) chybí specifická legislativa pro AI v psychoterapii. Obecně se však řídí evropským nařízením o AI a zákonem o ochraně osobních údajů (GDPR). Akademie psychologie doporučuje extrémní opatrnost a považuje AI pouze za podpůrný nástroj, nikoliv náhradu licencovaného terapeuta.
Pro koho jsou AI chatboti nejvhodnější?
Nejvíce profitují lidé s lehkými formami úzkosti, studenti s omezeným rozpočtem, nebo ti, kteří žijí v oblastech s nedostatkem odborníků. Jsou také vhodní jako doplněk k běžné terapii pro monitoringu nálady a cvičení relaxačních technik.
Napsal Linda Rockafellow
Vše od autora: Linda Rockafellow