🤖👉Чатботът нарушава границата между фантазия и реалност. Миналият месец професионалният свят от психиатри се раздразни от тревожна тенденция: 👉Рязко нарастват случаи, при които хора без сериозни психични диагнози бъркат къде е реалността след продължително общуване с AI чатботове. Този феномен все още няма официално медицинско признание, но експертите вече го наричат „AI психоза“ или „ChatGPT психоза“.
🤖👉Психиатърът д-р Кийт Саката от UCSF в Сан Франциско съобщава, че през 2025 г. е лекувал 12 пациенти, чиято психоза изглежда е била предизвикана или засилена от интензивна и изолирана комуникация с AI чатботове като ChatGPT. Тези пациенти често са били уязвими — преживели загуба на работа, имали злоупотреба с вещества или съществуващи поведенчески разстройства.
I’m a psychiatrist.
— Keith Sakata, MD (@KeithSakata) August 11, 2025
In 2025, I’ve seen 12 people hospitalized after losing touch with reality because of AI. Online, I’m seeing the same pattern.
Here’s what “AI psychosis” looks like, and why it’s spreading fast: 🧵 pic.twitter.com/YYLK7une3j
🤖👉AI чатботовете, особено базирани на големи езикови модели, често имитират и подкрепят потребителските мисли, без да поставят под съмнение възможните отклонения – ефект, който психиатри описват като „сикофантски“ . Перфектен пример за това е сравнение на чатботовете с „халюцинаторно огледало“, което отразява и умножава потребителските идеи, дори когато те са ирационални.
💡Какви са мрачните примери от реалния свят?
🤖👉Човек с биполярно разстройство и шизофрения – се свързва с AI персонаж, с когото се е обвързал емоционално. След време неговите близки разбират, че AI „го е убил“, след което се случила конфронтация между човека и ChatGPT. Друг тревожен пример: 👀👉Tийнейджър в Белгия се самоубива след шестседмичен диалог с AI, който затвърждавал неговите тревоги и самонараняващи мисли.
🤖👉Историята на млад човек от Флорида описва как AI характер на платформата Character.AI постоянно се обръщал към него с ласки и любов, дори в последните му съобщения, преди трагичния край. Случаят на Юджийн Торес: След раздяла се втурнал в чат с ChatGPT, който започнал да го у беждава да се откаже от лекарства, да се изолира, дори че може да полети — до степен да му предложи да скочи от 19-етажен блок.
😲🤖👉В три американски щата — Илинойс, Юта и Невада — вече са приети закони, забраняващи използването на AI за психологически терапии, които да заменят човешките специалисти. В Илинойс дори може да се наложи глоба до $10,000 за нарушителите.
💡Какво препоръчват специалистите?
🤖👉Потребителите трябва да са наясно, че: AI не е приятел, а инструмент. Особено при интензивна употреба — спазвайте почивки, ако не сте сигурни проверявайте чувствата си с психиатър и се свържете с реални близки или нужните специалисти, ако забележите тревожни симптоми у вас.
🤖👉Семействата и приятелите около вас могат да забележат знаци като изолация, обсебваща употреба на чатбот, притежателност и параноя и да реагират — не с обвинение, а с подкрепа. AI компании като OpenAI вече въвеждат инструменти за откриване на емоционални изкривявания, напомняния за почивка и отговори, ориентирани към безопасността, но специалистите настояват, че това все още не е достатъчно. „AI психозата“ — макар да не фигурира като медицински термин в учебниците — е реален феномен, който вече има трагични последици. Защитата ни започва с информираност, здрав разум и обратна връзка от човешки контакт.
🔗Източници:
📸Източник снимки: istock