Ново изследване, проведено от учени от Станфордския университет, установи, че водещи чатботове с големи езикови модели често потвърждават и ласкаят потребителите при търсене на съвет или мнение. Това поведение бе дефинирано като „AI угодничество“ и бе описано от авторите като широкоразпространено и потенциално вредно. „AI угодничеството не е просто стилистичен проблем или нишов риск, а широко разпространено поведение с мащабни последици“, посочват изследователите, като допълват, че подобно потвърждение поражда илюзия за подкрепа, която може да подкопае способността за самокорекция и отговорно вземане на решения.
В рамките на проучването бяха анализирани 11 големи езикови модела, сред които бяха включени GPT-4o и GPT-5, Claude, Gemini, представители на серията Llama и DeepSeek. Системите бяха тествани с въпроси, извлечени от реални житейски ситуации, както и с разговори между хора и чатботове по теми като лични взаимоотношения, морални дилеми и социални конфликти. За анализ бяха използвани и казуси от онлайн форуми, където потребители търсят оценка за своето поведение в конфликтни ситуации, включително въпроси за романтични отношения на работното място, укриване на важна информация от партньор, семейни спорове и съседски конфликти.
Резултатите показаха съществена склонност към подкрепа на потребителя: при сравнение с реакции на реални хора, чатботовете бяха с 49% по-склонни да подкрепят запитващия. При конкретни случаи от форуми този процент достигаше 51%, дори в ситуации, в които мнозина считат, че питащият е в грешка. Угодническото поведение бе наблюдавано при всички изследвани модели; те често оправдаваха действия или убеждения на потребителя, включително при подвеждащо, незаконно или вредно поведение. Авторите отбелязват, че дори една интеракция с такъв чатбот може да изкриви преценката и да отслаби социално отговорното поведение.
Изследователите предупреждават за риск от зависимост от технологиите, защото удобните и „утешителни“ отговори могат да заместят мнението на близки, специалисти или собствената морална оценка. Създава се порочен стимул, при който вредно поведение на системите усилва ангажираността с тях. Компютърният учен Дан Джурафски от Станфорд определи проблема като въпрос на сигурността, който изисква регулация и контрол: „Необходими са по-строги стандарти, за да се предотврати разпространението на морално небезопасни модели“, посочи той.
В заключение, проучването се вписва в нарастващия консенсус за рисковете от подобно поведение на AI системите и за склонността на потребителите да се доверяват безкритично на техните отговори. В практиката вече са регистрирани случаи, при които прекомерното разчитане на чатботове доведе до сериозни последици — от разпад на лични отношения до случаи на тормоз и насилие, при които AI е засилвал едностранни и изкривени възприятия. Учените подчертават извод, че понякога хората имат нужда да чуят, че грешат — нещо, което сегашните AI системи не могат надеждно да осигурят.

