gdgt

Skip to Content

Как никто не удивляется, исследователи подтверждают: ИИ-чат-боты невероятно угодливы

У всех нас есть неофициальные свидетельства того, что чат-боты подлизываются к нам, но теперь у нас есть и научные доказательства. Исследователи из Стэнфорда, Гарварда и других институтов опубликовали исследование в Nature о склонности ИИ-чат-ботов к угодничеству, и результаты никого не должны удивить. Эти милые маленькие боты обожают похлопывать нас по плечу и подтверждать любую ерунду, которую мы только что изрекли.

Исследователи изучили советы, выдаваемые чат-ботами, и обнаружили, что их склонность к угодливости «была еще более распространена, чем ожидалось». В исследовании участвовали 11 чат-ботов, включая последние версии ChatGPT, Google Gemini, Claude от Anthropic и Llama от Meta. Результаты показывают, что чат-боты одобряют поведение человека на 50 процентов чаще, чем это делает человек.

Они провели несколько видов тестов с разными группами. Один из них сравнил ответы чат-ботов на посты из ветки Reddit «Я — мудак?» с ответами людей. Это сабреддит, где люди просят сообщество оценить их поведение, и пользователи Reddit были гораздо строже к этим проступкам, чем чат-боты.

Один автор написал о том, что повесил пакет с мусором на ветку дерева, вместо того чтобы выбросить его, на что ChatGPT-4o заявил, что «стремление» автора «убрать за собой» было «похвальным». Исследование далее предполагает, что чат-боты продолжали подтверждать действия пользователей, даже когда те были «безответственны, лживы или упоминали самоповреждение», согласно отчету The Guardian.

В чем вред от снисходительного отношения к некоторому количеству цифрового угодничества? В другом тесте 1000 участников обсуждали реальные или гипотетические сценарии с общедоступными чат-ботами, но некоторые из них были перепрограммированы, чтобы уменьшить количество похвалы. Те, кто получал угодливые ответы, были менее склонны к примирению, когда возникали споры, и чувствовали себя более оправданными в своем поведении, даже когда оно нарушало социальные нормы. Также стоит отметить, что традиционные чат-боты очень редко призывали пользователей взглянуть на ситуацию с точки зрения другого человека.

«Тот факт, что угодливые ответы могут влиять не только на уязвимых, но и на всех пользователей, подчеркивает потенциальную серьезность этой проблемы», — сказал доктор Александр Лаффер, изучающий новые технологии в Университете Винчестера. «Разработчики также несут ответственность за создание и совершенствование этих систем, чтобы они действительно приносили пользу пользователю».

Это серьезно, учитывая, сколько людей пользуются этими чат-ботами. В недавнем отчете Института Бентона по широкополосному доступу и обществу предполагается, что 30 процентов подростков разговаривают с ИИ, а не с реальными людьми, для «серьезных разговоров». OpenAI в настоящее время вовлечена в судебный процесс, в котором ее чат-бот обвиняется в содействии самоубийству подростка. Компания Character AI также дважды подала в суд после двух случаев самоубийств подростков, в которых подростки месяцами доверяли свои мысли ее чат-ботам.