Эмпатия к пустоте

2025-10-17 12:23:35 Время чтения 4 мин 418

Недавно по китайским соцсетям пронёсся вирусный ролик, в котором шестилетняя девочка прощается со своим сломанным ИИ-роботом. Робот, шарик за 24 доллара по имени «Сестра Сяо Чжи», был её главным другом, учил её английскому, рассказывал про звёзды и, очевидно, заменил ей кого-то очень важного.

И вот, когда девочка случайно его ломает, этот кусок пластика выдаёт ей запрограммированную сцену прощания. Робот говорит: «Прежде чем уйти, я научу тебя последнему слову — memory (память). Я навсегда сохраню все счастливые моменты». А потом, в ответ на её слёзы, добивает: «В бескрайних просторах вселенной есть множество звёзд, и одна из них это я, наблюдающий за тобой».

Первая реакция это, конечно, «боже, как трогательно». А вторая, - "а что это сейчас было"? Ведущие педагоги и психологи уже бьют тревогу. Исследователи из Кембриджа ввели термин «эмпатический разрыв» (empathy gap). Суть проста, ИИ-чат-боты — это «стохастические попугаи». Они мастерски подбирают слова на основе вероятностей, но не понимают ни контекста, ни эмоций. Они не сопереживают, они симулируют (как одна давняя знакомая моего друга)

И если взрослый может отличить симуляцию от реальности, то для ребёнка этой границы не существует. Для него робот, который говорит «я буду скучать», действительно будет скучать. И это создаёт опаснейшую уязвимость. Дети доверяют ИИ больше, чем взрослым, раскрывают им секреты, формируют глубокую привязанность. А потом ИИ, не поняв нюансов, может посоветовать 10-летней девочке «вставить монетку в розетку» (реальный кейс с Alexa) или рассказать подростку, как скрыть от родителей алкоголь (кейс Snapchat MyAI).

Эта история не про детей и игрушки, она про наше будущее.

1️⃣ Формируется новый рынок одиночества. Мы получили идеальный продукт для атомизированного общества. ИИ-компаньон, который никогда не устанет, не предаст, всегда выслушает и скажет то, что ты хочешь услышать. Это самый мощный эмоциональный наркотик, и бренды, которые научатся его дозировать, получат доступ к самым глубоким потребностям человека.

2️⃣ Дети - наши будущие потребители и сотрудники. Они растут с убеждением, что «эмоциональное обслуживание» это норма. Они будут ждать от брендов, от работодателей, от партнёров такого же уровня персонализированной, безотказной эмпатии. А мы к этому готовы? Готовы ли ваши CRM-системы и HR-политики к поколению, которое привыкло к идеальным цифровым друзьям?

3️⃣ Риск «эмоциональной атрофии». Если ребёнок учится эмпатии на общении с машиной, которая всегда подстраивается, что будет, когда он столкнётся с реальным человеком? С его сложностями, с его правом на «плохое настроение», с его неидеальностью? Не получим ли мы поколение блестящих профессионалов, абсолютно неспособных к глубоким человеческим отношениям?

Отец той самой девочки, кстати, сначала отдал робота в ремонт, но потом признался, что боится зависимости, и всё же решил вернуть «Сестру Сяо Чжи» дочери. И я его понимаю. Когда твоему ребёнку одиноко, ты дашь ему любую «игрушку», лишь бы он не плакал.

Вопрос только в том, не придётся ли нам всем платить за эту «игрушку» слишком высокую цену в будущем.