Конвейер ярости: почему интернет делает нас злее
Предвзятость была у людей всегда, но соцсети 2026 года превратили её в оружие. Алгоритмы не просто «соглашаются» с тобой — они активно ищут контент, которы
Предвзятость была у людей всегда, но соцсети 2026 года превратили её в оружие. Алгоритмы не просто «соглашаются» с тобой — они активно ищут контент, который заставит твоего Слона впасть в ярость или страх.
Почему гнев — это валюта
Алгоритм следит за вовлеченностью: лайки, комменты, время просмотра. Эмоционально заряженный контент (обида, моральное негодование, угроза группе) собирает в разы больше реакций, чем сухие факты.
Итог: если ты один раз ответил хейтеру в комментариях под постом о политике или фитнес-мифах, алгоритм решит, что тебе это нравится. Он будет заваливать тебя всё более радикальным контентом, чтобы держать градус эмоций. Через месяц твоя лента станет не зеркалом твоих взглядов, а их искаженной и ядовитой карикатурой.
Пузырь против Эхо-камеры
Пузырь фильтров: Ты просто не видишь другую точку зрения, она скрыта алгоритмом.
Эхо-камера: Ты видишь чужое мнение, но только в издевательском контексте как «позицию врага». Это только сильнее сплачивает тебя со «своими» и усиливает ненависть к «чужим».
Ремонт информационной диеты
Ищи хороших оппонентов: Подпишись на людей, с которыми ты не согласен, но которые аргументируют свою позицию достойно.
Добавь трения: Не читай то, что подсовывает лента. Иди к источникам сам, вбивая адреса руками.
Лимит времени: Влияние алгоритма на мозг дозозависимо. Чем меньше сессия, тем меньше он успевает тебя «перепрошить».
Твой Слон не заметит, как его превратили в фанатика. Это работа Всадника — выстроить стены до того, как информационный шум их снесет.
---
Научные источники
- 1. Huszár, F., et al. (2022). Algorithmic amplification of politics
- 2. Pariser, E. (2011). The Filter Bubble
Это дополнительный материал. Полная система — психология, биология и пошаговый метод — в книге.
Читать книгу →