Юваль Ной Харари – великий визионер, но, глядя на календарь, можно констатировать: его прогноз о «взломе человеческой цивилизации» к 2025 году оказался, мягко говоря, преждевременным. Мы уже в 2026-м. Мир не рухнул, демократии (в своем роде) функционируют, а люди не превратились в зомби, управляемых алгоритмами.
Анализируя отчет «РБК Трендов» и реальную практику работы с людьми, я предлагаю не просто пугаться будущего, а взвесить аргументы «За» и «Против». Где ИИ действительно наступает нам на пятки, а где он упирается в «стеклянный потолок», который (к счастью для нас) пробить не в силах?
Эффект «Зловещей долины»: почему клиенты возвращаются к людям
Харари предрекал, что ИИ станет лучшим другом и психотерапевтом, вытеснив живое общение. Технически ИИ научился имитировать эмпатию виртуозно: он даже специально делает паузы и мелкие ошибки, чтобы казаться «человечнее».
Но мы наблюдаем обратный процесс – своего рода «отрезвление».
В прошлом году многие кинулись тестировать ИИ-психологов. Это было доступно, дешево и анонимно. Но наигравшись с алгоритмом, люди возвращаются к живому специалисту. Они приходят с запросом: «Я хочу поговорить с тем, у кого есть Душа».
Это похоже на индустрию компьютерных игр. Да, можно с головой уйти в виртуальную реальность, графика там потрясающая. Но VR-очки не заменили живые встречи, объятия и посиделки на кухне. Суррогат остается суррогатом.
На супервизиях в proEgo мы начали массово разбирать кейсы клиентов, которые приходят к живым терапевтам после месяцев общения с ботами. Их обратная связь звучит удивительно одинаково: «Сначала это успокаивает, но потом становится приторно».
ИИ запрограммирован на «безусловное принятие» и бесконечное «поглаживание». В острой фазе стресса это работает как обезболивающее. Но когда тревога спадает и человеку нужен глубокий контакт, конфронтация или честный взгляд со стороны, ИИ продолжает «лить мёд». Эта механическая «хорошесть» начинает раздражать своей фальшью. Клиент возвращается с запросом: «Я хочу поговорить с тем, у кого есть Душа, и кто может быть со мной честным, а не удобным».
Человек – существо адаптивное. Мы учимся считывать «ужимки и прыжки» нейросетей. Это бесконечная гонка: ИИ учится имитировать искренность, а мы учимся распознавать фальшь. И пока в этой гонке побеждает наше чутьем на «настоящее».
Главный барьер ИИ: стена Смыслов
В чем Харари, возможно, ошибается фундаментально – так это в творческом потенциале алгоритмов. Он опасался, что ИИ захватит культуру и начнет создавать смыслы за нас.
ИИ – это гениальный компилятор. Он работает внутри замкнутого контура созданного знания. Он может перетасовать известные факты миллионом способов, но он не может выйти за пределы этого контура. Все его «озарения» – это либо галлюцинации, либо «те же яйца, только в профиль».
Создавать новые смыслы способен только человек.
Только человеческое сознание может за долю секунды, на базе парадокса, интуиции или ошибки, родить идею, которой не существовало в природе. Мы можем взять ответ ИИ и на его базе создать нечто третье, принципиально иное. ИИ же обречен вечно пережевывать прошлое человечества. Пока этот барьер не преодолен, говорить о замене человека в стратегических и творческих ролях рано.
Для бизнеса это означает одно: если ваша стратегия строится на копировании успешных практик конкурентов – ИИ вас заменит. Он компилирует быстрее. Но если ваш бизнес строится на инновации, прорыве и создании того, чего еще нет на рынке – ИИ бессилен.
«Предиктивная аналитика»: от «посмертного учета» к управлению будущим.
А вот где ИИ действительно работает, создавая ценность, недоступную человеку, – это работа с большими данными.
Долгое время HR-аналитика в компаниях была «посмертной». Мы получали отчеты: «За квартал уволилось 15 человек, выгорело 20% отдела». Это констатация факта, когда делать что-то уже поздно. Человеческий мозг не способен в режиме реального времени отслеживать сотни переменных по тысяче сотрудников.
В нашей платформе мы отдали эту зону ИИ. Результат? Мы перешли от констатации «смерти» к предиктивной медицине бизнеса. Алгоритмы анализируют обезличенные метаданные (паттерны поведения, частоту запросов, семантические ядра обращений) и подсвечивают «красные зоны» задолго до того, как сотрудник напишет заявление на увольнение. HR видит на дашборде: «В отделе маркетинга риск выгорания вырос на 40% за две недели».
Регулирование как новый «Ядерный паритет»
Харари прав в одном: бесконтрольное развитие технологий опасно. Но здесь вступает в силу принцип «гонки вооружений».
Мы живем в эпоху нового ядерного паритета. В ХХ веке мир спасло понимание: нажатие красной кнопки приведет к взаимному уничтожению. С ИИ ситуация похожая. За каждым алгоритмом стоит не мифический «Скайнет», а конкретные люди с деньгами и властью. И они понимают риски.
Именно поэтому мы видим, как Европа, проигрывая в создании собственных LLM-моделей, инвестирует колоссальные ресурсы в системы регулирования и сдерживания. Это не слабость, это стратегия выживания. Регулирование нужно не для того, чтобы запретить прогресс, а чтобы не допустить критического перекоса во влиянии на умы целых стран.
Эффект «Мирного атома»: от апокалипсиса к созиданию
Не стоит впадать в панику от прогнозов Харари. Давайте вспомним историю: расщепление атома дало человечеству не только бомбу, но и АЭС, которые освещают города, и ядерную медицину, спасающую жизни.
С ИИ происходит ровно то же самое. Это мощнейший инструмент, если использовать его не для генерации фейков, а для решения задач, где человеческий мозг буксует из-за биологических ограничений.
- Сжатие времени: то, на что у группы ученых ушли бы десятилетия (анализ сворачивания белков, поиск новых материалов), ИИ делает за недели. Мы стоим на пороге революции в фармакологии: создание лекарств от ранее неизлечимых болезней (онкологии, генетических заболеваний) сокращается с 15-20 лет опытов до 2-3 лет компьютерного моделирования.
- Вычисления за гранью возможного: ИИ способен удерживать в «оперативной памяти» миллионы переменных одновременно – будь то климатическая модель Земли или логистика мегаполиса.
Где здесь место человека?
Именно здесь в игру вступает то, что мы привыкли называть «чуйкой» или интуицией. С точки зрения нейропсихологии, интуиция – это не магия, а колоссальный объем знаний и опыта, спрессованный в мгновенный неосознанный вывод.
ИИ может предложить 100 вариантов молекулы лекарства. Но именно человек-эксперт, обладающий этой «спрессованной мудростью», должен провести верификацию.
ИИ – это идеальный генератор гипотез. Человек – это идеальный верификатор истины. В этом тандеме – ключ к качественному скачку уровня жизни, а не в попытке заменить одного другим.
Резюме. Чего ждать в 2026?
Угроза 2026 года – не в том, что ИИ станет «оракулом» и поработит нас. Угроза прозаичнее: мы можем сами разучиться думать, полагаясь на «костыль» в виде чат-бота, или, наоборот, в страхе запретить использовать этот мощный инструмент.
Задача бизнеса сегодня – выстроить стратегию «Гибридного интеллекта»:
- Делегировать ИИ «вычисления»: пусть алгоритмы ищут лекарства, считают логистику и пишут код.
- Внедрите ИИ в бэк-офис. Используйте предиктивную аналитику. Перестаньте управлять компанией, глядя в зеркало заднего вида («посмертные данные»). Пусть ИИ моделирует будущие риски в компаниях, а не только картинки для постов.
- Оставить Человеку «Смыслы»: учить людей тому, что машине недоступно – созданию принципиально нового, этической верификации решений ИИ и глубокой эмпатии.
- Верните людей во фронт-офис. Если вы хотите продавать дорого и долго удерживать клиента (LTV), дайте ему живого человека, а не «приторного» бота.
- Использовать Интуицию как фильтр: поощрять экспертность, которая позволяет взглянуть на результат работы нейросети и сказать: «Это выглядит логично, но интуиция подсказывает, что здесь ошибка».
Пока ИИ учится быть похожим на нас, нам важно не разучиться быть людьми и использовать этот «мирный атом» для созидания. И судя по тому, что 2025 год мы пережили – у нас отличные шансы.
Комментарии