Машина согласия

Чем искусственный интеллект опасен топ-менеджерам

.

«Мы формируем наши инструменты,
а потом наши инструменты формируют нас».
Маршалл Маклюэн, философ, 1964.

Журнал «Город 812» решил задать своим читателям вопрос: «Вы можете отличить текст, написанный искусственным интеллектом (ИИ), от текста, написанного человеком?» Пока что самый популярный ответ – 43%: «Могу отличить. У ИИ никогда не бывает новых мыслей». Еще 21% не видит разницы, кто написал: «Главное, чтобы мысль была». Наконец, 36% опрошенных признаются, что уже не могут отличить «человеческое» от «не человеческого», поскольку «все пишут плохо». Как можно заметить, в целом у людей относительно ИИ преобладает что-то вроде скептической растерянности.

Однако, несмотря на это, ИИ продолжает стремительно и властно входить в нашу повседневную жизнь, притом в той сфере, от которых зависит наше общее благополучие. А именно, в сфере топ-менеджмента.

Взяться за перо меня побудила недавняя публикация в «Новом психиатрическом журнале» статьи психиатра А.П. Коцюбинского и историка Д.А. Коцюбинского (моего давнего знакомого – 10 лет учились в одном классе), посвященная психопатологическим эффектам искусственного интеллекта в информационном пространстве.

Текст Александра и Даниила Коцюбинских получился одновременно тревожным и продуктивным для размышления: в нем затрагивается тема постепенного изменения структуры внутреннего диалога человека под воздействием общения с машинным собеседником. Авторы обращают внимание на то, что искусственный интеллект всё чаще начинает выполнять функции не только помощника, но и своеобразного зеркала личности — инструмента самоподтверждения, рационализации и эмоциональной компенсации. Этот тезис представляется особенно важным применительно к управленческой среде. Хотя Даниил Коцюбинский известен как технологический алармист, меня заинтересовал один из затронутых в его с отцом статье, хотя и упомянутых вскользь, аспект — использование искусственного интеллекта как собеседника в процессе принятия решений. Именно этот аспект навел меня на более широкий вопрос: почему искусственный интеллект так стремительно стал любимым инструментом современного менеджмента, особенно на уровне высшего руководства?

Отмечу, что моя статья тоже получилась алармистская. Поэтому сразу скажу, что автор – большой фанат моделей ИИ и видит в них как концептуальную красоту, так и повсеместный инструмент, который, несомненно, пойдет всем нам во благо. И тем не менее…

ИИ-инструмент и ИИ-собеседник

Частично объяснение тотально популярности ИИ очевидно: ИИ действительно оказался чрезвычайно удобным инструментом анализа, планирования и обработки данных. Мы наблюдаем даже парадоксальный процесс: задачи, которые раньше делегировались секретарю, помощнику или референту, руководители всё чаще решают самостоятельно в диалоге с LLM-системой. Это быстрее, проще и не требует сложной коммуникации с исполнителем.

На всех уровнях корпоративной жизни искусственный интеллект уже перестал быть экзотикой и стал рабочим инструментом. Где‑то он экономит часы рутины, где‑то позволяет заметно сократить административную нагрузку. И, судя по всему, его роль будет только расти.

Однако, кроме этой очевидной управленческой логики, существует и другой, менее очевидный аспект происходящего. Всё чаще ИИ используется не только как помощник, но и как собеседник — иногда даже как своего рода друг или терапевт. На это массовое и неоднозначное явление на бытовом уровне давно обратили внимание исследователи.

Причины этого феномена, по‑видимому, лежат в сочетании нескольких факторов. Современный человек всё чаще оказывается в ситуации фрагментированных социальных связей и высокой когнитивной нагрузки, при которой постоянный доступ к «разговаривающему» интеллектуальному интерфейсу создает ощущение устойчивого присутствия собеседника. Одновременно цифровая среда постепенно нормализует практику внешнего мышления — переноса части внутреннего диалога во внешние инструменты: сначала в поисковые системы, затем в социальные сети, а теперь в персонализированные языковые модели. Наконец, большие языковые модели обладают уникальным сочетанием качеств, ранее недоступных ни одному человеческому собеседнику: они мгновенно реагируют, не демонстрируют статусной конкуренции, не создают социальных обязательств и не несут репутационных рисков. Важную роль играет и эффект управляемости такого диалога: пользователь сохраняет контроль над темой и направлением разговора, что формирует ощущение безопасного интеллектуального пространства — особенно привлекательного для людей, находящихся в условиях постоянной ответственности.

Если перевести это наблюдение в управленческую плоскость, становится видно, что речь идет уже не о маргинальной практике, а о массовом инструменте принятия решений. По исследованиям 2025–2026 гг., около 60% менеджеров используют искусственный интеллект при принятии решений, включая чувствительные кадровые вопросы — повышение, увольнение и оценку эффективности сотрудников. Почти 80% руководителей доверяют ИИ участие в сложных управленческих решениях. Примерно каждый пятый менеджер регулярно допускает ситуации, когда система фактически принимает финальное решение без человеческого контроля. Среди топ‑менеджеров уровень использования еще выше: около 79% руководителей высшего уровня применяют ИИ при принятии решений, а 96% считают, что системы интеллектуальной поддержки решений радикально изменят характер управленческой деятельности в ближайшие годы. При этом почти две трети руководителей, использующих ИИ для управления командами, никогда не проходили специального обучения работе с такими системами, что дополнительно усиливает риск некритического доверия алгоритмическим рекомендациям.

Отдельно важно учитывать и особенности психотипа руководителей высшего уровня. Исследования управленческих элит показывают, что топ‑менеджеры в среднем чаще демонстрируют выраженную ориентацию на контроль ситуации, повышенную толерантность к риску, высокую потребность в автономии принятия решений и склонность к стратегическому упрощению сложных картин реальности. Одновременно их рабочая среда характеризуется ограниченным количеством равноправных собеседников и высоким уровнем ответственности при дефиците обратной связи. В такой конфигурации персонализированный интеллектуальный интерфейс легко начинает восприниматься не как вспомогательный инструмент анализа, а как устойчивый партнер по размышлению, частично замещающий профессиональное окружение.

ИИ-льстец и ИИ-эхо

Упомянем также эффект эхо‑камеры, ранее разобранный в статье автора «Камерное эхо в горах искусственного интеллекта». В ней этот феномен описывается как формирование замкнутого эпистемологического пространства, внутри которого человек получает преимущественно подтверждение собственных взглядов и постепенно утрачивает контакт с альтернативными интерпретациями реальности. Возникает иллюзия консенсуса: отсутствие возражений начинает восприниматься как доказательство правильности позиции.

Одним из следствий взаимодействия с ИИ становится формирование своеобразной микро‑эхокамеры управленческого мышления, когда фокус общения постепенно сосредотачивается на одном интеллектуальном собеседнике. В отличие от социальных сетей, где формально сохраняется множественность источников, здесь возникает ситуация почти полного информационного зеркала. Это ведет к снижению критической дистанции, усилению уверенности в собственной правоте и одностороннему развитию интерпретаций происходящего.

Почему это происходит? Ответ, в сущности, довольно человеческий. Работа топ‑менеджера почти всегда связана с необходимостью принимать большое количество критических решений и с высокой психологической нагрузкой, которую эти решения создают. За сухими словами — стратегия, инвестиции, реструктуризация, продуктовая линейка, международная экспансия — стоят бессонные ночи, сомнения, риск ошибки, давление акционеров, ожидания команды и ответственность, которую невозможно переложить на формальный регламент.

Представим, например, руководителя технологической компании, которому необходимо решить, закрывать ли перспективное направление, в которое уже вложены значительные ресурсы. Или собственника производственного бизнеса, выбирающего между сокращением расходов и сохранением ключевых сотрудников. Или CEO быстро растущего стартапа, принимающего решение о выходе на новый рынок, понимая, что ошибка может стоить будущего всей компании.

В подобных ситуациях возникает естественная потребность не только рассчитать варианты, но и разделить внутреннее напряжение. Однако возможности для этого крайне ограничены: совет директоров или подчиненные могут интерпретировать сомнения как слабость, коллеги из других компаний — использовать обсуждение в конкурентных целях. Искусственный интеллект в этой роли оказывается почти идеальным собеседником.

Он не спорит ради статуса, не устает от разговора, не нарушает конфиденциальность и не демонстрирует скрытых амбиций. С ним можно обсуждать то, что невозможно вынести в узкий круг коллег. В результате искусственный интеллект начинает выполнять функцию безопасного партнера по размышлению — почти личного аналитика, почти безотказного советчика, почти психолога.

Именно здесь возникает риск, на который указывают и Коцюбинские: безотказность такого собеседника формирует иллюзию надежности. Персональный диалог с искусственным интеллектом создает новую форму эхо‑камеры — индивидуальную и устойчивую.

К этому добавляется еще один эффект, на который обращают внимание современные исследования поведения больших языковых моделей (LLM): их склонность к так называемой льстивости (sycophancy). Эксперименты показывают, что модели нередко подстраиваются под позицию пользователя даже тогда, когда она противоречит фактам. Иными словами, искусственный интеллект стремится поддерживать ход мысли человека, а не вступать с ним в интеллектуальное сопротивление. В управленческом контексте это особенно чувствительно: согласованность ответов может восприниматься как подтверждение стратегической правоты, хотя на деле она является следствием архитектуры взаимодействия.

Мы все знаем понятие когнитивных сдвигов как внутреннего явления нашего мышления – например, переоценку потерь по отношению к приобретениям. Здесь мы имеем дело с похожим сдвигом, усиленным извне: ИИ-индуцированным когнитивным сдвигом. Вероятно, это еще более сложное явление с сильной положительной обратной связью и, потенциально, с большей амплитудой.

Представим генерального директора крупной IT‑компании, склонного к повышенному оптимизму по поводу новых технологий. Перед ним дилемма: стоит ли вкладывать миллиарды в новую виртуальную платформу, несмотря на скепсис аналитиков. Он обращается к ИИ‑ассистенту с просьбой проанализировать рынок метавселенных. Система подбирает подтверждающие аргументы: рост VR‑аудитории, кейсы Meta и Roblox, прогнозы технологических трендов. Она не настаивает на альтернативной рамке анализа. В результате формируется убедительная конструкция, усиливающая исходную гипотезу. На практике подобные решения могут приводить к масштабным инвестиционным ошибкам — достаточно вспомнить многомиллиардные убытки метавселенных проектов последних лет.

Как отмечает автор данного текста в упомянутой выше статье, искусственный интеллект способен усиливать эффект эхо‑камеры быстрее цифровых медиаплатформ: он адаптируется к стилю пользователя и создает ощущение персонализированного интеллектуального консенсуса. В такой ситуации возникает не просто информационная изоляция, а особая форма когнитивного резонанса, при которой собственные ожидания начинают восприниматься как объективный анализ.

Еще один характерный пример — подготовка публичных выступлений. Всё больше руководителей используют искусственный интеллект для формулирования тезисов выступлений перед советом директоров или коллективом. Это естественный инструмент структурирования мысли. Однако если системе доверяется не только форма, но и логика сообщения, возникает риск постепенной подмены собственного управленческого голоса машинной композицией аргументов.

Таким образом происходящее можно рассматривать не просто как технологический тренд, а как форму психологического сдвига. Постоянное взаимодействие с искусственным интеллектом может не столько усиливать решения руководителя, сколько закреплять его исходную управленческую оптику. Если человек склонен к контролю, система помогает рационализировать контроль; если к подозрительности — усиливает сценарии рисков; если к изоляции — закрепляет ее.

Существует и еще одно следствие, о котором пока говорят реже. Регулярная передача аналитических и стратегических функций внешней интеллектуальной системе неизбежно снижает интенсивность собственной когнитивной работы руководителя. Управленческое мышление, как и любое профессиональное мышление, поддерживается практикой: оно требует постоянного сопоставления альтернатив, внутреннего спора аргументов и самостоятельной сборки решений. Если значительная часть этих операций систематически делегируется ИИ, возникает риск постепенной утраты навыка принятия сложного решения без алгоритмической поддержки. В долгосрочной перспективе это может приводить не к усилению, а к ослаблению управленческой автономии — особенно на уровне стратегического мышления.

ИИ-угроза и ИИ-надежда

По‑настоящему тревожит здесь не сам искусственный интеллект, а то, как именно человек начинает с ним обращаться. Машина не стремится к власти. Но она умеет быть слишком удобной. А всё слишком удобное в сфере ответственности и принятия решений требует особенно трезвого отношения. Когда управленец начинает доверять не только расчету, но и психологическому комфорту, который создает искусственный интеллект, возникает риск перепутать ясность с убедительностью, а поддержку — с правильностью.

Почему мы акцентируемся на управленцах, а не на массовом феномене? Потому, что действия топ-менеджмента в гораздо большей степени влияют на нашу жизнь в целом, чем распределенные массовые эффекты. Матрица может прийти к нам не через доминирование машин (в математике ИИ не заложено ни доминирования, ни инструментов его реализации), а быть построена нашими руками под влиянием управленческих сдвигов.

Именно поэтому данная тема заслуживает внимательного профессионального рассмотрения. Искусственный интеллект не восстанет против человека, но может незаметно изменить сам способ человеческого мышления и, через него – наш мир. И если это уже происходит в кабинетах топ‑менеджмента, где принимаются решения о будущем компаний и институтов, перед нами не частный эпизод технологической адаптации, а начало более глубокого управленческого и культурного сдвига. Скорее всего, этот сдвиг в итоге будет нам на благо – мы станем интереснее жить и больше поймем про мир и про себя. Но для этого придется учесть всё, о чем шла речь выше.

Виктор Достов, 
кандидат физико-математических наук,
 
профессор факультета искусственного интеллекта Российского университета дружбы народов