Об опасностях ИИ-голизма

Или почему в пользовании искусственным интеллектом нужны умеренность и гигиена

.

Статья профессора Виктора Достова, опубликованная на сайте «Города 812», ставит в высшей степени актуальную проблему, связанную с опасностью некритического использования искусственного интеллекта (ИИ) при принятии топ-менеджерских решений. То есть таких решений, от которых в конечном счете зависит судьба не только отдельных людей, но общества в целом.

Чтобы было понятно, до какой степени эта проблема актуальна, просто представьте на миг, что недавнее решение, кажущееся на первый незамутненный взгляд абсурдным (то есть приведшим к последствиям на 180 градусов отличающимся от исходных расчетов), о начале агрессии США и Израиля против Ирана, явилось результатом не только недостатка прозорливости тех, кто это решение принимал, но и их предварительных «консультаций» с ИИ. А ведь, скорее всего, именно так всё и было. И здесь самое время вспомнить о том, что ИИ, как убедительно рассказал Достов, не столько разумно советует, сколько изящно поддакивает, стремясь политкорректно угодить вопрошающему.

Одним словом, человечество пребывает сегодня в том сакраментальном моменте, когда возникает жизненно важная необходимость выработки правил пользования искусственным интеллектом, аналогичных тем, которые существуют в отношении алкоголя и других сильнодействующих веществ. Иными словами, необходима осознанная гигиена пользования ИИ.

Поясню еще раз – на сей раз на языке психологии и психиатрии – чем опасен бесконтрольный «ИИ-голизм», особенно в работе топ-менеджеров.

Итак, исследования управленческих элит показывают, что высокая когнитивно-эмоциональная нагрузка топ-менеджеров приводит их к высокой общей психологической нагрузке. Конкретно речь идет о таких факторах, как необходимость постоянного сопоставления альтернатив, внутренний спор аргументов, самостоятельная выработка решений при высоком уровне ответственности, прогностической неопределенности и риске. Всё это оказывается стрессогенным для индивидуума и предельно «нагружает» адаптационно-компенсаторный потенциал человека: во-первых, его копинг (умение активно совладать с психологическими трудностями) и, во-вторых, психологическую защиту (стремление пассивно «спрятаться» от трудностей за зачастую самообманными «отговорками», что несколько камуфлирует степень внутреннего напряжения за счет его «перераспределения», но  не снимает вопроса об общей невротизации индивидуума).

Одновременно рабочая среда, в которой функционирует топ-менеджер, характеризуется ограниченным количеством равноправных собеседников при фрагментировании или дефиците у топ-менеджера обратной связи. Это является еще одним психологическим бременем.

В результате для топ-менеджера складывается сложная душевная коллизия.

С одной стороны – он пытается справиться с «валом» управленческой работы и снизить возможности для формирования невротизации. Здесь возможны далеко небезупречные стратегии, о которых пишет Достов: стремление «контролировать всё», повышенная толерантность к риску, высокая потребность в автономии принятия решений и, наконец, склонность к стратегическому упрощению сложных картин реальности.

С другой стороны – топ-менеджер испытывает потребность не только рассчитать варианты, но и разделить с кем-то внутреннее напряжение и сомнение. Однако, его подчиненные могут расценить это как проявление слабости, а коллеги из других компаний – дать заведомо недобросовестный совет, исходя из конкурентных соображений. И здесь «идеальным» другом, советчиком и даже психотерапевтом оказывается ИИ.

Результат такого общения с ИИ действительно приводит к снижению психологической тревоги за счет «размывания» ответственности за принятие решений и переноса части внутреннего диалога на внешние инструменты. Однако такое тактическое успокоение следует признать стратегически опасным. Дело в том, что субъект-субъектное взаимодействие при принятии решения (предполагающее столкновение мнений и поиск конструктивного консенсуса) в этом случае заменяется субъект-объектным контактом. А это, при некритическом доверии алгоритмическим рекомендациям, формирует ощущение безопасного интеллектуального пространства, индивидуальную и устойчивую иллюзию надежности, психологического комфорта – но зачастую в ущерб качеству принимаемых решений.

Иными словами, решение и ответственность сознательно и подсознательно перекладываются топ-менеджером на референтный для него ИИ. А ведь у ИИ отсутствует главное: ответственность за алгоритмически медианные варианты, предлагаемые им без учета особенностей реальной конкретики.

В итоге иллюзия надежности при общении с ИИ создает коварные предпосылки для замыкания размышлений топ-менеджера на общение только с ним, поскольку в условиях субъект-объектных коммуникаций нарастает эффект интеллектуального содружества (при медианном «мышлении» ИИ) и недоверия к сотрудникам корпоративной команды, оказывающим интеллектуальное сопротивление. У топ-менеджера формируется когнитивная «скотома», то есть «слепое пятно» в понимании или исследовании определенных проблем, в результате чего не замечаются какие-либо обстоятельства, противоречащие или подвергающие сомнению консенсусную с ИИ точку зрения.

Следует особо подчеркнуть, что медианная точка зрения не делает решения более правильными, поскольку фактически отсекает и не учитывает пионерские прорывные идеи, точки зрения и подходы, так как она сознательное ограничена трафаретностью, рутинностью подходов, в ущерб креативности.

Иными словами, происходит замена креативности – медианностью, а индивидуальности – видовым усредненным вариантом восприятия действительности с риском перепутать ясность с убедительностью, а поддержку — с правильностью, а также — с утратой навыков сложного решения задач без алгоритмической поддержки и ослаблением управленческой автономии, особенно на уровне стратегического мышления. На практике подобные решения могут приводить к масштабным ошибкам.

Зачастую у топ-менеджеров, излишне доверяющих ИИ, происходит отрыв от реальности с формированием паранойяльности и недоверия к людям с иными взглядами на решение конкретной проблемы. В результате в сознании и в практике топ-менеджера осуществляется замена управления интерактивными субъектами – на алгоритмическое управление некими «объектами». Из управления вынимается гуманитарная составляющая, а вместе с ней – возможность для реализации прорывных или пионерских идей, немыслимых вне учета интерактивного человеческого фактора.

Разумеется, какие-то рутинные вопросы при использовании ИИ можно просчитать и решать быстрее, чем при их обсуждении с коллегами. Но решение сложных вопросов, требующее оригинальности и нестандартности, при использовании ИИ утрачивается, что приводит к интеллектуальному застою, за которым стоит интеллектуальная управленческая и культурная деградация топ-менеджера. Причина – очевидна: ИИ не перестает быть всего лишь инструментальным средством с алгоритмически медианным и отнюдь не креативным мышлением, быстро «прощелкивающим» обычные ситуации, но явно неспособным для решения сложных и информационно «открытых» ситуаций.

Таким образом, сегодня необходимо формирование в обществе в целом, и особенно в сфере топ-менеджмента, в том числе политического, строго умеренного и осторожного отношения к потенциалу ИИ. Иными словами, подобно тому, как 50 гр. коньяка или виски способны улучшить общее самочувствие организма взрослого человека, строго дозированное и рационально осмысленное использование ИИ может улучшить качество принимаемых топ-менеджерских решений. Если же пить коньяк «бутылками», а ИИ использовать там, где ему не место – в частности, при принятии ответственных решений, то в этом случае лучше остановиться и перечитать рассказ Станислава Лема «Дознание», где интеллектуально совершенный робот Кальдер проигрывает человеку только потому, что у человека есть чисто человеческие качества – такие, как сомнение и порядочность.

Александр Коцюбинский,
профессор психиатрии, доктор медицинских наук