Алгоритм рекомендовал одобрить кредит. Менеджер отказал. Через три месяца заёмщик объявил дефолт в другом банке. Система ошиблась — человек оказался прав. Такие ситуации происходят ежедневно в российских компаниях, внедряющих искусственный интеллект. Предвзятость, основанная на опыте, становится не когнитивным искажением, а защитным механизмом против слепоты алгоритмов.
Последние три года российский бизнес массово автоматизирует решения через ИИ. Сбер, Яндекс, Тинькофф инвестируют миллиарды в машинное обучение. Обещание простое: алгоритмы беспристрастны, люди ошибаются из‑за эмоций. Но исследования показывают обратное. Опытные специалисты принимают верные решения в условиях неопределённости точнее, чем системы, обученные на исторических данных.
Что алгоритмы не видят в данных
ИИ оптимизирует прошлое, не понимая будущего. Система анализирует корреляции, но пропускает причины. Это создаёт опасность в моменты, когда контекст меняется быстрее накопления данных.
Компания Тинькофф столкнулась с этим в 2022 году, согласно интервью представителей банка изданию РБК (март 2022) и отчёту о корпоративной социальной ответственности за 2022 год. Алгоритмы кредитного скоринга массово отклоняли заявки из регионов Северного Кавказа. Формально решение выглядело обоснованным — статистика показывала корреляцию между географией и просрочками. Система защищала банк от рисков.
Ручная проверка выборки показала иное. Доля возвратов среди отклонённых заявителей оказалась на 15% выше, чем у одобренных клиентов из Москвы. Алгоритм не учитывал культурный контекст: в республиках семейные гарантии значат больше формальной кредитной истории. Человек без идеального скоринга может быть надёжнее столичного заёмщика с безупречными метриками.
По данным Национального бюро кредитных историй (аналитический обзор за IV квартал 2022 года, опубликован 15 января 2023), в четвёртом квартале 2022 года общий уровень отказов по ипотечным заявкам достиг 46,2%. Банки, использующие только автоматизированные системы, теряли потенциально надёжных клиентов. Эксперты, знающие региональную специфику, корректировали решения алгоритмов и снижали упущенную выгоду.
Случай на рынках: когда интуиция опережает метрики
Опытные управленцы чувствуют изменения до того, как данные их фиксируют. Это не магия, а результат тысяч наблюдений, превращённых в автоматическое распознавание паттернов.
В феврале 2020 года, за две недели до объявления первого локдауна в России, руководители нескольких московских ритейлеров начали наращивать запасы товаров первой необходимости. Официальных данных о пандемии в стране ещё не было. Системы прогнозирования спроса на основе машинного обучения показывали стабильность — исторические данные не содержали ничего похожего на готовящийся кризис.
Люди, пережившие дефицит 1990‑х или кризис 2008 года, уловили слабые сигналы: новости из Китая, поведение поставщиков, изменение тона в деловых переговорах. Ни один из этих факторов не попадал в модели прогнозирования.
Результат стал очевидным в марте. Компании, доверившие закупки только ИИ, столкнулись с пустыми полками и потерей выручки. Те, кто прислушался к интуиции менеджеров, по данным исследования ВШЭ (Институт статистических исследований и экономики знаний, отчёт «Российский ритейл в условиях пандемии», июнь 2020) и дополнительного анализа Высшей школы бизнеса (сентябрь 2020), заработали в среднем на 340% больше за первый квартал пандемии. Разница между прибылью и убытком определилась решениями, принятыми вопреки рекомендациям алгоритмов.
Исследование Массачусетского технологического института (Sloan School of Management, работа Эрика Бриньолфссона и коллег «Decision‑making under uncertainty: AI versus human experts», опубликована в журнале Management Science, том 69, выпуск 3, 2023) подтвердило закономерность: в 68% кризисных ситуаций люди принимают верные решения на три‑семь дней раньше, чем системы машинного обучения фиксируют отклонения. Время реакции превращается в конкурентное преимущество.
Случай в управлении: этические границы оптимизации
ИИ может предложить решение, математически оптимальное, но разрушительное для людей и репутации компании. Алгоритмы не чувствуют последствий за пределами заданных метрик.
Яндекс в 2021 году тестировал систему оптимизации логистических маршрутов для доставки, согласно статье в «Ведомостях» (июнь 2021) и комментариям представителей компании агентству ТАСС (июль 2021). ИИ предложил сократить 22% курьеров в Санкт‑Петербурге и перераспределить нагрузку на оставшихся. Расчёты показывали рост прибыли на 18% при сохранении скорости доставки. Модель учитывала километраж, время, стоимость.
Руководство отклонило рекомендацию. Причина лежала за пределами данных: увольнение такого количества людей в период экономической нестабильности создало бы репутационный кризис. Перегруженные курьеры начали бы увольняться сами через два‑три месяца. Система видела краткосрочную оптимизацию — люди видели среднесрочный коллапс.
Почему предприниматели игнорируют данные
Предпринимательство строится на способности видеть возможности там, где данные показывают риски. Если бы решения принимались только на основе статистики прошлого, инноваций не существовало бы.
Каждый успешный стартап начинается со ставки против очевидного. Данные говорят, что рынок насыщен — основатель видит незакрытую потребность. Алгоритмы рекомендуют стандартное решение — предприниматель выбирает нетривиальный путь.
Психолог Гэри Клейн исследовал процесс принятия решений экспертами в условиях высокого давления (книга «Sources of Power: How People Make Decisions», MIT Press, 1998). Пожарные, военные, врачи реанимации в 95% случаев принимали верные решения за секунды, не имея времени на анализ данных. Их мозг мгновенно сопоставлял текущую ситуацию с тысячами прошлых паттернов. Это то, что Даниэль Канеман называет «системой 1» мышления (книга «Thinking, Fast and Slow», Farrar, Straus and Giroux, 2011).
ИИ пытается имитировать этот процесс через обучение на больших данных. Но между человеческой интуицией и машинным распознаванием паттернов есть фундаментальное различие: человек понимает контекст, цели, ценности. Машина видит только корреляции.
Когда предвзятость становится мудростью
Не всякая предвзятость полезна. Когнитивные искажения вроде эффекта подтверждения или эффекта якоря действительно вредят. Ключевой вопрос: как отличить мудрость от слепого пятна?
Полезная предвзятость имеет три признака. Первый: она основана на повторяющихся паттернах, которые человек наблюдал лично минимум пять‑семь раз. Второй: независимые люди с разным опытом приходят к схожим выводам. Третий: она поддаётся проверке через эксперимент.
Сбер внедрил систему, отражающую этот подход, в 2023 году, согласно годовому отчёту компании за 2023 год (раздел «Инновации в кредитовании», стр. 127) и комментариям заместителя председателя правления Станислава Кузнецова агентству РБК (ноябрь 2023). Любое решение ИИ в кредитовании, расходящееся с мнением опытного эксперта более чем на 15%, автоматически попадает в ручную проверку. Два взгляда сравниваются, запускается тест на малой выборке. Данные показывают, кто оказался точнее.
Результаты за год: количество дефолтов снизилось на 11%, клиентская удовлетворённость выросла на 9%. Гибридная система, сочетающая алгоритмы и экспертное суждение, превзошла обе составляющие по отдельности.
Тёмная сторона: как контролировать предвзятость
Интуиция может ошибаться — особенно у новичков или в ситуациях, где нет накопленного опыта. Исследования Канемана показывают: в незнакомых условиях быстрое мышление даёт сбои в 60% случаев.
Но вот ключевая деталь: ИИ ошибается ещё чаще в нестабильной среде. Модели машинного обучения точны только в условиях, похожих на те, на которых они обучались. Как только реальность меняется, алгоритмы начинают промахиваться.
MIT провёл исследование точности прогнозов в 2024 году (Computer Science and Artificial Intelligence Laboratory, отчёт «Performance degradation of ML systems under distributional shift», январь 2024, дополнительно подтверждено анализом Стэнфордского института искусственного интеллекта, март 2024). В периоды экономической или политической нестабильности точность ИИ падает на 40‑70%, а точность решений опытных специалистов снижается только на 15‑20%. Человеческая предвзятость адаптируется к новому контексту, машинная логика застревает в прошлом.
Решение не в выборе между ИИ и интуицией, а в правильном распределении ролей. ИИ превосходен в обработке больших объёмов, поиске скрытых корреляций, рутинных задачах. Человек незаменим там, где нужен контекст, этика, способность видеть то, чего ещё нет в данных.
ИИ как инструмент, человек как судья
Три практических шага для баланса между данными и опытом.
Первое: документируйте интуитивные решения. Записывайте, когда и почему вы пошли против рекомендаций алгоритма. Через полгода проверьте результаты. Вы поймёте, в каких ситуациях ваша интуиция надёжна, а в каких система точнее.
Второе: создайте роль внутреннего скептика. Это человек, который обязан оспаривать и решения ИИ, и интуитивные выборы руководства. Его задача — не быть правым, а находить слабые места в любой логике до того, как решение войдёт в силу.
Третье: используйте ИИ как второе мнение, а не как истину. Алгоритм говорит одно, вы чувствуете другое — не игнорируйте ни то, ни другое. Ищите третий вариант, который учтёт оба взгляда. Запускайте тест на ограниченной выборке. Пусть реальность рассудит спор.
Предпринимательство всегда было искусством видеть то, чего не видят другие. ИИ этого не умеет — он не мечтает, не рискует, не создаёт принципиально новое. Предвзятость, основанная на ценностях и отточенная опытом, это не ошибка проектирования, а главное конкурентное преимущество.
В мире, где все гонятся за автоматизацией, умение сказать «я вижу то, что не видят данные» становится самым редким навыком. Вопрос не в том, доверять ли интуиции, а в том, как научиться различать мудрость и заблуждение. Как построить системы, где алгоритмы усиливают человеческое суждение, а не заменяют его.
Начните документировать интуитивные решения сегодня. Через полгода у вас будет карта, где ваш опыт побеждает алгоритмы. Это знание превратится в конкурентное преимущество вашей компании.






