1

Ответ на пост «Герман Греф — технократическая вне моральность: через призму философии Ханны Арендт»

мы живем на обломках страны, которую ровно также "соптимизировали", и не ИИ, а такие титаны мысли как горбачев, гайдар, чубайс, яковлев. это даже не ИИ обученный на миллионах фактов, а клоуны со своими мелкими прихотями, шаблонами и детскими травмами.

И то что Греф кого-то там соптимизировал, это вообще детские слезки от того, кого оптимизируют случайные политики оказавшиеся наверху.

В конце концов Сбер - частная лавочка, и может по кзоту уволить всех. Но по законной процедуры.

То что проекты сыпятся по всему миру - это норма. Это рутина, заложенная в саму основу конкуренции. И гуглы, майкрософты и все прочие поназыкрывали сотни проектов, как не оправдавшие себя. Но остались компетенции, полученные при их разработке. Которые перетекают в новые проекты, что потом выстреливают.

4

Герман Греф — технократическая вне моральность: через призму философии Ханны Арендт

Герман Греф — технократическая вне моральность: через призму философии Ханны Арендт

20 ноября 2025 года Герман Греф, глава Сбербанка, заявил на конференции AI Journey, что банк уволит до 20% сотрудников, признанных «неэффективными» искусственным интеллектом. Эта новость, поданная как очередной технологический прорыв в управлении, скрывает глубокую проблему: превращение зла в банальную, технократическую процедуру. Присутствовавший на мероприятии Владимир Путин заметил: «Не бывает неэффективных сотрудников. Есть сотрудники, с которыми вы плохо работали». Но это замечание столкнулось с непроницаемой стеной технократического нарратива, за которым искусно скрывается моральная несостоятельность руководства.

В этом эпизоде отчетливо проступают контуры феномена, который Ханна Арендт описала в своей революционной работе «Банальность зла» (1963). Адольф Эйхман на процессе в Иерусалиме предстал не демоническим монстром, а серым функционером, который методично исполнял приказы, прячась за бюрократическими механизмами нацистского режима. Арендт писала: «Зло в Третьем рейхе потеряло те качества, по которым большинство людей узнают его — качество искушения». Эйхман не видел жертв своих действий — только бумаги, цифры, распоряжения. Ответственность размывалась по цепочке команд, растворяясь в безликом аппарате.

Греф совершает нечто схожее, но в эпоху, когда на смену бюрократическим предписаниям пришли алгоритмы. Если Эйхман мог сказать, что он лишь следовал приказам, то современный технократ заявляет: «Это решил искусственный интеллект». Машинное обучение становится идеальной ширмой для уклонения от моральной ответственности — ведь алгоритм «объективен», «беспристрастен», «основан на данных». Но насколько ли это так?

Формирование образа: визионер или имитатор?

Герман Греф мастерски культивировал свою репутацию «банкира номер один», окружив себя аурой технологического пророка. Как отмечал Forbes в 2017 году, «в последние годы репутация российского банкира номер один формируется вокруг визионерской оси». Блокчейн, «банковская уберизация», цифровая трансформация, экосистемное мышление — всё это Греф преподносил как неизбежное будущее, которое уже наступает под его мудрым руководством.

Эта стратегия имиджа напоминает культы личности вокруг Стива Джобса и Илона Маска — харизматичных технологических лидеров, обещающих преобразить мир. Греф заимствовал их риторику: разговоры о «революции», «экосистемах», «disruption». Он выступал на форумах в свитерах (как Джобс), говорил о колонизации будущего (как Маск), позиционировал себя не как банкира, а как архитектора новой реальности.

Однако за этим тщательно выстроенным фасадом скрывается иная реальность. Как заметил тот же Forbes: «Будущее Грефа выполнено в холодных тонах, не мобилизует на движение к нему». Технократическая утопия, которую он рисовал, оказалась лишённой человеческого измерения — холодным калькулятором эффективности, где люди сведены к KPI и могут быть «оптимизированы» по велению алгоритма.

Провалы экспансии: Крах экосистемной мечты

Амбиции Грефа простирались далеко за пределы банкинга. Сбербанк стремился превратиться в «экосистему» — термин, заимствованный из риторики Силиконовой Долины. На практике это означало агрессивную экспансию в сферы, где у банка не было ни компетенций, ни конкурентных преимуществ.

CityMobil: Подражание Uber

Проект такси CityMobil должен был стать российским ответом Uber. Сбербанк совместно с VK создали совместное предприятие O2O Холдинг. Обещания были грандиозными — лидерство на рынке агрегаторов такси, технологическое превосходство, синергия с экосистемой.

Результат? В марте 2022 года акционеры приняли решение о закрытии сервиса. По словам источников РБК, «в развитие компании инвестировано немало денег, однако этого оказалось недостаточно, чтобы она стала прибыльной». CityMobil проработал до 15 апреля 2022 года, после чего его активы были проданы компании People&People. Убыток управляющей компании в 2018 году составил 3,63 млрд рублей.

SberGames: Иллюзия игрового гиганта

В апреле 2021 года Сбербанк с помпомпой объявил о создании игрового подразделения SberGames. Планировалось инвестировать около $100 млн. Был приобретён престижный домен games.ru за предположительно миллион долларов. Руководителем стала Алиса Чумаченко, сооснователь успешной Game Insight. Заявленная цель — создание мобильных игр для международного рынка, подражание успешным студиям вроде Supercell.

Через год, в июне 2022 года, подразделение было закрыто. Формальным поводом стали санкции, затруднившие публикацию игр в App Store и Google Play. Однако санкции — лишь удобное оправдание для провала, корни которого лежали глубже. Закрытие произошло стремительно, без какой-либо стратегии переориентации или сохранения наработок. Около 200 специалистов, которых активно переманивали из других компаний с  повышением зарплат х2, в одночасье потеряли работу. Этот эпизод красноречиво демонстрирует паттерн: амбициозные заявления, массированные инвестиции в имидж проекта, а затем — внезапное сворачивание с перекладыванием вины на внешние обстоятельства.

SberSound: Музыкальный миражg

Музыкальный сервис СберЗвук (позже просто «Звук») должен был конкурировать с Яндекс.Музыкой и Spotify. На деле, как отмечали пользователи, сервис оказался крайне сырым. Один из обозревателей писал: «Голосовые ассистенты плохо ориентировались в тяжелой музыке, знакомиться с привычной мне фонотекой отказывались, зато регулярно запускали то, что я слышать не захотел бы даже на собственных похоронах».

В 2022 году Сбер вышел из числа акционеров «Звука». Проект не смог составить конкуренцию ни международным платформам , ни Яндексу.

СберБизнес и другие «инновации»

Подобных примеров множество. Проект «умного города» Рублёво-Архангельское, который должен был стать витриной технологических достижений, застопорился. Множество e-commerce проектов были свернуты. В январе 2025 года СМИ сообщали о массовых сокращениях в IT-подразделении Ecom.tech, которое разрабатывало решения для «Купера», «Мегамаркета», «Сберлогистики».

ИИ как последнее убежище: GigaChat и риторика спасения

Когда экосистемные амбиции стали рушиться одна за другой, Греф сконцентрировал свою визионерскую риторику на искусственном интеллекте. Сбербанк представил GigaChat как «российский ответ ChatGPT», «сильнейшую нейросеть на русском языке». Греф заимствовал риторику Сэма Альтмана (OpenAI) и Демиса Хассабиса (DeepMind), говоря о «революции», «трансформации» и «новой эре».

Обещания и реальность

Обещания были грандиозными. GigaChat должен был превзойти западные аналоги, стать основой для трансформации всех сервисов банка, принести невиданную эффективность. В феврале 2024 года Сбер заявил, что GigaChat обогнал ChatGPT 3.5 по некоторым метрикам на русском языке.

Однако независимые тестирования рисовали иную картину. Обозреватель 4PDA писал: «Несмотря на целый нейросетевой ансамбль, который трудится в GigaChat, назвать чат-бот полезным не получается. Он проигрывает по качеству ответов как ChatGPT, так и местному конкуренту — YandexGPT». Другой пользователь отмечал: «Наши же системы, что сберовская, что яндексовская, пока сильно отстают от лидеров».

Критики указывали на множество проблем: неспособность решать математические задачи, выдумывание фактов, поверхностные ответы, технические сбои. Один из тестировщиков резюмировал: «Самый слабый чат-бот. Ни на один вопрос не может дать правильный ответ».

От инструмента к алиби

Но именно для этого «неэффективного» с технической точки зрения ИИ нашлась идеальная роль — быть щитом для моральной несостоятельности руководства. Если GigaChat не может конкурировать с ChatGPT в написании кода или анализе данных, то он вполне подходит для того, чтобы «определять неэффективных сотрудников». Алгоритм превращается не в инструмент улучшения работы, а в механизм легитимации увольнений.

Технократия и размывание ответственности: Новый Эйхман

Здесь мы возвращаемся к Арендт. В своём анализе Эйхмана философ выявила фундаментальный механизм: зло становится банальным, когда люди перестают думать о последствиях своих действий, когда они сводят моральные решения к техническим процедурам. Эйхман не видел евреев, отправляемых в лагеря смерти. Он видел «логистическую задачу», «транспортные единицы», «плановые показатели».

Греф не видит людей, теряющих работу. Он видит «неэффективные единицы», «оптимизацию ресурсов», «показатели KPI». Человек низведён до набора метрик. Арендт писала о «неспособности думать» как корне зла. Технократия усиливает эту неспособность, предлагая готовые алгоритмические решения вместо моральных размышлений.

Культ интеллекта ИИ как оправдание

Вокруг искусственного интеллекта создан культ объективности и сверхчеловеческого интеллекта. «ИИ не ошибается», «ИИ беспристрастен», «ИИ видит паттерны, которые не видим мы» — эти мантры повторяются снова и снова. Они создают иллюзию, что решение, принятое алгоритмом, снимает с человека моральную ответственность.

Но это фундаментальная ложь. ИИ не существует в вакууме. Он детерминирован данными, на которых обучен. Если модель обучена на данных, где успешными считались те, кто работал сверхурочно, игнорируя семью и здоровье — она будет воспроизводить этот паттерн. Если в обучающих данных присутствуют систематические смещения (например, недооценка определённых типов работы или дискриминация по возрасту, полу, происхождению), алгоритм усилит эти смещения.

ИИ также детерминирован запросом. Если вы спросите систему: «Кого уволить, чтобы сэкономить максимум денег?» — она даст один ответ. Если вы спросите: «Как помочь сотрудникам стать более эффективными?» — она даст совершенно другой. Выбор вопроса остаётся за человеком. Выбор критериев эффективности остаётся за человеком. Выбор действовать на основе рекомендации ИИ остаётся за человеком.

Греф, прячась за алгоритмом, делает именно то, что делал Эйхман за бюрократической машиной: снимает с себя ответственность, перекладывая её на безликую систему.

А кого должен судить ИИ?

Даже если принять логику эффективности, возникает фундаментальный вопрос: почему оценивается только сотрудник? Если работник «неэффективен», не следует ли спросить:

  • Условия труда: Были ли созданы условия, в которых сотрудник мог быть эффективным? Адекватна ли была рабочая нагрузка? Не страдал ли человек от выгорания, вызванного системными проблемами?

  • Руководство: Получал ли сотрудник чёткие задачи и обратную связь? Не был ли его потенциал загублен некомпетентным менеджментом?

  • Обучение: Инвестировал ли банк в развитие сотрудника? Были ли предоставлены возможности повысить квалификацию?

  • Кадровая служба: Правильно ли HR-отдел подобрал человека на позицию? Не была ли это изначальная ошибка рекрутинга?

  • Стратегия: Не являются ли «неэффективные» сотрудники результатом провальных проектов, инициированных самим руководством? Если CityMobil, SberGames и другие инициативы потерпели фиаско — не это ли главная «неэффективность»?

Технократия Грефа удобно игнорирует эти вопросы. Вместо системного анализа провалов управления — простой вердикт алгоритма: «Вы неэффективны. Вы уволены».

Разрушение социального доверия: Отчуждение как метод

Решения подобного рода имеют далеко идущие последствия, выходящие за рамки судеб конкретных уволенных людей. Они разрушают фундамент социального доверия.

Когда сотрудники понимают, что их судьбу определяет непрозрачный алгоритм, критерии которого они не могут знать и на которые не могут повлиять — возникает глубокое отчуждение. Работа превращается из пространства самореализации в поле перманентной тревоги. Люди перестают доверять организации, коллегам (которые могут оказаться лучшими в глазах ИИ), самим себе.

Карл Маркс описывал отчуждение труда как ситуацию, когда рабочий не контролирует процесс производства и не видит смысла в своей деятельности. Алгоритмическое управление добавляет новый уровень: теперь работник не только отчуждён от продукта труда, но и от собственной оценки, от возможности понять критерии успеха.

Социальное доверие — невидимый клей, удерживающий общество. Когда люди теряют веру в справедливость институтов, в предсказуемость правил игры, в возможность контролировать свою судьбу через упорный труд — возникают апатия, цинизм, атомизация. Общество распадается на изолированных индивидов, каждый из которых пытается выжить в условиях воспринимаемого произвола.

И это не абстрактная теория. Исследование Ernst & Young показало, что 75% офисных сотрудников испытывают тревогу из-за того, что ИИ может их заменить. McKinsey Global Institute прогнозировал, что к 2030 году искусственный интеллект вытеснит от 400 до 800 миллионов работников. Каждое заявление вроде того, что сделал Греф, усиливает эту тревогу, углубляет разлом между властью (которая владеет алгоритмами) и обычными людьми (объектами власти).

Думать перед лицом машины

Ханна Арендт завершила свой анализ Эйхмана призывом к мышлению. Она утверждала, что корень зла — в неспособности остановиться и подумать о моральных последствиях своих действий. Функционер не зол по своей природе; он зол, потому что перестал быть моральным агентом, превратился в винтик механизма.

Технократия представляет собой новую форму этой опасности. Алгоритмы кажутся нейтральными, объективными, научными. Но за каждым алгоритмом стоят люди, которые выбирали данные, формулировали вопросы, определяли критерии. За каждым решением «ИИ уволил сотрудников» стоит человек, который мог бы спросить: «Правильно ли это? Справедливо ли? Каковы последствия?»

Герман Греф позиционирует себя как визионера, ведущего Сбербанк в будущее. Но будущее, в котором человеческая ценность определяется непрозрачным алгоритмом, а моральная ответственность растворяется в технических процедурах — это не прогресс. Это регресс к самым тёмным страницам XX века, только в цифровой обёртке.

На примере Сбербанка ярко видно, как неспособность создавать качественные конкурентоспособные продукты маскируется алгоритмами, перекладывающими ответственность с руководства на рядовых сотрудников.

Революционность идей Арендт заключалась в том, что она показала: обычные люди, могут совершать чудовищные вещи, если перестают мыслить критически и превращаются в исполнителей системы. Наша эпоха предлагает новые системы — алгоритмические, технократические. Но призыв Арендт остаётся актуальным: думать, сопротивляться соблазну спрятаться за «объективностью» процедур, помнить о человеческом измерении каждого решения.

Иначе мы рискуем построить будущее, где зло не просто банально — оно оптимизировано, автоматизировано и представлено как вершина эффективности.

Источник

Показать полностью
Отличная работа, все прочитано!