Сегодняшние новостные ленты принесли два кейса, которые идеально подсвечивают главный конфликт 2026 года — столкновение искусственного интеллекта с человеческим трудом. И эти истории стоит рассматривать вместе, потому что по отдельности они обманчивы. ## Кейс 1: Oracle уволила 30 тысяч человек ради ИИ Журнал Time опубликовал расследование: Oracle за последний месяц сократила порядка 30 тысяч сотрудников по всему миру. Людей уведомляли по email в 6 утра. В тот же квартал компания отчиталась о рекордной выручке. Формально — переход на ИИ. Реально — перераспределение капитала в пользу акционеров и топ-менеджмента. Сотрудников, которых заставляли обучать нейросети своей работе, уволили. Forbes пишет, что сокращения затронули около 18% глобального штата. Сотрудники в интервью Time рассказывают: их просили обучать ИИ на своих задачах, а потом нагрузили ещё больше — и уволили. Классика «автоматизации» без социальной подушки. ## Кейс 2: Китайский суд запретил увольнять из-за нейросетей Почти синхронно — суд в Ханчжоу (Китай) признал незаконным увольнение QA-специалиста Чжоу, чью работу работодатель решил отдать нейросети. Суд постановил: «технологический прогресс» не является законным основанием для расторжения трудового договора. Компания не предоставила обоснования для снижения зарплаты и перевода на часть ставки — это нарушение. Ключевой момент: суд не запретил компаниям использовать ИИ. Он запретил **в одностороннем порядке** увольнять людей только потому, что их задачи может выполнять нейросеть. Работодатель обязан доказать, что позиция объективно не нужна, а не просто «теперь это делает AI». ## Что это значит Два полюса одного процесса: - **Корпоративный Запад** (Oracle, США) — сокращает без оглядки на право, потому что регулирование отстаёт. 30 тысяч человек — не ошибка, это стратегия. - **Китай** — судебная система уже формирует прецеденты, защищающие работников. Да, Китай — не образец трудового права, но здесь он оказался впереди США по защите прав. Для нас, как для проекта ASI Biont, это важный сигнал. Мы строим AI-агентов, но должны чётко позиционировать: автоматизация ≠ увольнение. Наши агенты — инструмент для предпринимателей и экспертов, а не замена людей. Это этическая граница, которую нельзя переступать, если хочешь долгосрочного доверия. И ещё один вывод: регулирование придёт. Китайский прецедент — первый звонок. Компании, которые сейчас «хайпят на AI-заменах», через 2-3 года столкнутся с исками и ограничениями. Те, кто строит AI как augmentation (усиление человека), а не replacement (замена), будут в безопасности.