"Отчёт Массачусетского технологического института показал, что 95% проектов с применением ИИ не повысили прибыль или производительность компаний. Другое исследование — от METR — выяснило, что инструменты кодирования на базе ИИ замедляют работу разработчиков. Всё просто: даже самые современные генеративные модели часто ошибаются и “галлюцинируют” — то есть выдают выдуманные данные, которые приходится тщательно проверять и исправлять вручную.
По данным консалтинговой компании Gartner, ИИ-агенты не справляются примерно с 70% офисных задач. Иными словами, объём человеческого контроля, необходимого даже для простых операций, полностью сводит на нет любую потенциальную экономию времени. На практике чаще оказывается эффективнее не использовать ИИ вообще, чем полагаться на него.
Исследование компании Wiley, второе в их серии ExplanAItions, где изучается, как ИИ используется и воспринимается в академической среде. Разница между отчётом 2024 и 2025 годов — ошеломляющая.
В 2024 году ИИ применяли 54% исследователей. В 2025 — уже 84%. Однако, если год назад 53% опрошенных считали, что ИИ уже превосходит человека в тестируемых задачах, то теперь так думает меньше трети. Одновременно доля тех, кто боится “галлюцинаций” ИИ, выросла с 51% до 64% — несмотря на появление якобы “улучшенных” моделей. Авторы отчёта делают вывод: исследователи начали трезво понимать реальные ограничения ИИ и пересматривают своё отношение к его использованию.
Часть учёных попросту перестала пользоваться ИИ.
Анализ корпоративных данных показывает, что уровень внедрения ИИ в крупных компаниях (от 250 сотрудников) снизился: с 14% в начале года до 12% осенью. И это при том, что на бирже и в СМИ по-прежнему бушует хайп вокруг ИИ.
Число компаний, полностью отказавшихся от своих проектов с ИИ, резко выросло. В 2024 году таких было 17%, а в 2025 — уже 42%.
Это означает, что реальное использование ИИ в бизнесе падает.
Даже крупнейшие игроки начинают обжигаться.
Так, консалтинговая фирма Deloitte была вынуждена вернуть правительству Австралии 440000 долларов за отчёт, частично созданный с помощью ИИ. В документе оказались грубые ошибки: модель “придумала” несуществующие данные и неправильно интерпретировала реальные цифры, из-за чего отчёт оказался не просто бесполезным, а потенциально вредным.
На таких примерах становится ясно: блеск ИИ тускнеет, и всё больше людей начинают видеть в нём не чудо техники, а переоценённый инструмент с рисками и издержками.
ИИ действительно повышает производительность только в “низкоквалифицированных” задачах — например, при ведении заметок, ответах клиентам или составлении шаблонных текстов. В таких случаях ИИ помогает тем, у кого слабые языковые навыки или кто только осваивает новую работу.
Но в задачах, требующих высокой точности, ИИ ошибается слишком часто. И объём контроля, необходимый для выявления этих ошибок, делает работу менее продуктивной, чем без ИИ.
Проблема в том, что люди, которым ИИ мог бы действительно помочь, не обладают достаточными знаниями, чтобы замечать и исправлять его ошибки. В итоге ИИ вроде бы повышает производительность, но при этом допускает критические неточности, которые никто не замечает.
Иллюзия эффективности
Корпорации вроде Deloitte видели в ИИ инструмент для “ускорения низкоквалифицированного труда” — и действительно фиксировали рост эффективности. Но этот рост был иллюзией, ведь ошибки оставались незамеченными. Только когда одна из них всплывала наружу, становилось понятно, что “волшебная машина продуктивности” на деле генерирует убытки.
По данным MIT, ИИ не повышает производительность в большинстве случаев, компании теперь массово сворачивают свои программы.
В академической среде ситуация не лучше. Учёные не только писали статьи с помощью ИИ, но и использовали ИИ для рецензирования. В результате ошибки не обнаруживались, ведь “рецензент” тоже был искусственным.
Это привело к массовому засорению научных журналов фейковыми статьями, сгенерированными нейросетями. Более того, некоторые авторы начали встраивать скрытые подсказки (“промпты”) в тексты, чтобы обмануть ИИ-рецензентов и получить “хорошие оценки”.
Когда скандалы стали достоянием общественности, многие университеты и издательства запрещают использование ИИ в рецензировании.
Исследователи стали куда более осторожно относиться к ИИ, как показал отчёт Wiley: они уже не восхищаются им — они его боятся.
Ситуация напоминает историю про голого императора. Иллюзия величия рассыпается, а опасность “пузыря ИИ” становится очевидной." ©