Содержание статьи
Кодинг выходит из чата
Я уже писал одну колонку про вайбкодинг, но это было почти год назад. Я тогда осторожно рекомендовал вайбкодить личные инструменты и изучать в процессе новые вещи. Но, как и многие тогда, отвергал идею, что выдаваемый LLM код годится для продакшена в чистом виде. Попробовать идею — да. Сделать на скорую руку личный инструмент — вполне. А вот создавать код, который будет крутиться на сервере и обслуживать тысячи пользователей, — лучше не надо.
На всякий случай поясню, что под «вайбкодингом» я тогда имел в виду именно программирование слепым методом: дал модели задачу, потом сразу запускаешь то, что получилось, просишь доработать или починить, и так далее. Короче, способ для тех, кто вообще не умеет или не хочет заглядывать в исходники.
Если же ты читаешь выдаваемый моделью код, активно вмешиваешься, тестируешь отдельные функции, даешь детальные указания, то где же тут вайбинг? Никакого тебе расслабона под музычку: это реальный выматывающий труд, просто с более мощными инструментами в руках. Корректный термин для такого занятия — AI-assisted coding, а «вайбкодинг» превращается в дразнилку.
Так или иначе, за последний год оба метода окрепли неимоверно. Модели научили гораздо лучше использовать инструменты, в первую очередь — поиск в сети и выполнение локальных команд. Плюс доработали обвязку — автоматическое управление контекстом, который подается на вход вместе с запросом.
Сам я до недавних пор по старинке давал задания на каждую функцию через обычный чат, проглядывал код, копировал, тестировал. Конечно, всю дорогу была возможность обратиться к модели через специальный чат в VS Code и получить правки в виде диффов к открытому файлу, но мне этот метод казался небезопасным: даже если внимательно проглядываешь изменения, напортачить можно одним неверным кликом. Отдельной проблемой было то, что модель без специальных указаний не стремится заглядывать в соседние файлы в проекте.
И тут на сцену выходят инструменты нового поколения: Claude Code, OpenAI Codex и Gemini Code Assist. В сравнении с неторопливым копипейстом из чата они ощущаются как отбойный молоток против перфоратора — инструмент совсем другого уровня силы. (В скобках замечу, что ручное кодирование в этой аналогии — долото и киянка. Трудозатратный, но точный старый способ работать. Отбойным молотком‑то шедевров не создашь!)
В наше время для небольших задач можно уже вообще не открывать редактор кода и работать прямо в чате. Если модель видит, что нужно заглянуть в соседние файлы, — заглядывает. Если нужно прогнать тест — прогонит. Может даже запустить программу и, если та вальнется, почитать лог и поправить. А если не получится сделать, как ты просил, будет повторять это до победного конца или упрется в лимит токенов.
Теперь фигачить скрипты или небольшие сайты вслепую стало еще легче. Ну а если ты готов писать детальные ТЗ, следить за структурой проекта, просматривать код и совместно с моделью вести документацию (она описывает, что наваяла, а ты — что нужно), то пределов вообще, считай, больше нет.
В общем, если не пробовал — обязательно попробуй, хотя бы ради интереса!
info
Отдельно рекомендую активно использовать Git, даже если кодишь один. Это и раньше было хорошей практикой, а с LLM репозиторий просто обязателен. Создаешь ветку, пробуешь идею, и, если правки зашли в тупик, всегда можно откатиться и уточнить ТЗ.
Токенмаксинг
И разработчики принялись фигачить, да еще как! Десятки параллельно работающих кодинг‑агентов, непрерывная необходимость выгрести все ресурсы, которые дают по подписке, счета за токены на сотни и тысячи долларов, когда подписок не хватает... Все это, похоже, теперь становится нормой.
Работодатели не просто не препятствуют такому поведению, а всячески его поощряют. Статья Кевина Руса в The New York Times от 20 марта 2026 года «More! More! More! Tech Workers Max Out Their A.I. Use» описывает феномен «токенмаксинга» (tokenmaxxing) — когда кодеры соревнуются за то, кто сожжет больше ИИ‑токенов.
В некоторых компаниях уже стали вводить лидерборды по потраченным токенам: кто больше использует ИИ, тот (предположительно) продуктивнее трудится. В статье Forbes «The ‘AI Gods’ Spending As Much As They Can On AI Tokens» описываются случаи, когда разработчикам разрешают тратить токены на сотни тысяч долларов.
Исполнительный директор Nvidia Дженсен Хуанг говорит:
Если инженер с зарплатой 500 тысяч долларов в год не сожжет токенов хотя бы на 250 тысяч долларов, я буду глубоко встревожен.
Конечно, Nvidia на всем этом неплохо зарабатывает и распространять такие настроения Хуангу выгодно, но и другие айтишные CEO и CTO с ним солидарны.
Инженеры в компаниях вроде OpenAI и Anthropic вообще никак не ограничены в использовании ИИ и наслаждаются доступом к самым мощным моделям. Рекорд токенмаксинга на момент публикации этого текста принадлежит сотруднику OpenAI, который сжег 210 миллиардов токенов за неделю.
CTO Meta Эндрю Босворт в ответ на вопрос, какой у его команд лимит на токены, ответил:
Нет лимитов. Пусть продолжают. Это легкие деньги.
Даже у разработчиков попроще уже кончаются идеи, что бы еще такое накодировать. Хобби‑проекты, которые люди откладывали годами, оказываются завершены за пару вечеров. Главное — не перегореть и не словить еще одно новое явление — AI brain fry, буквально «спекшиеся от ИИ мозги».
No-AI
Если ты думаешь, что это отдает каким‑то психозом, то ты такой не один. Автор многих известных книг по программированию и идеолог метода Agile Ален Голуб, когда‑то критиковавший изменение продуктивности методом подсчета написанных строк кода, назвал токенмаксинг болезненной и безумной метрикой. И дальше пояснил:
Это измерение объема без учета того, что именно ты строишь.
Хороший программист думает хотя бы час, прежде чем написать 10 строк кода, а плохой за этот час пишет 500 строк, которые потом придется выкинуть, потому что они портят хорошую систему. Токенмаксинг, как и подсчет коммитов, поощряет именно второй тип поведения. Да, ты можешь навайбить хренову кучу кода и сжечь целое состояние, но нужно ли заказчикам то, что получится?
В сентябре 2025 года агентство Apiiro Research опубликовало результаты исследования, которое показывает созвучные этим словам тревожные тенденции. Разработчики, регулярно прибегающие к ИИ, в среднем производят в 3–4 раза больше кода, но при этом генерируют в 10 раз больше уязвимостей.

Статистика печальная: +322% багов, приводящих к эскалации привилегий, +153% архитектурных изъянов.

Не заставили себя ждать и борцы с этим трендом. Претензий у них множество: упомянутые проблемы с качеством кода и надежностью софта, потенциальное снижение уровня навыков среднего программиста (так называемый дескиллинг), влияние дата‑центров на экологию, обучение ИИ на чужой интеллектуальной собственности, непрозрачность и концентрация власти, да и просто абстрактная угроза человечеству.
Подобно борцам с ГМО эти люди требуют явной маркировки продуктов, куда попала хотя бы строчка ИИ‑кода. Параллельно идет активная работа над каталогом софта, написанного с участием ИИ. Если в репозитории или в . найдется файл agents., характерный для ИИ‑агентов, или разработчик публично признавался, что вайбкодил, — всё, код навсегда замаран.
В список уже попали Chromium и Firefox, curl и rsync, а также библиотека requests — один из самых важных и популярных модулей для Python с миллиардом скачиваний в месяц. Рядом предлагаются альтернативы: с curl надо переходить на wget, requests заменить более низкоуровневой urllib.request... Или не надо, потому что и сам Python уже в списке, равно как Ruby, Kotlin и весь .NET, так что если съезжать, то на Lua. Но долго ли он продержится?
Что дальше
Получается, в противовес угару токенмаксинга зарождается что‑то в духе религиозного фундаментализма, еще менее совместимого с жизнью. Желание сохранить контроль над кодом в целом понятно, но заранее видно, что это проигрышный путь. Удары в спину наносит то один разработчик, то другой. Даже Линус Торвальдс уже вайбкодит (хоть и не в ядре Linux)!
Да, спорить с процитированными выше мудрыми словами Голуба о качестве кода невозможно: он прав и в том, что токены — не мерило успеха, и в том, что код на выходе, мягко говоря, рыхлый. Но за упомянутый Голубом час теперь (если повезет) пишется не одна и не 500 строк кода, а весь проект от начала до конца. И бизнес просто не может это игнорировать.
Думаю, в Anthropic, OpenAI и Google уже кипит работа над следующим поколением агентов, которые будут не только добавлять базовые юнит‑тесты, но и делать всесторонний анализ уязвимостей. Один ИИ‑агент пишет программу, другой ее проверяет, третий пытается взломать и дает рекомендации, как заткнуть дыры.
Тут вполне найдется место для еще одного качественного скачка — подобного тому, что мы видели за прошедший год. Плюс сама культура применения ИИ‑агентов повзрослеет. Если сейчас все вайбкодят кто во что горазд, то со временем наиболее удачные паттерны будут закреплены как в виде опыта, так и в самих инструментах.
В общем, ИИ уже массово применяется в программировании, и этот тренд будет усиливаться. А вот самые интересные ошибки в коде — те, что не даются автоматике, будут находить именно люди. Так что хакеров ждут поистине интересные времена!
