
Vývojáři po celém světě chrlí kód pomocí AI asistentů jako nikdy předtím. Nový fenomén, „tokenmaxxing“, ale ukazuje, že kvantita nerovná se kvalita. Ve skutečnosti to může být přesně naopak.
Je to jednoduché. Představte si, že platíte architekta od počtu cihel v projektu. Dostanete masivní, ale pravděpodobně nefunkční dům. AI nástroje dnes dělají přesně totéž. Optimalizují na generování co nejdelší odpovědi v rámci kontextového okna, protože tak byly trénovány. Výsledkem je záplava kódu, ne nutně funkční produkt.
Prvotní nadšení, kdy vývojáři přijmou 80–90 % navrženého kódu, rychle opadá. Dlouhodobě se ukazuje, že jen 10–30 % tohoto kódu přežije. Zbytek se musí přepsat, protože nezapadá do existující architektury, obsahuje skryté chyby nebo je prostě jen neefektivní.
Analytické nástroje jako GitClear odhalily tvrdá data. Kód vygenerovaný umělou inteligencí má až 9,4krát vyšší „churn rate“ – tedy poměr kódu, který je smazán nebo radikálně změněn krátce po svém vzniku. To je masivní plýtvání časem a energií.
Problém je v chápání kontextu. AI nevidí celý projekt, jeho historii a budoucí směřování. Optimalizuje lokálně, ne globálně. Vyřeší malý, izolovaný problém, ale často na úkor celkové integrity a udržovatelnosti systému. A technický dluh tiše roste.
Nejvíce zranitelní jsou juniorní inženýři. Snadněji akceptují syntakticky správný, ale architektonicky vadný kód. Neumí ještě plně docenit dlouhodobé dopady špatných návrhových rozhodnutí. Problém se tak násobí a potichu otravuje celou kódovou základnu.
Velké firmy si to začínají uvědomovat. Metriky se mění. Sledování počtu spotřebovaných tokenů je slepá ulička. Společnosti jako Salesforce proto zavádějí metriky navázané na reálné obchodní výsledky, nikoli na objem generování. Je to signál, že éra naivního nadšení končí a nastupuje fáze střízlivého hodnocení skutečného přínosu.