Il dibattito sulla produttività degli sviluppatori si evolve con l'avvento dell'intelligenza artificiale. Il "tokenmaxxing", l'uso massiccio di token AI, pur suggerendo efficienza, si rivela una falsa percezione. Misurare un input anziché un output è fuorviante: i token indicano l'utilizzo, non il valore generato. Dati su oltre 10.000 ingegneri mostrano che il 10-30% del codice AI inizialmente accettato richiede successive revisioni, evidenziando un churn nascosto che mina la presunta efficienza.
L'evidenza: più codice, meno valore
Diverse piattaforme di analytics corroborano questa dinamica.
Ricerche hanno rilevato un "churn" di codice significativamente superiore tra gli utilizzatori regolari di strumenti AI e un notevole incremento nel codice eliminato rispetto a quello aggiunto in contesti ad alta adozione di IA. Inoltre, sviluppatori con budget di token elevati producono più "pull request", ma il miglioramento della produttività non è proporzionale: il "throughput" raddoppia, mentre il costo in token è decuplicato. Questi dati indicano che gli strumenti AI generano principalmente volume, non necessariamente valore sostenibile.
Oltre i token: metriche e rischi
Di fronte a queste sfide, emergono approcci alternativi. Le "Agentic Work Units" (AWU) si focalizzano sull'output e sull'impatto reale.
Alcuni leader aziendali evitano classifiche di consumo di token, privilegiando canali interni per condividere pratiche e risultati concreti dell'uso dell'IA. L'ossessione per l'elevato consumo di token può creare una pressione interna che trasforma la produttività in un gioco di status, con titoli quali "Token Legend". Questa cultura è rischiosa, poiché non distingue tra semplice adozione e valore effettivo, compromettendo efficienza ed efficacia produttiva.
Nel nuovo scenario AI-plus-developer, il vero indicatore di successo è cosa si costruisce, non quanto si consuma. Il "tokenmaxxing" rischia di rimanere un espediente superficiale, incapace di misurare la reale produttività e il valore.