J'ai remarqué une tendance intéressante — l'ère des tokens bon marché est officiellement terminée. Avant, lorsque de grandes entreprises subventionnaient l'API, nous vivions comme des rois. Nous lancions des milliers de mots dans les prompts, obligeant GPT-4 à faire des tâches absurdes comme « mettre la première lettre en majuscule ». Pourquoi ? Parce que c’était peu coûteux. Mais le vent a changé de direction.



Désormais, les factures pour la puissance de calcul sont une réalité. NVIDIA H100 — c’est un conflit géopolitique, pas simplement une concurrence commerciale. Chaque appel API coûte de l’argent réel. Le token n’est plus seulement une unité, c’est vraiment comme de l’or.

Le problème, c’est que la plupart des équipes ne comprennent pas d’où sort réellement l’argent. Les gens regardent la facture à la fin du mois et tombent en choc. Les pertes sont cachées dans les endroits les moins évidents. Vous communiquez poliment avec le modèle — bonjour, merci, s’il vous plaît. Mais chaque mot, chaque espace — c’est un token que vous payez. Le système de prompts s’accumule, se répète à chaque session, et vous payez pour ce que vous avez déjà payé hier.

Le RAG devient souvent une catastrophe. Idéalement — extraire trois phrases pertinentes. En pratique — l’utilisateur demande, et le système balance au modèle dix documents PDF de 10 000 mots chacun. Le développeur pense : qu’il trouve lui-même. Ce n’est pas de la paresse, c’est un crime contre la puissance de calcul. Une information contextuelle inappropriée ne fait pas seulement perdre la concentration du mécanisme d’attention, mais entraîne aussi une consommation astronomique de tokens.

Les agents non contrôlés — c’est déjà une extrémité. Quand l’IA entre dans un cycle d’erreurs, elle tourne en boucle indéfiniment, dépensant des tokens coûteux. Sans un mécanisme d’arrêt d’urgence approprié, cela peut vider votre carte de crédit en une nuit.

Mais il existe une solution. Le cache sémantique — la méthode la plus simple. Les requêtes des utilisateurs sont souvent similaires. Au lieu d’appeler GPT-4 à chaque fois, vous vérifiez la similarité avec le cache. Si quelqu’un a déjà posé une question similaire — vous utilisez la réponse prête. Zéro token dépensé. Le délai de quelques secondes devient des millisecondes.

La compression des prompts — c’est le deuxième niveau. Des algorithmes basés sur l’entropie de l’information analysent quels mots sont critiques, lesquels sont superflus. On peut compresser un texte de mille tokens à trois cents, en conservant le sens. Faites communiquer les machines dans leur propre langage — ce qui semble maladroit aux humains, est parfaitement compréhensible pour les modèles.

La routage des modèles — le défi ultime pour les architectes. Ne confiez pas toutes les tâches au modèle le plus coûteux. Pour une simple transformation de format ou traduction — routage vers des API peu coûteuses ou des petits modèles déployés localement. Les coûts disparaissent presque. Pour une réflexion complexe — utilisez des outils puissants. Comme une entreprise bien organisée : la réception ne transmet pas les requêtes au PDG.

Voici où c’est vraiment intéressant — regardez OpenClaw et Hermes. Ce sont des agents qui comprennent la réalité des ressources limitées. OpenClaw contrôle presque obsessionnellement les tokens. Au lieu d’un flux libre de texte — sortie forcée en JSON Schema. L’IA ne communique pas, elle remplit des formulaires. À première vue — c’est pour faciliter le parsing, mais en réalité, c’est une économie chirurgicale du trafic.

Hermes de Nous Research montre une précision dans l’exécution des instructions. Bien faire dès la première fois — c’est la plus grande économie. Dans les interactions multi-étapes, ils ne conservent pas toute l’histoire. La mémoire de travail — les 3 à 5 derniers messages. Quand la fenêtre se remplit, un modèle léger en arrière-plan fait un résumé de plusieurs phrases clés et le stocke dans une base vectorielle. L’ancien dialogue est supprimé, mais la connaissance reste. Ce n’est pas une élimination de déchets, c’est une suppression chirurgicale dans la mémoire.

Le point clé maintenant — ce n’est pas un problème technique, c’est un changement de mentalité. Avant, nous traitions les tokens comme des consommateurs dans un supermarché. Voir une réduction — mettre dans le panier. Les entreprises connectaient aveuglément le LLM à tout, même pour le menu de la cantine. Maintenant, il faut passer à une mentalité d’investissement. Chaque token est un investissement. La question : qu’est-ce qu’il m’a apporté ? Le taux de clôture des tickets a-t-il augmenté ? Le temps de correction des bugs a-t-il diminué ?

Si une fonction basée sur des règles coûte 10 cents, et un grand modèle — 1 dollar par token, mais n’augmente la conversion que de 2 %, alors supprimez-la. Sans hésitation. Cessez de courir après des solutions IA grandes et globales. Cherchez des petites solutions précises et améliorées. Quand une entreprise demande : peut-on lire 100 000 rapports et faire un résumé ? Demandez en retour : vos revenus couvriront-ils plusieurs millions de tokens via API ?

Faites le calcul. Économisez. Comptez les tokens comme un propriétaire de magasin. Cela peut sembler loin d’être cyberpunk — plutôt très agricole. Mais c’est une étape nécessaire vers la maturité de l’IA. L’ère du freeuse illimité est terminée. Maintenant, ce sont ceux qui comprennent l’architecture, le routage et savent maximiser chaque goutte de puissance de calcul qui gagnent. Quand la marée se retire, on voit qui nage à poil. Cette fois, la marée des tokens bon marché se retire. Seuls ceux qui extraient chaque goutte comme de l’or porteront une véritable armure.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler