Alors que l’utilisation grand public d’outils d’IA comme Claude ou ChatGPT explose, ses opportunités commerciales restent encore à explorer. De plus, étant des entreprises centralisées, elles pourraient être vulnérables aux manipulations, attaques et censures.
Le segment des ressources d’IA décentralisées en est encore à ses débuts. Dirigé par David Liberman et Daniil Liberman, Gonka AI est l’un des premiers grands noms dans ce domaine. Dans cette interview avec U.Today, les innovateurs en IA discutent des défis et des promesses des réseaux d’IA décentralisés, du financement, de la tokenisation, des ambitions commerciales et bien plus encore.
U.Today : Bonjour David et Daniil, merci d’être avec nous. Pouvez-vous nous parler un peu de votre projet et de votre parcours dans l’IA ?
Fondateurs de Gonka AI : Merci de nous accueillir – nous sommes heureux de partager notre histoire et de parler des idées derrière Gonka.
Nous construisons des technologies ensemble depuis la majorité de notre vie. Nos premiers travaux ont porté sur la computation distribuée, la graphisme informatique et le développement de jeux, où nous avons appris à pousser le matériel dans ses limites et à penser en termes de performance, d’efficacité et d’échelle. Avec le temps, cette expérience a naturellement évolué vers le développement de produits pilotés par l’IA, la réalité augmentée et les systèmes à grande échelle.
Lorsque Snapchat nous a acquis en 2016, nous travaillions sur des produits AR utilisés par des centaines de millions de personnes. Plus tard, via Product Science, nous nous sommes concentrés sur l’apprentissage automatique appliqué et l’optimisation des performances pour de grands systèmes de production. Cela nous a permis d’acquérir une expérience pratique sur le fonctionnement réel de l’infrastructure IA moderne – pas en théorie, mais dans des contraintes du monde réel.
Cette perspective nous a finalement conduits à Gonka.
Gonka est née d’une collaboration entre chercheurs en IA web2 et opérateurs d’infrastructure web3. En réfléchissant à la façon dont l’infrastructure IA peut s’étendre à l’échelle mondiale, nous nous sommes inspirés de Bitcoin – non pas comme un actif financier, mais comme un modèle pour coordonner une infrastructure massive et décentralisée via des incitations ouvertes, basées sur le travail. Alors que beaucoup de l’industrie s’éloigne du Proof-of-Work, notre expérience montre que lorsqu’il s’agit d’innovation en calcul et matériel, les systèmes basés sur le travail peuvent être très efficaces.
Nous avons constaté que les chercheurs en IA et les opérateurs d’infrastructure apportent des forces complémentaires qui se rencontrent rarement. Les chercheurs comprennent comment l’intelligence peut transformer les industries, tandis que les opérateurs d’infrastructure excellent à déployer rapidement des centres de données et à optimiser le matériel via de véritables incitations économiques. Gonka rassemble ces deux mondes par une approche centrée sur le calcul pour l’infrastructure IA.
Le développement a commencé en mai 2024, et d’ici la fin de l’année, les premiers nœuds communiquaient déjà sur le testnet Gonka. La mainnet a été lancée fin août 2025, marquant le moment où le réseau s’est ouvert à une participation plus large. Dans les mois suivant le lancement, Gonka a agrégé l’équivalent de plus de 10 000 GPU H100, avec une participation croissante des opérateurs GPU et des constructeurs IA dans le monde entier.
Gonka considère le calcul comme une infrastructure ouverte – vérifiable, efficace, et construite autour d’une contribution réelle.
U.T. : De manière générale, décririez-vous Gonka AI comme une IA ou comme un protocole Web3 ?
G. : Nous décririons Gonka avant tout comme un protocole décentralisé de calcul IA.
Le problème que nous abordons est intrinsèque à l’IA : comment le calcul pour l’inférence IA est produit, alloué et gouverné. Aujourd’hui, cette couche est très centralisée et contrôlée par un petit nombre de fournisseurs, ce qui influence ce qui peut être construit, qui y a accès, et à quel coût. Gonka a été conçue pour changer cela en traitant le calcul comme une infrastructure ouverte plutôt que comme un service fermé.
La décentralisation joue ici un rôle de soutien. Comme Bitcoin l’a montré pour la coordination matérielle, les incitations décentralisées peuvent être un moyen puissant d’étendre efficacement une infrastructure réelle. Nous utilisons des primitives Web3 comme outils, pas comme le produit lui-même.
Du point de vue d’un développeur, Gonka ressemble à une infrastructure IA. Les constructeurs interagissent avec le réseau via des API de style OpenAI et des charges de travail d’inférence sans avoir besoin de penser aux blockchains. Du point de vue du protocole, la décentralisation permet au réseau de vérifier la contribution réelle en calcul et de se gouverner lui-même sans propriétaire central.
Ainsi, bien que Gonka utilise des mécanismes Web3 au niveau de l’infrastructure, son objectif est clairement IA-native.
U.T. : Le segment de l’IA explose, et de nouveaux concepts apparaissent ici et là. Qu’est-ce qui rend Gonka AI spécial dans ce paysage très concurrentiel ?
G. : Ce qui distingue Gonka, c’est que nous ne cherchons pas à construire un autre produit IA. Nous nous concentrons sur une couche plus profonde : l’économie et l’infrastructure du calcul IA lui-même.
La plupart des nouveaux projets IA rivalisent sur les modèles, fonctionnalités ou interfaces utilisateur. Gonka opère une couche en dessous. Nous posons des questions plus fondamentales : comment un calcul IA est-il produit, qui le contrôle, et quels incitations façonnent son évolution ?
Si on compare Gonka à d’autres projets décentralisés, il y a deux différences majeures. Premièrement, Gonka aligne les incitations autour d’un vrai travail via un mécanisme de consensus proof-of-work, alors que d’autres réseaux utilisent le Proof-of-Stake, incitant les stakers (capital). Dans Gonka, les participants gagnent en contribuant un calcul vérifié, pas par ingénierie financière ou accès anticipé. Deuxièmement, presque toutes les ressources de calcul du réseau sont dirigées vers des tâches IA significatives, plutôt que consommées par des mécanismes de sécurité.
Une autre différence clé est la gouvernance. Gonka est conçue pour que ceux qui gèrent l’infrastructure la gouvernent aussi. Il n’y a pas un seul propriétaire qui décide des prix, de l’accès ou de la direction. Avec le temps, cela rend le réseau plus résilient et plus aligné avec ceux qui en dépendent réellement.
En résumé, l’objectif de Gonka est volontairement étroit mais fondamental. Nous ne cherchons pas à être le modèle le plus intelligent (même si un modèle très intelligent peut être développé avec Gonka). Nous construisons l’infrastructure qui permet à différents modèles – et à différentes idées – d’exister sans être bloqués par un contrôle centralisé.
U.T. : L’un des concepts clés de la narration Gonka AI est « réseau d’IA décentralisé ». Mais pourquoi l’IA aurait-elle besoin de quelque chose de décentralisé, alors que plus de 99 % de l’usage est couvert par des produits soutenus par des entreprises comme Perplexity et ChatGPT ?
G. : Le fait que la majorité de l’usage de l’IA aujourd’hui soit centralisé ne signifie pas que le modèle fonctionne – cela signifie qu’il est le seul disponible pour l’instant.
En pratique, l’accès à des GPU avancés est très concentré, avec un petit nombre de fabricants de matériel et de fournisseurs cloud hyperscale qui déterminent effectivement qui peut construire, où, et à quel coût. Les GPU Nvidia, par exemple, occupent une place centrale dans la pile IA, et l’accès à eux est de plus en plus façonné par des contrats à long terme, des restrictions régionales et des considérations géopolitiques.
Cette concentration n’est pas seulement un problème technique – c’est une question économique et de souveraineté. L’accès au calcul devient géographiquement contraint, avec les États-Unis et la Chine qui se disputent pour sécuriser l’énergie, les centres de données et les puces avancées. Cette dynamique risque de placer de grandes parties du monde dans une position dépendante structurellement, limitant leur capacité à concurrencer, innover ou bâtir des économies IA durables.
Par ailleurs, de nombreux réseaux décentralisés existants échouent à l’inverse. Ils gaspillent une part importante de la puissance GPU disponible pour des mécanismes de consensus et de sécurité, tout en récompensant le capital plutôt que la contribution réelle en calcul. Ces deux problèmes découragent les fournisseurs de matériel et ralentissent l’innovation infrastructurelle réelle.
La décentralisation devient nécessaire lorsque l’échelle expose ces limites. Des systèmes comme Gonka sont conçus pour aligner participation et influence avec la contribution vérifiée en calcul, permettant d’utiliser efficacement les ressources de calcul et de donner aux petits opérateurs GPU la possibilité de mutualiser leurs ressources, de concurrencer sur le coût et l’efficacité, et de réduire leur dépendance à quelques grands fournisseurs.
Si l’IA devient une infrastructure fondamentale – semblable à l’électricité à l’époque industrielle ou à Internet dans ses premiers jours – alors l’accès au calcul ne peut pas être contrôlé par quelques gatekeepers qui fixent unilatéralement les prix et les règles. Les produits IA centralisés continueront d’exister, mais la résilience à long terme exige un modèle alternatif.
U.T. : De plus, le concept de synergie entre IA et Web3 est souvent surutilisé maintenant. Quel est votre point de vue – comment ces deux segments interagiront-ils, et quels sont les cas d’usage potentiels ?
G. : Nous sommes d’accord que « synergie IA et Web3 » est souvent évoquée de manière très abstraite. Notre vision est beaucoup plus pragmatique : l’interaction se situe au niveau de l’infrastructure et des incitations, pas au niveau des slogans ou fonctionnalités.
L’IA a besoin d’énormes quantités de calcul, tandis que Web3 fournit des mécanismes pour coordonner ressources et incitations entre de nombreux participants indépendants sans dépendre d’un seul propriétaire. Gonka se positionne à cette intersection en utilisant la coordination décentralisée pour rendre le calcul IA à grande échelle accessible et vérifiable.
Concrètement, Web3 fournit la couche de coordination et de vérification – garantissant que les contributions en calcul sont réelles, mesurables et équitablement récompensées. L’IA fournit les charges de travail qui donnent à cette infrastructure une véritable utilité dans le monde réel.
Les cas d’usage immédiats concernent des systèmes IA qui bénéficient de l’ouverture et de la vérifiabilité. Cela inclut des agents IA on-chain ou semi-on-chain, des applications nécessitant une inférence transparente, et des systèmes où les utilisateurs ont des garanties plus fortes sur la façon dont les sorties IA sont produites. Cela permet aussi aux constructeurs IA de faire tourner l’inférence sans être enfermés dans un fournisseur ou API centralisé.
Pour nous, la synergie ne consiste pas à mettre l’IA en chaîne ou à ajouter des tokens aux modèles. Il s’agit d’utiliser des mécanismes Web3 pour construire une infrastructure IA ouverte, évolutive – et d’utiliser les charges de travail IA pour donner une utilité économique réelle aux réseaux décentralisés.
Nous avons déjà vu ce schéma auparavant. Bitcoin a montré comment des incitations alignées peuvent donner naissance à une infrastructure de calcul massive, distribuée mondialement, sans coordination centralisée. Nous voyons l’IA comme la prochaine étape de cette évolution – en orientant le calcul décentralisé vers une intelligence du monde réel plutôt que vers un travail de sécurité abstrait.
U.T. : Peut-on qualifier l’état actuel des progrès et de l’adoption de l’IA de bulle – et pourquoi ?
G. : Nous n’appellerions pas l’IA elle-même une bulle, mais certaines parties du marché qui l’entourent le sont certainement.
Ce que nous observons aujourd’hui, c’est un schéma familier qui accompagne chaque technologie fondamentale. Il y a une véritable avancée – des systèmes IA réellement utiles et largement adoptés – et, au-dessus, une couche spéculative où les attentes croissent plus vite que ce que l’infrastructure et l’économie peuvent soutenir.
C’est de là que vient la narration de « bulle ». Pas à cause des capacités de l’IA, mais parce qu’on suppose que faire évoluer l’IA est bon marché, sans friction, et infiniment accessible. En réalité, la progression de l’IA est de plus en plus limitée par l’infrastructure. Le calcul est coûteux, concentré, et limité, même si la demande continue de croître.
Historiquement, l’excès spéculatif se forme souvent lorsque le capital se concentre sur la couche la plus visible de l’innovation et sous-estime le coût de ce qui se trouve en dessous. La couche spéculative peut se corriger, mais la couche infrastructure continue de s’étendre – et c’est là que se construit la valeur à long terme.
Donc, s’il y a une bulle aujourd’hui, ce n’est pas dans la technologie IA elle-même. C’est dans la croyance que l’IA peut évoluer sans repenser la façon dont le calcul est construit, possédé et gouverné. Cet écart, c’est précisément ce que des systèmes comme Gonka cherchent à combler.
U.T. : Quelles applications concrètes – en B2B comme en B2C – voyez-vous pour Gonka AI ?
G. : Comme mentionné, nous voyons Gonka principalement comme une infrastructure, donc son impact se manifeste partout où l’inférence IA est déjà critique mais limitée par le coût, l’accès ou le contrôle.
Du côté B2B, les cas d’usage immédiats concernent des systèmes à forte charge d’inférence comme les agents IA, les copilotes internes, l’automatisation du support client, et les pipelines d’analyse de données. Pour beaucoup d’équipes, le goulot d’étranglement aujourd’hui n’est pas la qualité du modèle, mais la volatilité des prix, les limites de capacité, et le manque de transparence des fournisseurs centralisés. Gonka permet à ces charges de travail de fonctionner sur une infrastructure ouverte, où l’accès et le coût sont dictés par le vrai calcul plutôt que par un verrouillage fournisseur.
Du côté B2C et de la participation, la contribution à Gonka est volontairement flexible. Les hôtes peuvent contribuer en GPU de façon indépendante – en gérant leur propre infrastructure et en gagnant directement en fonction du travail vérifié – ou choisir de rejoindre des pools qui agrègent les ressources de plusieurs petits participants.
Le pooling est une option, pas une obligation. Il réduit la barrière à l’entrée pour les hôtes avec des ressources limitées, tandis que les opérateurs indépendants peuvent participer à pleine capacité selon leurs conditions. Ensemble, ces modèles permettent au réseau de combiner grands opérateurs et petits contributeurs dans une seule couche de calcul évolutive.
Cette flexibilité augmente la capacité d’inférence disponible pour les applications IA grand public, sans dépendre d’un seul fournisseur central, tout en maintenant une participation ouverte à une large gamme d’opérateurs d’infrastructure.
U.T. : À quoi servira le token GNK ? Qui est son public potentiel ?
G. : GNK est le token utilitaire natif du réseau Gonka, principalement utilisé pour récompenser les fournisseurs de calcul (Hôtes) pour leur contribution vérifiée, et pour payer le calcul IA sur le réseau. Il est conçu pour soutenir de véritables charges de travail IA, en alignant les incitations sur la performance réelle plutôt que sur la spéculation.
Pour les constructeurs et développeurs IA, GNK donne accès à une inférence IA décentralisée sur une infrastructure ouverte. Plus largement, il permet aussi aux supporters du réseau de contribuer à l’idée d’une abondance d’IA – où le calcul est coordonné efficacement et rendu plus accessible, plutôt que contrôlé par quelques grands fournisseurs centralisés.
U.T. : Pouvez-vous indiquer trois jalons de Gonka AI et GNK dont vous êtes fiers jusqu’à présent ?
G. : Un jalon dont nous sommes fiers est l’investissement stratégique de 50 millions de dollars de Bitfury. Au-delà du capital, cela a validé que le calcul IA décentralisé et à haute efficacité peut être construit et exploité concrètement, en s’appuyant sur l’expérience approfondie de Bitfury dans l’infrastructure à grande échelle.
Le deuxième jalon est la première échelle du réseau. En trois mois, Gonka a agrégé l’équivalent de plus de 12 000 GPU H100, démontrant une forte demande de la part des Hôtes pour un système où les récompenses sont liées à la contribution vérifiée en calcul plutôt qu’à la spéculation.
Le troisième jalon est la croissance d’une communauté active, axée sur l’infrastructure, composée d’opérateurs GPU, de constructeurs IA et de chercheurs. Cela inclut des contributeurs précoces et des conseillers comme 6block, Hard Yaka, Gcore, Hyperfusion, Greg Kidd, et Val Vavilov, en plus d’un engagement technique et médiatique soutenu. La communauté continue de croître organiquement, avec plus de 13 000 participants échangeant activement des idées autour de l’infrastructure, des performances et des charges IA du monde réel.
Une grande partie de ces échanges se déroule ouvertement dans le Discord de Gonka, où opérateurs GPU, constructeurs et chercheurs collaborent directement sur le développement du réseau.
U.T. : Pouvez-vous partager quelques spécifications matérielles des machines sur lesquelles tourne Gonka AI ?
G. : Gonka fonctionne sur un ensemble hétérogène de machines haute performance, contribué par des Hôtes indépendants à travers le réseau. Le protocole est conçu pour une infrastructure GPU moderne, de niveau data center, optimisée pour l’inférence IA.
Concrètement, cela inclut des serveurs multi-GPU avec des accélérateurs équivalents à H100 ou A100, des CPU d’entreprise, une mémoire à haute bande passante, et des interconnexions rapides. Les configurations exactes varient selon l’Hôte, mais toutes doivent respecter des seuils de performance adaptés aux charges d’inférence à grande échelle.
Le réseau supporte aussi le pooling, permettant à plusieurs Hôtes de combiner efficacement leurs ressources. Plutôt que d’imposer des standards matériels rigides, Gonka se concentre sur la capacité de calcul globale et la fiabilité, permettant au réseau de s’étendre en agrégeant une infrastructure de haute qualité provenant d’opérateurs divers.
U.T. : Question piège : les startups IA pourront-elles un jour atteindre une rentabilité unitaire viable ?
G. : Oui – mais pas par défaut, et pas toutes.
Une grande partie du « problème de rentabilité unitaire » actuel provient de l’économie du calcul : opacité des prix, contraintes de capacité, et le fait que le coût de l’inférence augmente avec l’usage. À mesure que plus de produits IA passent de la démo à des expériences en continu, l’infrastructure devient le facteur limitant.
Deux données récentes illustrent bien cette tendance :
Ainsi, la rentabilité unitaire dépendra de plus en plus de la capacité des startups à accéder à un calcul prévisible, évolutif et rentable. Celles qui traitent le calcul comme un simple coût auront du mal à suivre la croissance de l’usage. Celles qui bâtissent autour d’une meilleure économie du matériel – meilleure utilisation, prix transparent, modèles d’accès plus résilients – peuvent atteindre une rentabilité durable.
U.T. : Quelle est votre prédiction générale concernant la capitalisation du secteur IA dans cinq ans – et la place de Gonka AI dans tout ça ?
G. : Essayer de prévoir la capitalisation exacte dans cinq ans rate l’essentiel – la rapidité et la non-linéarité de l’adoption de l’IA une fois que les conditions sont réunies.
On voit déjà à quel point l’IA peut passer rapidement de « optionnelle » à « par défaut » dès que l’infrastructure et la décentralisation sont en place. En 2025, Microsoft a indiqué que GitHub Copilot comptait environ 20 millions d’utilisateurs, avec environ 90 % des entreprises du Fortune 100 en production. Une telle adoption aurait été difficile à prévoir il y a quelques années, et cela montre à quelle vitesse l’usage de l’IA peut s’étendre une fois intégré dans les workflows réels.
À mesure que cette dynamique s’accélère, le goulot d’étranglement se déplace des modèles eux-mêmes vers l’accès à un calcul fiable, abordable, et toujours disponible. La demande croît plus vite que ce que l’infrastructure centralisée peut absorber confortablement, ce qui fait que l’accès, la stabilité des prix et la disponibilité des capacités deviennent des contraintes stratégiques pour startups comme pour grandes organisations.
C’est là que Gonka trouve sa place. Nous ne construisons pas selon une feuille de route fixe ni ne ciblons une part spécifique de la capitalisation IA. Gonka est volontairement communautaire et évolue en fonction de la demande réelle en calcul. Notre conviction est que des réseaux de calcul ouverts et vérifiables deviendront une couche critique de l’économie IA – sans remplacer les fournisseurs centralisés, mais en limitant leur pouvoir et en élargissant l’accès à l’échelle mondiale.
Si Gonka réussit, ce ne sera pas parce qu’elle a prévu l’avenir plus précisément que d’autres. Ce sera parce qu’elle a été construite comme une infrastructure – capable de s’adapter, de s’étendre, et de soutenir l’adoption de l’IA même lorsque la croissance devient plus rapide et plus désordonnée que ce que les modèles traditionnels anticipent.