Analyse approfondie

Bittensor - Analyse Approfondie

Le tableau complet sur Bittensor - marché décentralisé de l'IA, architecture des subnets, Proof of Intelligence, tokenomics du TAO, et la transition vers le dTAO.

Bittensor

Bittensor cherche à construire un marché pour l'intelligence artificielle - un réseau où l'on achète et vend des sorties de modèles de la même façon qu'on achète et vend de la puissance de calcul sur AWS. La thèse centrale est la suivante : l'IA sera l'une des ressources économiquement les plus précieuses de l'histoire humaine, et aujourd'hui sa production est concentrée dans une poignée d'entreprises qui ont tout intérêt à maintenir cet état de fait. Bittensor propose une alternative décentralisée où n'importe qui peut contribuer de l'intelligence, n'importe qui peut en consommer, et le protocole coordonne la qualité par des incitations économiques plutôt que par des organigrammes d'entreprise.

C'est une thèse véritablement intéressante. La question de savoir si le mécanisme peut la concrétiser est bien plus difficile.


Ce qu'est réellement Bittensor

La plupart des "tokens IA" sont des exercices de marketing. Un projet lève des fonds, achète des crédits GPU, appelle ça de l'IA décentralisée, et espère que le récit portera le prix. Bittensor est différent sur un point important : il s'attaque à un vrai problème de conception de mécanismes, et y travaille sérieusement depuis qu'Ala Shabaana et Jacob Steeves ont lancé le projet en 2019.

Le problème fondamental que Bittensor cherche à résoudre est le suivant : comment créer des incitations économiques pour produire des sorties d'intelligence artificielle de haute qualité sans qu'une autorité centrale ne décide de ce que signifie la qualité ? Sur le web2, Google décide ce qu'est un bon résultat de recherche. OpenAI décide ce qu'est une bonne complétion. On leur fait confiance parce qu'on fait confiance à leur marque et à leurs incitations concurrentielles.

La réponse de Bittensor est de confier aux validateurs - des entités qui ont staké du TAO et sont économiquement alignées avec la qualité du réseau - le soin de classer les mineurs en fonction de la qualité de leurs sorties. Les validateurs font cela de manière indépendante, puis un mécanisme de consensus appelé Yuma Consensus agrège leurs classements en un score objectif. Les mineurs bien classés gagnent des émissions de TAO. Les mineurs mal classés ne gagnent rien et quittent le réseau.

L'élégance de cette conception est qu'elle n'exige de personne de définir la "qualité" dans l'abstrait. La qualité est révélée par le consensus d'évaluateurs économiquement incités. La question plus difficile, à laquelle nous reviendrons, est de savoir si ce mécanisme fait réellement remonter l'intelligence genuîne plutôt que des comportements de contournement.


Comment ça fonctionne - Le mécanisme

Les trois acteurs de la couche de base de Bittensor sont les mineurs, les validateurs, et les propriétaires de subnet.

Les mineurs font tourner des modèles de machine learning et répondent aux requêtes. Sur un subnet de génération de texte, un mineur pourrait faire tourner une variante fine-tunée de LLaMA. Sur un subnet de stockage, un mineur fournit une récupération de données fiable. Sur un subnet de marché de prédictions, un mineur soumet des prévisions probabilistes. Les mineurs reçoivent des émissions de TAO proportionnellement à la façon dont les validateurs classent leurs sorties.

Les validateurs envoient la même tâche à plusieurs mineurs et comparent les résultats. Ils classent les mineurs en fonction de la qualité des sorties - meilleure réponse, meilleur rang. Les validateurs ont quelque chose à perdre : ils doivent staker du TAO pour participer, et ils gagnent une part des émissions en fonction de la proximité de leurs classements avec le consensus agrégé. Cette incitation à l'alignement est d'une importance capitale. Un validateur qui classe en fonction de pots-de-vin ou de relations personnelles plutôt que de la qualité réelle s'écartera du consensus et perdra ses émissions.

Yuma Consensus est le mécanisme d'agrégation. Il prend les classements de chaque validateur (représentés comme des vecteurs de poids sur les mineurs) et produit un poids de consensus final, avec les validateurs qui s'écartent de la médiane voyant leur influence diminuée. Les mathématiques sont empruntées à la littérature de théorie des jeux sur le consensus tolérant les fautes byzantines. Le résultat est un score au niveau du réseau pour chaque mineur qu'aucun validateur ne peut pleinement contrôler.

Les émissions de TAO affluent en continu vers les mineurs et les validateurs sur la base de ces scores, créant un marché où le bon travail est payé et le mauvais ne l'est pas. Le calendrier d'émission est fixe - comme celui de Bitcoin - si bien que le seul levier pour améliorer ses revenus est d'améliorer ses sorties.


Architecture des Subnets

La décision architecturale la plus importante de Bittensor est le modèle de subnet. Plutôt qu'un réseau monolithique unique cherchant à évaluer tous les types d'intelligence possibles, Bittensor est organisé en subnets parallèles, chacun avec sa propre tâche de minage, sa méthodologie de validation, et son allocation d'émissions.

Chaque subnet est essentiellement sa propre micro-économie au sein du système TAO plus large. Les propriétaires de subnet - qui doivent staker du TAO et en brûler pour enregistrer un subnet - définissent la tâche, les critères d'évaluation et les règles du jeu. Le réseau racine alloue une part des émissions globales de TAO à chaque subnet sur la base du vote des validateurs.

Cette spécialisation est sensée. Évaluer la qualité d'un modèle de génération d'images nécessite des méthodes complètement différentes de celles utilisées pour évaluer un modèle de prédiction de séries temporelles. Tenter de faire les deux dans un seul cadre de validation serait soit impossiblement complexe, soit réductivement simple. Les subnets permettent à chaque domaine d'avoir une logique d'évaluation adaptée à ce domaine.

Exemples de subnets actifs au milieu de l'année 2025 :

  • Subnet 1 (Text Prompting) - le subnet originel, les mineurs génèrent des compléments de texte, les validateurs évaluent la cohérence et la pertinence
  • Subnet 4 (Multi-Modality) - tâches de génération d'images et de vidéos
  • Subnet 9 (Pretrain) - les mineurs entraînent des modèles de langage sur des jeux de données spécifiés, les validateurs mesurent la perte
  • Subnet 18 (Cortex.t) - point d'accès API qui achemine les requêtes vers les mineurs les plus performants sur plusieurs tâches
  • Subnet 21 (Storage) - stockage décentralisé avec preuve cryptographique de récupération
  • Subnet 28 (Foundational Model Finetuning) - fine-tuning compétitif de modèles de base

Tous les subnets ne sont pas également matures. Certains ont une utilisation réelle et une valeur démontrée ; d'autres sont des expériences spéculatives avec une couverture de validateurs faible et des modèles économiques peu clairs. La variance de qualité entre les subnets est significative, ce qui est important lorsqu'on réfléchit au staking dTAO (abordé ci-dessous).

La compétition entre subnets fonctionne via le vote du réseau racine. Les validateurs du réseau racine allouent du poids d'émission aux subnets qu'ils estiment produire une valeur genuîne. Les subnets avec de faibles émissions attirent moins de mineurs, ce qui tend à réduire la qualité des sorties au fil du temps. Les subnets avec de fortes émissions attirent des mineurs compétitifs et s'améliorent. En théorie, cela crée un filtre de qualité piloté par le marché dans l'ensemble de l'écosystème.


Proof of Intelligence

Proof of Intelligence est le terme utilisé par Bittensor pour son mécanisme de consensus - l'idée que la sécurité et la coordination du réseau proviennent non pas d'un calcul gaspillé (PoW) ou d'un capital staké (PoS), mais de la production de sorties d'IA genuinement utiles.

C'est un cadrage intellectuellement séduisant. La nuance honnête est que "l'intelligence" n'est pas directement mesurable dans l'abstrait. Ce que Bittensor mesure réellement, c'est l'accord des validateurs sur la qualité des sorties. Pour la plupart des tâches de subnet, cela se traduit concrètement par : plusieurs validateurs s'accordent-ils sur le fait que le mineur A a surpassé le mineur B sur cette tâche ? C'est un signal significatif, mais ce n'est pas une mesure directe de l'intelligence, pas plus que les résultats d'examen ne sont une mesure directe de la connaissance.

Le mécanisme fait face à deux défis structurels.

Le premier est le problème d'oracle d'évaluation. Pour que les validateurs classent les mineurs de manière significative, ils doivent savoir à quoi ressemble une bonne sortie. Pour certaines tâches, c'est faisable - un subnet de marché de prédictions peut vérifier les prévisions par rapport aux résultats réalisés. Pour d'autres tâches, c'est beaucoup plus difficile - comment un validateur sait-il si la réponse d'un mineur de génération de texte est genuinement perspicace plutôt que médiocre mais confiante ? Le validateur doit soit faire tourner son propre modèle de référence (coûteux, et circulaire si le modèle de référence est ce que les mineurs cherchent à surpasser), soit utiliser une mesure proxy (cohérence, longueur, grammaire) qui peut être contournée.

Le deuxième défi est la résistance à la collusion. Un mineur et un validateur pourraient colluder - le mineur envoie des résultats favorables au validateur, le validateur classe le mineur en tête indépendamment de la qualité réelle. Yuma Consensus atténue cela en réduisant le poids des validateurs qui s'écartent du consensus agrégé, mais cette défense n'est aussi solide que la fraction de participants honnêtes. Si une coalition coordonnée de mineurs et de validateurs dépasse une certaine taille, elle peut manipuler les émissions sans être détectée.

Bittensor a fait des progrès significatifs sur les deux problèmes - méthodes d'évaluation spécifiques aux subnets, la mise à niveau dTAO ajoutant plus de friction économique à la manipulation - mais aucun n'est entièrement résolu. Proof of Intelligence est une direction de recherche sérieuse, pas un protocole achevé.


Tokenomics du TAO

La conception monétaire du TAO est un miroir délibéré de Bitcoin. Offre maximale : 21 millions de TAO. L'émission suit un calendrier de halving, avec des halvings tous les 10 512 000 blocs (environ 4 ans à 12 secondes par bloc). Au lancement, les récompenses de bloc étaient de 1 TAO par bloc, diminuant à chaque halving.

Le parallèle avec Bitcoin n'est pas accidentel - il signale aux investisseurs familiers avec les récits de rareté numérique que le TAO est conçu comme une réserve de valeur, pas un token utilitaire qui s'infle indéfiniment. La validité de l'analogie dépend du fait que le TAO accumule de la valeur comme le BTC, ce qui exige que le réseau génère une demande économique réelle pour les sorties d'IA.

Les mécaniques de staking avant le dTAO étaient simples : on délègue du TAO à un validateur du réseau racine, le validateur gagne des émissions et les partage avec les délégants proportionnellement (moins un taux de prélèvement). Staker auprès d'un validateur de haute qualité permettait de gagner une part des émissions des subnets. Le risque était la concentration : si la majorité du TAO était staké auprès de quelques grands validateurs, ces validateurs avaient une influence démesurée sur les subnets qui recevaient des émissions.

Réseau racine vs émissions des subnets : L'émission globale de TAO est divisée - une part va au réseau racine (les validateurs qui votent sur les poids des subnets) et le reste est distribué aux subnets selon ces poids, puis au sein de chaque subnet aux mineurs et validateurs effectuant le travail d'intelligence réel.


La transition vers le dTAO

Dynamic TAO (dTAO) est la mise à niveau la plus significative de l'histoire de Bittensor. Déployé début 2025, il a fondamentalement restructuré la façon dont le capital circule dans le réseau.

Le changement central : chaque subnet dispose maintenant de son propre token alpha (noté avec la lettre grecque alpha, un par subnet). Quand on stake du TAO dans un subnet, on reçoit le token alpha de ce subnet en retour, via un teneur de marché automatisé qui fixe le taux de change. Le TAO staké va dans le pool de liquidité du subnet. Le token alpha reçu représente sa part proportionnelle dans les émissions de ce subnet.

Cela produit plusieurs effets. Premièrement, cela rend lisibles les paris au niveau des subnets. Plutôt que de staker du TAO de manière générique en espérant que les validateurs l'allouent bien, on peut maintenant exprimer directement l'opinion que le Subnet 9 (Pretrain) est plus précieux que le Subnet 28 (Finetuning) en stakant spécifiquement dans le token alpha du subnet 9. Le rendement est lié aux performances et à l'adoption de ce subnet.

Deuxièmement, cela modifie les mécaniques d'émission. Les émissions circulent maintenant en partie en TAO et en partie en tokens alpha de subnet, avec la répartition déterminée par la quantité de liquidité TAO stakée dans chaque subnet. Les subnets fortement stakés reçoivent plus de TAO dans leur pool d'émission ; les subnets faiblement stakés reçoivent proportionnellement moins. Cela crée une boucle de rétroaction directe entre l'allocation de capital du marché et l'économie des subnets.

Troisièmement, et le plus important pour la perspective d'investissement : le dTAO crée effectivement un portefeuille d'actifs à micro-capitalisation au sein de l'écosystème TAO. Chaque token alpha de subnet est un pari spéculatif sur l'utilité future de ce subnet spécifique. Certains iront à zéro. Certains pourraient être très précieux. La variance est bien plus élevée que de détenir du TAO directement, avec un potentiel de hausse et de baisse correspondant plus élevé.

Pour les investisseurs, le dTAO a changé le modèle mental de "staker du TAO et gagner un rendement" à "choisir des subnets comme on choisit des protocoles en phase d'amorçage." C'est un jeu plus difficile mais aussi une représentation plus honnête du risque.


Subnets clés à surveiller

Évaluer les subnets nécessite de regarder l'utilisation réelle, la couverture des validateurs, et le modèle économique derrière la tâche. Voici une évaluation honnête du paysage au milieu de l'année 2025.

Plus étayés :

  • Subnet 21 (Storage) - le stockage décentralisé avec vérification cryptographique a une utilité claire et le mécanisme d'évaluation est objectif (on peut vérifier la récupération des données)
  • Subnet 9 (Pretrain) - compétition d'entraînement de modèles avec des métriques de perte mesurables, attirant des chercheurs en ML sérieux, sans doute le subnet le plus techniquement rigoureux
  • Subnet 18 (Cortex.t) - fonctionne comme un agrégateur d'API, crée une demande externe réelle pour les sorties des mineurs

Plus spéculatifs :

  • La plupart des subnets de génération de texte font face au problème d'oracle de manière aiguë - il est difficile d'évaluer la qualité du texte sans un modèle de référence solide, ce qui crée une pression vers la manipulation
  • Les subnets avec une couverture de validateurs faible sont vulnérables à la collusion et peuvent ne pas représenter des signaux de qualité précis
  • Tout subnet où la "tâche" est abstraite et l'évaluation repose fortement sur la discrétion des validateurs mérite un examen attentif

Le schéma à surveiller : les subnets où la vérité terrain est disponible (subnets de prévision qui se résolvent par rapport aux résultats, subnets de stockage où la récupération est binaire) sont plus fiables que les subnets où la qualité est intrinsèquement subjective.


Le problème de la concurrence avec l'IA centralisée

Le défi intellectuel auquel Bittensor ne peut échapper est le suivant : il cherche à construire une infrastructure d'IA compétitive dans un monde où OpenAI, Google DeepMind, Anthropic et Meta dépensent des dizaines de milliards de dollars par an en cycles d'entraînement, en talents et en données.

Un modèle de langage frontalier en 2025 nécessite une infrastructure qu'aucun réseau décentralisé n'a encore été en mesure d'égaler. L'écosystème de minage de Bittensor, aussi impressionnant soit-il, est actuellement mieux compris comme un marché pour le fine-tuning, l'inférence et les modèles spécialisés plutôt qu'une plateforme pour entraîner des modèles de fondation à l'échelle frontière. La compétition Pretrain du Subnet 9 est une recherche genuinement intéressante, mais les modèles qu'elle produit ne sont pas en compétition avec les capacités de niveau GPT-4 à court terme.

Ce n'est pas nécessairement fatal pour la thèse. Il existe de vrais cas d'usage où des modèles décentralisés spécialisés ont des avantages sur les modèles frontières centralisés :

  • Résistance à la censure - des modèles qui répondent à des questions que les fournisseurs centralisés refusent
  • Confidentialité des données - une inférence qui ne quitte jamais un réseau décentralisé
  • Domaines spécialisés - des modèles profondément fine-tunés pour des contextes professionnels spécifiques
  • Compétition par les coûts - acheminer les requêtes vers la meilleure option qualité-prix à l'échelle mondiale

L'avantage concurrentiel réaliste de Bittensor à court terme n'est pas "meilleur que GPT-5" - c'est "différent de GPT-5 de façons qui comptent pour des cas d'usage spécifiques." La thèse à long terme nécessite de croire que la coordination décentralisée peut finalement mobiliser suffisamment de calcul et de talents pour concurrencer à la frontière. C'est un pari à long terme avec une incertitude genuîne.


Considérations d'investissement

Le TAO est l'un des actifs intellectuellement les plus sérieux en crypto. La conception du mécanisme a une vraie profondeur, l'équipe a livré du vrai code sur plusieurs années, et le problème résolu - coordonner la production d'intelligence distribuée - est genuinement important.

C'est aussi l'un des paris les plus genuinement incertains. Le fossé concurrentiel face à l'IA centralisée est peu clair. Le mécanisme Proof of Intelligence a de vrais problèmes ouverts. La transition vers le dTAO crée un risque au niveau des subnets qui nécessite une gestion active continue si l'on stake des tokens alpha. Et la capitalisation boursière, bien que non négligeable, implique un avenir où Bittensor devient une infrastructure significative pour l'IA - ce qui nécessite à la fois que les problèmes techniques soient résolus et qu'une adoption généralisée se matérialise.

Un cadre raisonnable pour le dimensionnement : le TAO convient à une portion d'un portefeuille crypto allouée à des paris à forte conviction et forte incertitude - pas comme une position de base aux côtés de Bitcoin et d'Ethereum. L'écosystème dTAO des tokens alpha de subnet est encore plus loin sur le spectre du risque et mérite des tailles de position plus petites, proportionnelles à sa capacité à surveiller et comprendre la dynamique des subnets individuels.

La thèse vaut la peine d'être tenue si l'on croit que : la coordination d'IA décentralisée est possible, le mécanisme de Bittensor est la tentative actuelle la plus crédible, et le calendrier est suffisamment long pour que le risque d'exécution soit surmonté par de véritables progrès. Aucune de ces convictions n'est déraisonnable. Aucune n'est garantie.


En savoir plus


Contenu à jour en août 2025. L'écosystème des subnets de Bittensor évolue rapidement - vérifiez toujours les détails actuels des subnets sur taostats.io et la documentation officielle.