Bittensor es la esperanza de todo el pueblo cripto

作者:0xai

Por la presente agradecemos a @DistStateAndMe y a su equipo por sus contribuciones en el campo de modelos de IA de código abierto, así como por sus valiosos consejos y apoyo en este artículo.

Por qué deberías prestar atención a este informe

Si la “entrenamiento de IA descentralizada” ha pasado de ser imposible a posible, ¿cuánto subestimaron a Bittensor?

A principios de 2026, todo el mundo en el criptoespacio se siente agotado.

El remanente del último ciclo alcista ya se ha disipado, y el talento se está moviendo rápidamente hacia la industria de IA. Aquellos que antes hablaban de “el próximo 100x”, ahora discuten sobre Claude CodeOpenclaw. La frase “crypto es una pérdida de tiempo” — probablemente la has escuchado más de una vez.

Pero el 10 de marzo de 2026, un subred llamado Templar de Bittensor anunció silenciosamente una noticia.

Más de 70 participantes independientes de todo el mundo, sin servidores centrales ni grandes corporaciones coordinando, solo mediante mecanismos de incentivos cripto, entrenaron conjuntamente un modelo de IA de 720 mil millones de parámetros.

El modelo y los documentos relacionados ya están publicados en HuggingFace y arXiv, con datos públicos y verificables.

Lo más importante: en varias pruebas clave, este modelo superó a modelos de nivel similar entrenados con grandes recursos por Meta.

Tras el anuncio, el precio de TAO permaneció en silencio casi 2 días. No fue hasta el tercer día que empezó a dispararse, y en 6 días aún no se detuvo, con un aumento total de aproximadamente +40%. ¿Por qué hubo esa demora de 2 días?

El argumento central de este informe es: los inversores en cripto ven solo “otro modelo de código abierto”, y piensan que no está a la altura de GPT o Claude en uso diario; los investigadores de IA no prestan atención a cripto. La brecha de percepción entre ambos círculos está creando una ventana de arbitraje cognitivo.

Estructura de lectura

Este informe se divide en dos partes lógicas:

Parte I — Avance técnico: explica qué logró exactamente SN3 Templar y por qué esto es importante en la historia de IA y cripto.

Parte II — Significado para la industria: explica por qué esto significa que el ecosistema de Bittensor está subestimado sistemáticamente y por qué Bittensor es la esperanza de toda la comunidad cripto.

Parte I: El avance en entrenamiento de IA descentralizada

  1. ¿Qué hace SN3?

¿Qué se necesita para entrenar un gran modelo de lenguaje?

Respuesta tradicional: construir un centro de datos gigante, comprar miles de GPUs de primera, gastar cientos de millones de dólares, y coordinar todo con un equipo de ingenieros de una sola empresa. Esa es la estrategia de Meta, Google, OpenAI.

En cambio, SN3 Templar: permite que personas dispersas en todo el mundo aporten una o varias GPUs, formando un rompecabezas de poder computacional que, unido, entrena un modelo completo.

Pero surge un problema fundamental: si los participantes son globales, no confían entre sí, y la latencia de red es inestable, ¿cómo garantizar que los resultados sean efectivos? ¿Cómo evitar que alguien haga trampa o sea perezoso? ¿Cómo motivar a todos a contribuir continuamente?

Bittensor da la respuesta: usando el token TAO como incentivo. Cuanto más efectivo sea el contribución (que puede entenderse como “mejora al modelo”), más TAO recibe el participante. La puntuación y liquidación son automáticas, sin necesidad de una entidad central que coordine.

Así funciona SN3 (subred número 3) de Bittensor, con el código Templar.

Si Bitcoin demostró que el dinero descentralizado es posible, SN3 está demostrando que el entrenamiento de IA descentralizado también lo es.

  1. ¿Qué logros ha alcanzado SN3?

El 10 de marzo de 2026, SN3 Templar anunció la finalización del entrenamiento de un gran modelo de lenguaje llamado Covenant-72B.

¿Qué significa “72B”? 720 mil millones de parámetros. Los parámetros son las “unidades de almacenamiento de conocimiento” del modelo, y más parámetros generalmente significan un modelo más inteligente. GPT-3 tiene 1750B, LLaMA-2 (el modelo de código abierto de Meta) tiene 700B. Covenant-72B está en la misma escala.

¿Y qué tamaño tiene el entrenamiento? Aproximadamente 1.1 billones de tokens, equivalente a unos 5.5 millones de libros (considerando 200,000 palabras por libro).

¿Quién participó? Más de 70 participantes independientes (mineros), que aportaron poder computacional en varias rondas (con un máximo de unos 20 nodos sincronizados por ronda). El entrenamiento comenzó el 12 de septiembre de 2025 y duró unos 6 meses. Sin servidores centrales ni coordinación centralizada.

¿Cómo se desempeñó el modelo? Comparando con pruebas estándar de IA:

Fuente de datos: HuggingFace 1Covenant/Covenant-72B-Chat

MMLU (conocimiento en 57 disciplinas): Covenant-72B 67.35% vs Meta LLaMA-2 63.08%

GSM8K (razonamiento matemático): Covenant-72B 63.91% vs LLaMA-2 52.16%

IFEval (seguimiento de instrucciones): Covenant-72B 64.70% vs LLaMA-2 40.67%

Todo de código abierto: licencia Apache 2.0. Cualquier puede descargar, usar y comercializar sin restricciones.

Respaldo académico: el artículo fue enviado a arXiv [2603.08163], y las tecnologías clave (SparseLoCo y mecanismo anti-trampas Gauntlet) se presentaron en NeurIPS Optimization Workshop.

  1. ¿Qué significa este logro?

Para la comunidad de IA de código abierto: antes, entrenar modelos de 70B era un privilegio de unas pocas grandes empresas por los altos costos y recursos. Covenant-72B demuestra por primera vez que la comunidad puede entrenar modelos de esa escala sin fondos centrales. Esto cambia quién puede participar en el desarrollo de modelos básicos de IA.

Para la estructura de poder en IA: actualmente, los modelos más poderosos están concentrados en unas pocas empresas como OpenAI, Google, Meta y Anthropic. La existencia de entrenamiento descentralizado significa que esa barrera no es insuperable. La premisa de “solo las grandes empresas pueden hacer modelos básicos” se empieza a tambalear.

Para la industria cripto: es la primera vez que un proyecto cripto aporta una contribución técnica real en IA, no solo “aprovechar la tendencia”. Covenant-72B tiene modelos en HuggingFace, artículos en arXiv y datos de benchmarks públicos. Esto establece un precedente: los mecanismos de incentivos cripto pueden ser infraestructura seria para investigación en IA.

Para Bittensor en sí: el éxito de SN3 convierte a Bittensor de un “protocolo de IA descentralizada teórico” a una “infraestructura práctica de IA descentralizada”. Es una transformación de 0 a 1.

  1. La posición histórica de SN3

No es el primer intento de entrenamiento descentralizado en IA, pero SN3 ha llegado a lugares donde otros no llegaron.

Evolución del entrenamiento descentralizado:

2022 — Together GPT-JT (6B): exploración inicial, prueba de colaboración multi-máquina

2023 — SWARM Intelligence (~1B): propuesta de marco heterogéneo de entrenamiento

2024 — INTELLECT-1 (10B): entrenamiento descentralizado interinstitucional

2026 — Covenant-72B / SN3 (72B): primer modelo de 72B que supera en rendimiento a entrenamiento centralizado en benchmarks principales

En solo 4 años, el tamaño pasó de 6B a 72B, un aumento de 12 veces en parámetros. Pero lo más importante no es solo el tamaño, sino la calidad: las generaciones anteriores solo lograron que funcionaran, Covenant-72B fue el primero en superar modelos centralizados en benchmarks principales.

Avances tecnológicos clave:

99% de compresión (más de 146x): cada vez que un participante sube un gradiente, en lugar de transmitir GBs, SparseLoCo lo comprime en más de 146 veces, casi como comprimir toda una temporada de serie en una sola imagen con pérdida mínima.

Solo el 6% del ancho de banda se usa para comunicación: 100 participantes trabajan en paralelo, solo el 6% del tiempo en coordinación, el resto en entrenamiento real. Esto resuelve uno de los mayores cuellos de botella del entrenamiento descentralizado.

  1. ¿Se subestima el entrenamiento descentralizado?

Veamos los datos y luego juzguemos.

Evidencias de subestimación:

MMLU 67.35% vs LLaMA-2 63.08%

MMLU-Pro 40.91% vs LLaMA-2 35.20%

IFEval 64.70% vs LLaMA-2 40.67%

Modelos de entrenamiento descentralizado superan a LLaMA-2-70B, entrenado con grandes recursos.

Comparación con modelos líderes actuales (honestidad necesaria):

Covenant-72B 67.35% en MMLU vs Qwen2.5-72B 86.8% vs LLaMA-3.1-70B 83.6%

GSM8K: Covenant-72B 63.91% vs Qwen2.5-72B 95.8% vs LLaMA-3.1-70B 95.1%

La brecha es de unos 20-30 puntos porcentuales.

Pero la perspectiva es clave: Covenant-72B no busca vencer a SOTA, sino demostrar que el entrenamiento descentralizado es viable. Qwen2.5 y LLaMA-3.1 tienen inversiones de miles de millones, decenas de miles de GPUs y equipos especializados; Covenant-72B funciona con 70+ mineros independientes y sin coordinación central.

La tendencia es más importante que una instantánea:

2022: el mejor modelo descentralizado tenía 6B, sin pruebas en MMLU.

2026: modelo de 72B, con 67.35% en MMLU, superando modelos de Meta.

En solo 4 años, el entrenamiento descentralizado pasó de “experimento conceptual” a “rendimiento comparable al centralizado”. La pendiente de esta curva es más relevante que cualquier cifra individual.

Además, la diferencia en razonamiento profundo de Covenant-72B tiene soluciones planificadas: SN81 Grail se encargará de entrenamiento posterior con RLHF para alinear y mejorar capacidades, paso clave para avanzar de GPT-3 a GPT-4.

Heterogeneous SparseLoCo será el próximo hito: actualmente, SN3 requiere que todos los mineros usen el mismo modelo de GPU. La próxima gran innovación será Heterogeneous SparseLoCo, que permitirá hardware mixto (B200, A100, GPUs de consumo) en la misma tarea. Esto ampliará enormemente la capacidad de entrenamiento en la siguiente ronda.

El entrenamiento descentralizado ya superó el umbral de viabilidad. La diferencia en benchmarks es un problema de optimización, no una barrera teórica.

Parte II: El mercado aún no comprende esto

Línea de tiempo del precio de TAO

Tras el anuncio de SN3, la evolución del precio de TAO revela la percepción retrasada:

Observa estos 2 días de silencio (10/3 → 12/3): anuncio, pero el precio casi no se movió.

¿Por qué ese retraso?

Los inversores en cripto ven solo “Bittensor SN3 entrenó un modelo de IA”, pero no entienden la importancia técnica de “superar a Meta en MMLU con entrenamiento descentralizado de 72B”.

Los investigadores de IA comprenden el significado técnico, pero no prestan atención a cripto.

La brecha de percepción crea una ventana de retraso de 2-3 días en la respuesta del mercado.

Además, la mayoría de los inversores cripto aún piensan en Bittensor en el ciclo anterior. Hoy, hay más de 79 subredes activas en Bittensor, cubriendo áreas como agentes de IA, poder computacional, entrenamiento, trading, robots, etc. Cuando el mercado revalorice la amplitud del ecosistema, esa percepción se corregirá — y esa corrección suele reflejarse en un aumento explosivo del precio.

La valoración de Bittensor en el mercado

En un contexto más amplio, Bittensor ha demostrado: puede entrenar modelos grandes de forma descentralizada.

Si en el futuro la IA requiere redes abiertas y sin permisos para entrenamiento, la única infraestructura validada es Bittensor.

El mercado está valorando una red de infraestructura de IA con lógica de proyectos de aplicación.

Incluso solo dentro de cripto: Bitcoin tiene una participación del 50-60% en el mercado cripto, mientras que Bittensor en IA cripto representa solo alrededor del 11.5%.

Cuando el mercado comprenda mejor la posición de Bittensor en infraestructura de IA, esa disparidad se corregirá.

Conclusión: Bittensor es la esperanza de toda la comunidad cripto

Si Covenant-72B de SN3 Templar prueba algo, es que:

Las redes descentralizadas pueden coordinar no solo capital, sino también poder computacional y desarrollo de IA de vanguardia.

En los últimos años, cripto ha sido un actor marginal en la narrativa de IA. Muchos proyectos dependen de conceptos, emociones o capital, sin resultados técnicos verificables. SN3 es un caso claramente diferente.

No ha lanzado una narrativa de token nueva, ni ha empaquetado un producto “IA + Web3”, sino que ha logrado algo más fundamental y difícil:

Sin coordinación centralizada, entrenar un modelo de 72B.

Participantes de todo el mundo, sin necesidad de confiar entre sí; el sistema se coordina automáticamente mediante incentivos y mecanismos de verificación en la cadena.

Por primera vez, mecanismos cripto generan productividad real en IA.

Muchos aún no comprenden la importancia histórica de SN3. Como en su momento Bitcoin no solo demostró pagos mejores, sino un consenso de valor sin confianza central.

Hoy, muchos solo ven benchmarks, lanzamientos de modelos o subidas de precio.

Pero el cambio real es que Bittensor está demostrando:

Cripto no solo puede emitir activos, sino también organizar producción.

Cripto no solo puede comerciar atención, sino también producir inteligencia.

La comunidad de código abierto puede contribuir con código, la academia con papers, pero cuando se trata de entrenamiento a gran escala, colaboración a largo plazo, coordinación transregional, anti-trampas y distribución de beneficios, la buena voluntad y la reputación no son suficientes:

Sin incentivos económicos, no hay oferta estable.

Sin mecanismos verificables de recompensa y castigo, no hay colaboración a largo plazo.

Sin tokens y mecanismos de coordinación, no puede formarse una red global de producción de IA sin permisos.

¿Está Bittensor subestimado? La respuesta no es “posible”, sino “claramente y sistemáticamente subestimado”.

En el debate sobre si cripto aún tiene sentido, Bittensor está dando la respuesta más contundente de toda la industria.

Por eso: Bittensor es la esperanza de toda la comunidad cripto.

TAO-1,73%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado