Résultats de la recherche pour "LLM"
Aujourd'hui
02:38

PIPPIN(pippin)hausse de 20,56% sur 24 heures

Actualités de Gate News : Message, le 2 avril, d’après les données de Gate News, au moment de la publication, PIPPIN (pippin) s’affichait à 0.0603 USD, en hausse de 20.56 % sur 24 heures. Le plus haut a atteint 0.0779 USD, et le plus bas est retombé à 0.0499 USD. Le volume des échanges sur 24 heures s’élève à 21.2392 millions de dollars. La capitalisation boursière actuelle est d’environ 60.31 millions de dollars. Pippin est une licorne en SVG mappée à l’aide du tout dernier benchmark LLM de ChatGPT 4o. Pippin a été créé par Yohei Nakajima, reconnu comme un innovateur et un leader d’opinion dans le domaine de l’AI VC. Il est connu pour sa méthode de construction publique et a toujours été à l’avant-garde du mouvement « AI for VC »
Plus
PIPPIN23,2%
01:11

TAO en hausse de 94,9% sur le dernier mois, Bittensor complète le plus grand préentraînement LLM décentralisé de son histoire

Le prix du TAO continue d'augmenter, atteignant un nouveau sommet de 337,84 dollars, avec une hausse de 24 heures de 13,6 %. L'investisseur réputé Jason Calacanis s'est montré optimiste quant à TAO et a investi dans des projets de son écosystème. Le sous-réseau Bittensor a complété un important pré-entraînement préalable, prouvant sa capacité d'application pratique.
Plus
TAO0,06%
BTC-1,63%
05:03

a16z : Les modèles commerciaux des agents IA remettent en question la logique de la publicité Internet, le marché mondial de la publicité en ligne devrait atteindre 291 milliards de dollars en 2025

Gate News annonce que le 23 mars, selon les données de Mordor Intelligence, la taille du marché mondial de la publicité en ligne en 2025 est d'environ 291 milliards de dollars, dominée principalement par Google. a16z souligne que de 1997 à 2024, le modèle commercial fondamental d'Internet reposait sur la monétisation par la capture d'une partie de l'attention des utilisateurs grâce à la publicité. Cependant, les grands modèles de langage (LLM) et les agents IA ne sont pas perturbés par la publicité, et la logique fondamentale traditionnelle de la « distraction de l'attention » n'est plus valable.
Plus
13:08

Tether lance le cadre BitNet LoRA, permettant l'entraînement de grands modèles sur mobile

Gate News rapporte que le 17 mars, QVAC Fabric, filiale de Tether, a lancé le premier cadre LoRA multi-plateforme au monde destiné à Microsoft BitNet (LLM à un bit), réduisant considérablement les seuils de mémoire vidéo et de puissance de calcul pour l'entraînement des grands modèles. Le cadre prend en charge le microfinancement LoRA et l'accélération de l'inférence sur Intel, AMD, Apple Silicon M series ainsi que les GPU mobiles (incluant Adreno, Mali et Apple Bionic).
Plus
07:09

Le co-fondateur de Sentry remet en question le ralentissement du développement causé par les LLM, affirmant qu'OpenClaw génère trop de code pour pouvoir se sauver lui-même.

David Cramer, co-fondateur de Sentry, déclare que les grands modèles de langage n'ont pas amélioré la productivité, mais ont plutôt conduit à la génération de code complexe, ralentissant la vitesse de développement. Il remet en question l'approche de la génération automatique de code, estimant que la qualité de sortie est médiocre, en particulier sur le développement incrémental et la cohérence du style. D'après son expérience personnelle, il souligne que la construction de logiciels reste difficile, et que les changements au niveau psychologique ont affecté sa contribution.
Plus
11:02

L'Institut chinois de recherche sur l'information et la communication en collaboration avec des universités a découvert et corrigé la vulnérabilité critique d'injection de commandes OpenClaw

L'Institut de technologie de l'information de Chine (CAICT) et une équipe universitaire ont découvert une vulnérabilité d'injection de commande pilotée par LLM dans le module bash-tools du framework open source OpenClaw lors d'un audit. Les attaquants pourraient induire l'exécution de commandes pour exécuter du code à distance et voler des données. Un processus de divulgation de vulnérabilité a été lancé et des recommandations de correction ont été soumises.
Plus
09:32

Co-fondateur d'AMI Labs, Xie Saining : Les LLM sont dans une certaine mesure « anti-Bitter Lesson », le modèle mondial est l'avenir

Xie Saining a critiqué lors d'une interview la trajectoire actuelle du développement de l'IA dominée par les grands modèles de langage, estimant qu'elle limite l'apprentissage de l'IA sur le monde réel et soulignant les avantages des modèles du monde. Il estime que la création d'agents intelligents capables de survivre dans la réalité est plus difficile et a mentionné qu'AMII Labs se concentre sur la collecte de données réelles, avec des plans pour lancer à l'avenir des lunettes intelligentes IA et des robots.
Plus
06:07

Le sous-réseau Bittensor a terminé la pré-formation du LLM avec 72 milliards de paramètres, TAO a augmenté de 54,8% en deux semaines

Le sous-réseau Bittensor Templar a terminé le préentraînement du modèle de langage décentralisé Covenant-72B avec 72 milliards de paramètres le 10 mars. Le modèle a obtenu des résultats exceptionnels au test MMLU, surpassant plusieurs modèles de référence centralisés. Le projet a attiré la collaboration de plus de 70 nœuds, et tous les poids et points de contrôle ont été publiés sous la licence Apache. Suite à cette nouvelle, Bittensor et son jeton ont connu une augmentation généralisée.
Plus
TAO0,06%
08:37

OpenClaw publie la version v2026.3.8, avec l'ajout de la sauvegarde locale CLI, du mode silencieux de Talk et du mode contexte de recherche LLM de Brave

OpenClaw a publié la version v2026.3.8 le 8 mars, avec de nouvelles fonctionnalités telles que la sauvegarde de l'état local, la transcription automatique en mode Talk, et le mode LLM Context pour la recherche Web Brave, ainsi que la correction de plusieurs problèmes. Au total, 43 contributeurs ont participé au développement.
Plus