Je finis par abandonner Claude Code


À l'origine, Claude, qui était déjà fréquemment « suspendu », est maintenant arrivé à l'étape du KYC, bien que je n'aie pas encore été averti, mais je crains que le compte acheté ne soit pas fiable
Je ne peux m'empêcher de réfléchir, l'IA commence à faire une vérification d'identité, cela améliore-t-il la sécurité ou augmente-t-il silencieusement la barrière d'entrée ?
En apparence, c'est Anthropic qui progresse vers la conformité ; mais sous un autre angle, cela révèle une réalité peu reluisante : lorsque l'outil devient suffisamment puissant pour influencer le monde réel, la première réaction des entreprises n'est plus de faire confiance aux utilisateurs, mais de gérer les utilisateurs.
Autrefois, nous utilisions des moteurs de recherche, des salons de discussion, voire les premiers ChatGPT, sans jamais avoir besoin de prouver « que je suis moi ». Mais maintenant, le processus d'utilisation d'un assistant IA ressemble de plus en plus à l'ouverture d'un compte ou à un transfert international, avec KYC, vérification, conformité, étape par étape.
Je pense que ce n'est pas une étape supplémentaire, mais trois véritables barrières :
🔸 Tout d'abord, la barrière elle-même
Pour les utilisateurs du continent chinois, ainsi que pour les personnes très sensibles à la vie privée, le KYC bloque directement une partie des utilisateurs. L'échec de la vérification, les restrictions régionales, les exigences en matière de données, se traduisent essentiellement par une perte d'utilisateurs, qui se tourneront vers des outils plus légers.
🔸 Ensuite, la question des données
Anthropic affirme que ces données ne seront pas utilisées pour entraîner des modèles ou faire du marketing, mais confiées à des tiers (comme Persona). Mais en réalité, de nombreux cas de fuites de données ont été signalés, et même si les règles sont très claires, il est difficile d'éliminer complètement les préoccupations des utilisateurs.
🔸 Enfin, la frontière
Je comprends que plus l'IA devient puissante, plus un mécanisme de responsabilité traçable est nécessaire, mais le problème est que si toutes les IA grand public évoluent vers une forte identification, combien d'espace d'« anonymat » les utilisateurs pourront-ils encore conserver ? La réflexion, l'expérimentation et l'exploration qui ne sont pas enregistrées ni étiquetées, risquent-elles de disparaître peu à peu ?
Je continue à chercher d'autres outils d'IA...
Voir l'original
post-image
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler