Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
“Un collègue qui a quitté l'entreprise a été transformé, devenant une existence numérique éternelle”
Ces derniers jours, une société de médias de jeux basée dans le Shandong a tenté de former des employés démissionnaires pour en faire des « personnes numériques » d’IA afin de continuer à travailler, et le sujet #公司用AI复刻离职员工继续工作# a rapidement grimpé dans les tendances, suscitant l’attention.
D’après des médias, un employé en poste de l’entreprise affirme qu’il s’agit d’une tentative audacieuse de la part de la société ; dans l’affaire, les collègues ont réellement démissionné. Après avoir obtenu son accord, lui-même a aussi trouvé cela plutôt amusant. Avant de quitter son poste, ce collègue travaillait comme spécialiste RH. Aujourd’hui, ses doubles numériques peuvent effectuer des tâches simples comme faire des consultations, lancer des invitations, et produire des PPT et des tableaux. Ils sont un peu « idiots » : ils ne peuvent répondre qu’à certaines consignes simples.
Même si la personne concernée n’y voit pas d’inconvénient, sur Internet, c’est la panique totale. « Le collègue a été “transformé” » ; « tout mon travail acharné est devenu du carburant numérique » ; « en le voyant du bon côté, c’est une sorte d’immortalité numérique, non ? » … Tension, impuissance, rire jaune : tout cela est devenu l’expression collective du coin des commentaires. Alors pourquoi un double numérique d’un employé démissionnaire rend-il les internautes aussi anxieux ?
一
Les « employés numériques » ne sont pas une idée soudaine, mais une technologie qui se forme progressivement.
D’après des informations, dans le monde de l’IA, il existe aujourd’hui un projet appelé « collègue.Skill » dont la fonction consiste à utiliser les données de travail d’un collègue démissionnaire pour générer, grâce à l’IA, un collègue numérique capable de le remplacer. Une fois publié, le projet a explosé en popularité, et certaines personnes ont même créé des produits dérivés, comme « patron.Skill » et « ex.Skill ».
Si l’on dit que cette technologie est très avancée, en réalité ce n’est pas vraiment le cas. Des professionnels l’ont décomposée : pour l’instant, « l’employé numérique » correspond essentiellement à une invite (prompt) qui suit une norme de compétences d’agent + un projet d’ingénierie de robot d’exploration (crawler). Autrement dit, on donne à un acteur un scénario, puis on lui demande de jouer en respectant le style du scénario. Cet agent n’a pas de mémoire, ne sait pas ce qui a été dit hier, et ne peut pas non plus distiller une « connaissance professionnelle et une logique de jugement ».
Dit simplement, cela ne diffère pas fondamentalement de l’imitation du perroquet. Pour le moment, au moins, ces doubles numériques ne peuvent pas « aligner le niveau de granularité » comme un employé réel, « boucler le cycle du projet » ni « relier la logique de base », et ils ne peuvent pas non plus « porter le blâme ».
Alors pourquoi cela rend quand même le personnel inquiet ?
C’est peut-être un effet de “vallée de l’étrange” : lorsque l’IA s’approche assez des « humains », mais qu’aux endroits clés, elle n’est manifestement pas un « humain », les gens ressentent instinctivement une dissonance et de l’inquiétude. Cet inconfort vient d’un décalage au niveau de la perception : elle imite l’expression, le ton et la logique d’action d’un humain, mais manque d’une véritable compréhension et d’un support d’expérience. Elle se retrouve alors dans un état à la fois familier et étrange.
Même si les doubles numériques ne sont pas encore si intelligents, tout le monde sait qu’ils ne sont pas des robots : ce sont des rémanences laissées par des collègues démissionnaires, quelque chose qui ressemble à la forme sans en avoir l’esprit (« forme semblable, esprit disjoint »). On ne peut ni les traiter totalement comme de simples outils, ni vraiment les considérer comme une personne.
C’est donc pour cette raison que les gens se sentent mal à l’aise : ce n’est pas que la chose elle-même soit si puissante, c’est plutôt un relâchement des limites : « l’humain » et « le non-humain » peut-on encore les définir clairement ?
二
La croissance fulgurante de l’IA entraîne une tendance : les êtres humains perdent en quelque sorte le contrôle de leur propre identité. La personnalité, la logique de pensée et les façons d’agir que nous pensions nôtres — tout ce que l’on appelle « l’humanité » — semble pouvoir être transformé en données.
Il ne s’agit pas non plus d’une inquiétude sans fondement. À l’étranger, on discute récemment : « le capitalisme de surveillance ». Cela renvoie au fait que, dans les domaines de la technologie, de l’information et des médias sociaux, de grandes entreprises ôtent systématiquement aux individus leurs données, puis s’approprient ces données. L’ampleur de la collecte est immense, créant des conditions favorables à de puissants systèmes d’algorithmes et d’apprentissage automatique, capables de prédire le comportement des gens. Et cette surveillance est extrêmement asymétrique : un camp peut voir l’autre, tandis que l’autre camp ne peut pas le voir.
Les travailleurs de bureau ont aussi du mal à rester à l’écart : des personnes ordinaires sont transformées en données, puis intégrées dans les systèmes des plateformes et des organisations. Toutes leurs habitudes d’expression, leurs trajectoires de jugement, leurs styles de communication sont décomposés en modules réutilisables. L’expérience n’est plus seulement « ce qu’on a vécu », mais devient une « ressource » qui peut être copiée et appelée. L’humain semble vidé en une collection de données pouvant être mobilisée à tout moment : ce qui reste, c’est le modèle ; ce qui disparaît, c’est le sujet.
Dans ce processus, l’entreprise en profite, et les employés qui n’ont pas encore démissionné peuvent aussi en profiter (obtenir une présence virtuelle d’un ancien collègue). En revanche, la personne réellement « conservée » (les données) est progressivement exclue de la répartition de la valeur.
Ainsi, l’être humain ressemble à une certaine sorte de consommable. Une fois l’extraction des données terminée, il n’a plus aucune valeur. Rien qu’à imaginer la scène, on est déjà très mal à l’aise.
Beaucoup penseront sûrement : peut-on protéger ses droits par le biais de la loi ?
Des juristes ont déjà avancé que cette distillation des données serait susceptible d’être illégale. Les historiques de discussion des employés, les e-mails professionnels, les habitudes de travail personnelles, etc., relèvent des données personnelles définies par la « Loi sur la protection des informations personnelles ». Et le contenu de communication privée concerné pourrait encore constituer des informations personnelles sensibles. Sans le consentement des employés, la collecte et l’utilisation de ce type de données pour entraîner une IA portent directement atteinte aux droits de collecte, d’utilisation et de traitement des informations personnelles.
Parallèlement, conformément au « Règlement provisoire relatif aux services d’intelligence artificielle générative », les fournisseurs de services d’IA générative devraient mener, conformément à la loi, des activités de traitement des données de formation telles que la formation préalable et la formation d’optimisation. Si des informations personnelles sont concernées, il faut obtenir le consentement personnel ou satisfaire à d’autres situations prévues par la loi ou les règlements administratifs.
Mais d’un point de vue objectif, il existe dans tout cela de nombreuses zones floues. Les discussions privées et les boîtes e-mail peuvent peut-être être considérées comme de la vie privée ; alors les propos tenus dans des discussions de groupe, la rédaction de rapports, les interventions à des réunions ? Ces contenus, liés à un poste de travail et publiés dans un cadre public, peut-on exiger de la part de l’entreprise qu’elle ne les collecte pas ?
En toute franchise, pour une entreprise, ce qui a de la valeur n’est sans doute pas « un style de parole ». C’est davantage un art de la performance pour plaisanter, et ce n’est probablement pas ce que les patrons apprécient le plus. Ce qui est le plus susceptible d’être ciblé, ce sont les éléments qui peuvent être « déposés » sous forme de procédures, de jugements et d’expériences.
Cependant, ces éléments « déposés » sont très liés à la vie professionnelle, et il est sans doute difficile de déterminer « la propriété ». On ne peut pas dire qu’un employé démissionne puis emporte tous les comptes rendus et discussions auxquels il a participé, n’est-ce pas ? Et même si l’on dit que l’IA va apprendre, avant de démissionner, qui peut garantir que les employés n’ont jamais eu à faire un vrai « passage de relais » ?
三
Cela ne signifie pas pour autant que « le monde s’effondre » pour les travailleurs de bureau. Les résultats du travail peuvent avoir une dimension publique, mais les informations personnelles qui y figurent restent bel et bien une vie privée. Par exemple, un rapport écrit est public ; alors dans les historiques de discussion, laisser des informations personnelles comme « je travaille en retard au café à côté de la maison » ou « je suis malade récemment, il faut que je livre un peu plus tard », est-ce qu’on peut les définir clairement comme des informations personnelles, et refuser l’abus de la part de l’entreprise ?
Il s’agit peut-être de questions très détaillées, mais ce sont précisément ces détails qui déterminent si les limites peuvent véritablement tenir. Et ce n’est que dans ces scénarios qui semblent, en apparence, anodins, qu’il faut distinguer clairement « ce qui peut être utilisé » et « ce qui ne peut pas être utilisé », « ce qui relève du travail » et « ce qui relève de la vie privée », pour que l’individu ne soit pas, dans le processus d’être transformé en données, emballé dans son ensemble, et « distillé » sans distinction.
Clarifier progressivement les règles juridiques, c’est au moins une forme de réconfort : peut-être que les travailleurs ont du mal à éviter d’être « pressurés » en valeur, mais au moins on peut éviter d’être « transformés », et préserver la subjectivité en tant qu’humain.
En y regardant de plus près, la profession la plus effrayée par les doubles numériques est en réalité encore le modèle de travail traditionnel : contenu mécanique, procédures hautement standardisées, et travail s’appuyant principalement sur l’empirisme. Ce type de travail est finalement le plus facile à disséquer : une fois « distillé », tout devient visible, et il peut être remplacé rapidement. Ce problème ne vient peut-être pas uniquement des doubles numériques : tant que la technologie progresse, le danger arrivera.
La discussion déclenchée par ces doubles numériques, c’est en réalité aussi un rappel : il faut se sauver soi-même au plus vite. Et cela peut même être un rappel inversé : pourquoi ne pourrions-nous pas d’abord « nous distiller » nous-mêmes ?
Ce n’est pas dire que nous devons tous nous recopier, ce serait trop étrange. L’idée, c’est plutôt que nous devons maîtriser la capacité à utiliser l’IA : passer au crible activement les parties qui peuvent être distillées, les structurer, et les définir et les utiliser nous-mêmes. Quelles expériences sont réutilisables, quels jugements peuvent être déposés sous forme de méthodes, quelles procédures peuvent être confiées à des outils pour qu’ils les accomplissent.
En une phrase : confier au système les parties copiables, et garder chez soi les parties irremplaçables.
C’est comme la « fièvre de l’élevage de crevettes » qui a surgi il y a peu : même si elle s’est calmée à cause de problèmes de sécurité, l’enthousiasme populaire qu’elle a suscité était en fait une attitude positive — ne plus attendre passivement que la technologie fasse le tri, mais y participer activement, la comprendre, l’utiliser, et trouver le plus vite possible un outil pouvant remplacer un travail mécanique.
C’est peut-être aussi la façon de relever tous les défis liés à l’IA : se libérer au plus vite des tâches fastidieuses et procédurales, puis retrouver notre « humanité », retrouver la créativité imprévisible qui fait que nous sommes humains, et résister à l’imitation mécanique fondée sur les mégadonnées.
Il faut absolument le voir : le bureau est déjà en train d’être remodelé : l’IA ne remplacera pas votre travail, mais « ceux qui savent utiliser l’IA » le feront. Remodeler votre posture, ce n’est pas vous transformer en données ; c’est vous transformer en quelqu’un qui ne peut plus être défini par des données.
Source de l’article : The Paper / 澎湃新闻
Avertissement relatif aux risques et clause de non-responsabilité