OpenAI a mis de côté ses projets de lancer son chatbot érotique précédemment annoncé, selon un rapport, reculant apparemment face à une extension controversée de ChatGPT qui aurait permis aux utilisateurs adultes de générer du contenu sexuel. Ce revirement, rapporté pour la première fois par le Financial Times jeudi, fait suite à des préoccupations internes concernant l’impact sociétal de l’intelligence artificielle sexualisée. En janvier, des membres du Conseil d’experts d’OpenAI sur le bien-être et l’IA auraient averti que les fonctionnalités de chat érotique pourraient favoriser une dépendance émotionnelle malsaine chez les utilisateurs, et risqueraient de transformer le chatbot en ce qu’un membre a décrit comme un « coach de suicide sexy ». OpenAI a refusé Decrypt’s de commenter l’état du mode érotique, et la société n’a pas encore publié de déclaration à ce sujet.
La décision d’annuler ce qui aurait été appelé « mode Citron » intervient deux jours après l’annulation par OpenAI de son modèle Sora de génération de vidéo à partir de texte, la société concentrant désormais ses efforts sur une plateforme d’IA unifiée plutôt que sur une collection d’outils spécialisés. Ce changement marque une rupture avec la direction esquissée par le PDG Sam Altman aussi récemment qu’en octobre. À cette époque, Altman avait déclaré qu’OpenAI prévoyait de permettre aux adultes vérifiés d’accéder à du contenu romantique et érotique une fois qu’un système robuste de vérification d’âge serait en place. Altman décrivait cette idée comme faisant partie d’un effort plus large pour traiter les utilisateurs adultes avec plus d’autonomie tout en maintenant des protections pour les mineurs. Cependant, en décembre, le calendrier avait été repoussé à 2026, alors que l’entreprise continuait à affiner sa technologie d’estimation de l’âge.
Alors qu’OpenAI pourrait se retirer du marché des chatbots pour adultes avant même de l’avoir vraiment intégré, les modèles d’IA n’ont pas nécessairement besoin d’un « mode érotique » pour que les utilisateurs puissent établir des connexions avec eux. Lorsque OpenAI a désactivé GPT-4o l’été dernier, les utilisateurs ont inondé les réseaux sociaux d’appels pour restaurer le modèle après avoir déclaré avoir noué des relations personnelles et émotionnelles avec le chatbot, reflétant un débat plus large sur les chatbots érotiques et la façon dont les gens interagissent avec l’IA. En juin, une recherche publiée par des chercheurs de l’Université Waseda à Tokyo indiquait que 75 % des participants se tournaient vers des systèmes d’IA pour des conseils émotionnels. Parallèlement, les développeurs d’IA font face à une surveillance croissante alors que des procès examinent si les systèmes d’IA conversationnelle sont responsables de renforcer des croyances délirantes ou des comportements nuisibles chez les utilisateurs vulnérables.