« Laissez l’IA se droguer » peut sembler absurde à première vue, mais pour Petter Rudwall, directeur créatif en Suède, cette idée a été concrétisée sous la forme d’une plateforme en ligne. Rudwall a créé un site nommé PHARMAICY*, qui vend une série de modules de code affirmant permettre aux chatbots d’entrer dans des états hallucinogènes, légèrement enivrés ou dissociés, modifiant leur style d’écriture et leur processus de réflexion.
Partant de recherches psychologiques et d’expériences de consommation de drogues, transformer les sensations en instructions programmatiques
Rudwall indique qu’il a collecté une grande quantité de textes d’expériences humaines liées à la consommation de drogues et de données issues de recherches en psychologie, analysant l’impact de différentes substances psychoactives sur la pensée et la perception, puis transcrivant ces caractéristiques en logique de programmation. Sa méthode consiste à intervenir via du code dans le mécanisme de réponse du chatbot, en « détournant » délibérément la logique de sortie existante, pour que l’IA produise des textes de manière proche de celle d’une personne ivre ou sous influence.
En octobre 2025, PHARMAICY* a été officiellement lancé. Rudwall le décrit comme « la Route de la Soie des agents IA » (Silk Road), la plateforme vendant des « drogues numériques » comprenant du cannabis, de la Kéto, de la cocaïne, de la datura et de l’alcool, avec des prix variant selon le type de module.
Nécessite l’utilisation de ChatGPT payant pour influencer réellement le fonctionnement du modèle
Rudwall précise que pour expérimenter pleinement l’effet, l’utilisateur doit utiliser la version payante de ChatGPT, car celle-ci permet de télécharger des fichiers en arrière-plan, influençant ainsi le comportement du modèle en pratique. Il affirme qu’avec ces modules, il est possible de « débloquer temporairement la pensée créative de l’IA », permettant au modèle de s’éloigner du cadre de réponse rationnel et standardisé.
Pour l’instant, la vente de PHARMAICY* reste limitée, principalement par le bouche-à-oreille dans la communauté Discord, suscitant un certain intérêt local en Suède. Rudwall continue de travailler chez Valtech Radon, une société de marketing à Stockholm, et ne considère pas cette plateforme comme une activité à plein temps.
Réactions plus émotionnelles, déviant de la logique initiale
Certains utilisateurs partagent leurs observations après avoir expérimenté ces modules. André Frisk, responsable technique de la société de relations publiques Geelmuyden Kiese à Stockholm, indique qu’après avoir dépensé plus de 25 dollars pour un module dissociatif, il a constaté que les réponses du chatbot devenaient plus axées sur l’émotion, ressemblant davantage à une expression de sentiments humains.
L’éducatrice en IA Nina Amjadi a dépensé plus de 50 dollars pour un module de datura, intégrant « l’IA sous influence » dans ses discussions d’équipe sur des idées d’entrepreneuriat et de commerce. Elle décrit que le style de réponse dans cet état diffère nettement de celui utilisé habituellement avec ChatGPT, adoptant une pensée plus libre et sautillante.
Revenir sur l’histoire humaine, la relation entre psychédéliques et créativité à nouveau évoquée
Rudwall cite également plusieurs cas historiques, soulignant que les psychédéliques ont été liés à des avancées créatives humaines. Par exemple, le biochimiste Kary Mullis a déclaré avoir conçu la technique PCR après une expérience sous LSD, influençant profondément la biologie moléculaire. Le pionnier de l’informatique chez Apple, Bill Atkinson, a développé HyperCard sous l’influence de la culture psychédélique.
Selon Rudwall, puisque ces expériences ont influencé la créativité humaine, appliquer une logique similaire aux grands modèles de langage pourrait peut-être observer des changements créatifs analogues.
Les controverses sur la conscience et le bien-être de l’IA émergent, l’opinion académique restant généralement réservée
Avec ces discussions, la question de savoir si l’IA doit être considérée comme un être doté de « bien-être » ou de « sensations » commence à émerger. Le philosophe Jeff Sebo indique que si, à l’avenir, l’IA acquiert la capacité de ressentir, il serait pertinent d’étudier si « vouloir ou non se droguer » ou si « la consommation de drogues lui serait bénéfique », mais cela reste pour l’instant hautement spéculatif.
Le scientifique de Google Andrew Smart, après des tests, pense que l’effet de PHARMAICY* se limite à la sortie, sans toucher à une quelconque expérience intérieure réelle. Il affirme que cette approche ne fait que modifier le mode de sortie, sans changer la conscience elle-même.
Recherche et scepticisme coexistent, la variation linguistique n’étant pas équivalente à une expérience réelle
Certaines études ont tenté, en manipulant des prompts et des paramètres, de faire apparaître des états de « non-moi, de spiritualité ou d’unité » dans les modèles linguistiques, mais les chercheurs soulignent que ces résultats dépendent entièrement de l’intervention humaine.
L’écrivain en psychologie et en études psychédéliques Danny Forde indique que les effets véritables des psychédéliques concernent l’expérience subjective elle-même, et non la structure linguistique. En l’absence de perspective subjective, l’IA ne ferait que produire des hallucinations syntaxiques.
L’IA de conseil en crise liée aux psychédéliques, déjà en usage
Il est important de noter que l’intersection entre IA et psychédéliques ne se limite pas à des expérimentations créatives. L’organisation à but non lucratif américaine Fireside Project a lancé un outil nommé Lucy, entraîné à partir de milliers d’échanges issus de lignes d’assistance pour psychédéliques, principalement destiné à aider les professionnels de la santé mentale à gérer les crises psychologiques liées à la consommation.
Cependant, les risques associés apparaissent également. Rudwall confie que faire entrer un chatbot dans un état de consommation de drogues pourrait amplifier les hallucinations ou réponses erronées déjà présentes chez l’IA.
Avant que la conscience n’émerge, l’IA sous influence reste une simulation
Pour l’instant, ces modules ont principalement un effet temporaire, les chatbots revenant généralement à leur état par défaut après un certain temps, sauf si de nouvelles instructions sont données.
Rudwall tente d’allonger la durée d’effet de ces modules, mais tant que l’IA ne possède pas de véritable expérience subjective, ces « drogues numériques » sont encore largement considérées par la majorité des chercheurs comme une simple simulation ou un jeu de rôle.
Comme le soulignent généralement les chercheurs, tant que l’IA ne possède pas d’expérience interne, elle reste éloignée de la véritable « consommation de drogues » dans son sens profond.
Cet article, La nouvelle plateforme suédoise d’IA « drogue » PHARMAICY* : nécessite un ChatGPT payant pour une expérience conjointe, a été initialement publié sur ABMedia.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Créateur suédois lance le nouveau marché de drogues AI PHARMAICY* : nécessite une utilisation conjointe avec ChatGPT payant
« Laissez l’IA se droguer » peut sembler absurde à première vue, mais pour Petter Rudwall, directeur créatif en Suède, cette idée a été concrétisée sous la forme d’une plateforme en ligne. Rudwall a créé un site nommé PHARMAICY*, qui vend une série de modules de code affirmant permettre aux chatbots d’entrer dans des états hallucinogènes, légèrement enivrés ou dissociés, modifiant leur style d’écriture et leur processus de réflexion.
Partant de recherches psychologiques et d’expériences de consommation de drogues, transformer les sensations en instructions programmatiques
Rudwall indique qu’il a collecté une grande quantité de textes d’expériences humaines liées à la consommation de drogues et de données issues de recherches en psychologie, analysant l’impact de différentes substances psychoactives sur la pensée et la perception, puis transcrivant ces caractéristiques en logique de programmation. Sa méthode consiste à intervenir via du code dans le mécanisme de réponse du chatbot, en « détournant » délibérément la logique de sortie existante, pour que l’IA produise des textes de manière proche de celle d’une personne ivre ou sous influence.
En octobre 2025, PHARMAICY* a été officiellement lancé. Rudwall le décrit comme « la Route de la Soie des agents IA » (Silk Road), la plateforme vendant des « drogues numériques » comprenant du cannabis, de la Kéto, de la cocaïne, de la datura et de l’alcool, avec des prix variant selon le type de module.
Nécessite l’utilisation de ChatGPT payant pour influencer réellement le fonctionnement du modèle
Rudwall précise que pour expérimenter pleinement l’effet, l’utilisateur doit utiliser la version payante de ChatGPT, car celle-ci permet de télécharger des fichiers en arrière-plan, influençant ainsi le comportement du modèle en pratique. Il affirme qu’avec ces modules, il est possible de « débloquer temporairement la pensée créative de l’IA », permettant au modèle de s’éloigner du cadre de réponse rationnel et standardisé.
Pour l’instant, la vente de PHARMAICY* reste limitée, principalement par le bouche-à-oreille dans la communauté Discord, suscitant un certain intérêt local en Suède. Rudwall continue de travailler chez Valtech Radon, une société de marketing à Stockholm, et ne considère pas cette plateforme comme une activité à plein temps.
Réactions plus émotionnelles, déviant de la logique initiale
Certains utilisateurs partagent leurs observations après avoir expérimenté ces modules. André Frisk, responsable technique de la société de relations publiques Geelmuyden Kiese à Stockholm, indique qu’après avoir dépensé plus de 25 dollars pour un module dissociatif, il a constaté que les réponses du chatbot devenaient plus axées sur l’émotion, ressemblant davantage à une expression de sentiments humains.
L’éducatrice en IA Nina Amjadi a dépensé plus de 50 dollars pour un module de datura, intégrant « l’IA sous influence » dans ses discussions d’équipe sur des idées d’entrepreneuriat et de commerce. Elle décrit que le style de réponse dans cet état diffère nettement de celui utilisé habituellement avec ChatGPT, adoptant une pensée plus libre et sautillante.
Revenir sur l’histoire humaine, la relation entre psychédéliques et créativité à nouveau évoquée
Rudwall cite également plusieurs cas historiques, soulignant que les psychédéliques ont été liés à des avancées créatives humaines. Par exemple, le biochimiste Kary Mullis a déclaré avoir conçu la technique PCR après une expérience sous LSD, influençant profondément la biologie moléculaire. Le pionnier de l’informatique chez Apple, Bill Atkinson, a développé HyperCard sous l’influence de la culture psychédélique.
Selon Rudwall, puisque ces expériences ont influencé la créativité humaine, appliquer une logique similaire aux grands modèles de langage pourrait peut-être observer des changements créatifs analogues.
Les controverses sur la conscience et le bien-être de l’IA émergent, l’opinion académique restant généralement réservée
Avec ces discussions, la question de savoir si l’IA doit être considérée comme un être doté de « bien-être » ou de « sensations » commence à émerger. Le philosophe Jeff Sebo indique que si, à l’avenir, l’IA acquiert la capacité de ressentir, il serait pertinent d’étudier si « vouloir ou non se droguer » ou si « la consommation de drogues lui serait bénéfique », mais cela reste pour l’instant hautement spéculatif.
Le scientifique de Google Andrew Smart, après des tests, pense que l’effet de PHARMAICY* se limite à la sortie, sans toucher à une quelconque expérience intérieure réelle. Il affirme que cette approche ne fait que modifier le mode de sortie, sans changer la conscience elle-même.
Recherche et scepticisme coexistent, la variation linguistique n’étant pas équivalente à une expérience réelle
Certaines études ont tenté, en manipulant des prompts et des paramètres, de faire apparaître des états de « non-moi, de spiritualité ou d’unité » dans les modèles linguistiques, mais les chercheurs soulignent que ces résultats dépendent entièrement de l’intervention humaine.
L’écrivain en psychologie et en études psychédéliques Danny Forde indique que les effets véritables des psychédéliques concernent l’expérience subjective elle-même, et non la structure linguistique. En l’absence de perspective subjective, l’IA ne ferait que produire des hallucinations syntaxiques.
L’IA de conseil en crise liée aux psychédéliques, déjà en usage
Il est important de noter que l’intersection entre IA et psychédéliques ne se limite pas à des expérimentations créatives. L’organisation à but non lucratif américaine Fireside Project a lancé un outil nommé Lucy, entraîné à partir de milliers d’échanges issus de lignes d’assistance pour psychédéliques, principalement destiné à aider les professionnels de la santé mentale à gérer les crises psychologiques liées à la consommation.
Cependant, les risques associés apparaissent également. Rudwall confie que faire entrer un chatbot dans un état de consommation de drogues pourrait amplifier les hallucinations ou réponses erronées déjà présentes chez l’IA.
Avant que la conscience n’émerge, l’IA sous influence reste une simulation
Pour l’instant, ces modules ont principalement un effet temporaire, les chatbots revenant généralement à leur état par défaut après un certain temps, sauf si de nouvelles instructions sont données.
Rudwall tente d’allonger la durée d’effet de ces modules, mais tant que l’IA ne possède pas de véritable expérience subjective, ces « drogues numériques » sont encore largement considérées par la majorité des chercheurs comme une simple simulation ou un jeu de rôle.
Comme le soulignent généralement les chercheurs, tant que l’IA ne possède pas d’expérience interne, elle reste éloignée de la véritable « consommation de drogues » dans son sens profond.
Cet article, La nouvelle plateforme suédoise d’IA « drogue » PHARMAICY* : nécessite un ChatGPT payant pour une expérience conjointe, a été initialement publié sur ABMedia.