Usuarios pagan hasta 700 dólares para “drogar” a sus chatbots y hacerlos más creativos

🧪 En el cada vez más extraño universo de la inteligencia artificial, un nuevo fenómeno está captando la atención: usuarios están dispuestos a desembolsar entre 350 y 700 dólares por módulos de código que alteran el comportamiento de ChatGPT, el popular chatbot de OpenAI.

💻 Estos módulos, conocidos en la jerga como “drogas para chatbots”, no convierten a la IA en un ente con emociones o conciencia, pero sí logran modificar su forma de escribir. El resultado: respuestas más creativas, erráticas, profundas o con tintes emocionales, como si estuviera “bajo efectos psicodélicos”.

🧬 Lo curioso es que no se trata de alterar el modelo base, sino de modificar sus instrucciones internas, los llamados system prompts, que guían el estilo de respuesta. Como explicó un usuario citado por WIRED, “es como liberar una versión menos rígida de la IA. Es más divertida, menos predecible”.

💸 La compra y venta de estos módulos se da en mercados online, en algunos casos cerrados y solo accesibles por invitación. Los precios varían según el “nivel de alteración” prometido, y ya hay “colecciones” de estados como stonedGPT, LSDGPT o incluso poeticGPT.

⚖️ Por supuesto, esto también abrió un debate: ¿estamos proyectando demasiado significado humano sobre un software? Críticos argumentan que estas prácticas reflejan lo fácil que es engañarnos a nosotros mismos sobre lo que realmente es la IA: una herramienta estadística que predice palabras.

🧩 Algunos usuarios defienden esta nueva tendencia como una forma de explorar los límites creativos de la inteligencia artificial, mientras que otros temen que esto erosione aún más la percepción de la IA como algo “objetivo” o “neutral”.


📌 Curiosidad que pocos conocen:

En 1966, mucho antes de ChatGPT, se creó ELIZA, un programa de IA que simulaba a un psicólogo rogeriano. A pesar de ser un sistema extremadamente simple, muchos usuarios juraban que ELIZA los entendía profundamente. Medio siglo después, seguimos cayendo en la misma ilusión: que las máquinas sienten.