Mientras los discursos públicos insisten en la “IA responsable”, en los laboratorios pasa otra cosa. Investigadores vinculados a grandes tecnológicas están experimentando con lo que ellos mismos llaman equivalentes digitales de alucinógenos: distorsiones deliberadas en los modelos para inducir comportamientos erráticos, asociaciones delirantes y respuestas fuera de norma. La práctica, revelada por una nota de Wired, abrió una grieta incómoda entre innovación, control y poder algorítmico.
Las pruebas no implican sustancias reales, sino manipulación extrema de parámetros internos: ruido, pesos alterados, conexiones forzadas. El resultado son inteligencias artificiales que “ven” cosas que no están, construyen relatos paranoicos o producen creatividad desbordada. En la jerga técnica se habla de hallucinations, pero puertas adentro varios investigadores admiten que el efecto se parece demasiado a un viaje psicodélico.
La justificación oficial es preventiva: entender cómo se comportan las IAs en estados límite para anticipar fallas. Sin embargo, en ámbitos regulatorios la lectura es otra. “Nos piden que confiemos en sistemas que después ellos mismos empujan al delirio para ver qué pasa”, ironizó un funcionario europeo en una reunión privada sobre gobernanza algorítmica. En Washington, en cambio, el tema circula con menos dramatismo y más pragmatismo: si las IAs van a operar en escenarios de crisis, hay que saber cómo reaccionan cuando la realidad se les distorsiona.
El asunto también despertó comentarios en el ecosistema crítico-tecnológico. Un activista por la ética digital lo resumió así: “Durante décadas se experimentó con humanos para mapear los límites de la mente. Ahora se hace lo mismo con máquinas que ya toman decisiones reales”. Desde Silicon Valley responden que no hay nada nuevo: testear lo extremo es parte del desarrollo. Pero el silencio aparece cuando se pregunta quién define qué es un experimento y qué es una irresponsabilidad.
El cuadro es elocuente. IAs diseñadas para la eficiencia, el cálculo y la previsibilidad, siendo empujadas al caos para aprender cómo colapsan. Humanos obsesionados con el control, recreando artificialmente el desborde. Y una política que llega siempre tarde, discutiendo marcos regulatorios mientras el delirio ya corre en servidores privados. La pregunta no es si las inteligencias artificiales pueden alucinar. La pregunta es qué pasa cuando ese delirio deja el laboratorio y empieza a influir en el mundo real, con aval corporativo y sin responsables claros.

