Un ensayo académico puso en evidencia cómo los sistemas de inteligencia artificial pueden tomar información inventada y difundirla como si fuera válida, incluso en temas sensibles como la salud.
Inventaron una enfermedad y la IA la convirtió en real: experimento que alerta
La escena parece cotidiana: ojos irritados, cansancio visual y horas frente a una pantalla. Sin embargo, durante meses, quienes consultaban a chatbots sobre estos síntomas podían recibir una respuesta inesperada: bixonimanía. El término sonaba técnico, pero escondía un dato clave: no existe.
Según reconstruyó el periodista Chris Stokel-Walker en un artículo basado en un experimento científico publicado en Nature, todo fue parte de una prueba deliberada para medir los límites de la inteligencia artificial. La iniciativa surgió de la investigadora Almira Osmanovic Thunström, de la Universidad de Gotemburgo, quien decidió crear una enfermedad ficticia y analizar si los modelos de lenguaje la incorporaban como real.
Un engaño diseñado para ser evidente
La supuesta patología apareció por primera vez en marzo de 2024 en publicaciones online y luego en preprints académicos. Los textos estaban plagados de señales de alerta: autores inexistentes, instituciones ficticias y hasta referencias a elementos de ciencia ficción.
El supuesto investigador principal, por ejemplo, tenía un nombre inventado y trabajaba en una universidad que no existe. Incluso se mencionaban financiamientos de entidades absurdas y colaboraciones con personajes de ficción. A pesar de estas pistas, el contenido comenzó a circular.
El objetivo era claro: comprobar si los sistemas de IA, entrenados con enormes volúmenes de datos de internet, podían distinguir entre información válida y contenido fabricado.
Cuando la IA no distingue lo real de lo falso
El resultado superó lo esperado. En pocas semanas, plataformas como ChatGPT, Gemini o Copilot empezaron a responder consultas médicas incluyendo la bixonimanía como si fuera una condición legítima.
Algunas respuestas describían causas, prevalencia e incluso sugerían tratamientos o consultas con especialistas. En ciertos casos, la enfermedad aparecía sin que el usuario la mencionara, simplemente al describir síntomas compatibles con fatiga ocular.
Ver: De la Luna a la Tierra: los efectos físicos que enfrentan los astronautas
El fenómeno expuso una debilidad central: estos sistemas no "comprenden" la información, sino que la reproducen en base a patrones y fuentes disponibles.
El problema se extendió más allá de los chatbots
Lo más preocupante llegó después. Investigadores detectaron que los artículos falsos empezaron a ser citados en publicaciones académicas reales. En un caso concreto, una revista científica terminó retirando un trabajo tras comprobar que incluía referencias a esta enfermedad inexistente.
Esto sugiere que no solo la IA puede amplificar errores, sino que también algunos investigadores podrían estar confiando en contenido generado automáticamente sin verificar las fuentes originales.
Para especialistas como Alex Ruani, investigador en desinformación sanitaria, el caso es una advertencia seria. La facilidad con la que se propagó el dato falso deja en evidencia fallas tanto en la tecnología como en los procesos de validación científica.
Un desafío que todavía no tiene solución clara
Las empresas tecnológicas reconocen limitaciones en sus modelos, aunque aseguran que las versiones actuales mejoraron en precisión. Aun así, el comportamiento sigue siendo variable: ante una misma consulta, un sistema puede negar la existencia de la enfermedad o describirla como emergente.
El caso también revela otro factor clave: el formato influye. Estudios indican que los textos con apariencia médica o académica tienen más probabilidades de ser aceptados como verídicos por la IA, incluso si contienen errores.
El experimento de la bixonimanía dejó una conclusión inquietante: en un ecosistema donde la información circula sin freno, distinguir entre lo real y lo falso se vuelve cada vez más complejo. Y cuando se trata de salud, el margen de error puede tener consecuencias concretas.
*Fuente: artículo de Nature basado en el trabajo de Chris Stokel-Walke



