jueves, 10 de abril de 2025

Alucinógenos

En el contexto de la inteligencia artificial, "alucinaciones" es un eufemismo para situaciones en las que un modelo de inteligencia artificial genera información o resultados que no están basados en datos reales o que son incorrectos. Nadie se atribuye el término pero es utilizado ampliamente en la comunidad científica y en la literatura técnica para describir este fenómeno en la inteligencia artificial.

Las alucinaciones en inteligencia artificial son un problema sistémico con profundas implicaciones. En el ámbito de la inteligencia artificial, particularmente en modelos de lenguaje avanzados (LLMs), el término técnico "alucinaciones" opera como un eufemismo académico que encubre un problema crítico: la generación de información ficticia, distorsionada o carente de fundamento empírico presentada con una seguridad engañosa. Aunque ningún investigador serio reivindica la precisión semántica del término —pues evoca una analogía biológica inexacta—, su adopción generalizada en literatura técnica (desde artículos de arXiv hasta informes de OpenAI) refleja la urgencia por categorizar un fenómeno que desafía los pilares mismos de la confiabilidad algorítmica.

Estudios recientes demuestran la gravedad del fenómeno: Un análisis de Google DeepMind (2023) reveló que modelos como GPT-4 producen afirmaciones falsas en ~15-20% de respuestas en dominios complejos (médicos, legales), incluso cuando la pregunta incluye datos verificables; Investigaciones de Stanford HAI destacan que el 92% de los LLMs inventan referencias bibliográficas inexistentes al generar textos académicos, comprometiendo su utilidad en entornos científicos; En aplicaciones críticas como diagnóstico médico asistido por IA (Nature Digital Medicine, 2022), las alucinaciones generan falsos positivos del 12% en interpretación de imágenes radiológicas cuando el modelo complementa su análisis con explicaciones textuales.

Las causas no se reducen a errores de entrenamiento. Según Facebook AI Research (FAIR, 2023), los reportes incorrectos emergen de:

  1. Sobre generalización probabilística: Los LLMs optimizan la fluidez lingüística sobre la veracidad, priorizando secuencias plausibles estadísticamente (aunque factualmente erróneas).
  2. Brecha de grounding: Carecen de un modelo cognitivo del mundo real, como señala Yann LeCun: "Un LLM es un autómata estocástico, no un sistema basado en conocimiento".
  3. Sesgos en datos de entrenamiento: El 34% de las alucinaciones en *Meta’s LLaMA* (*MIT Tech Review*, 2023) rastrean su origen a corpus con información desactualizada o contradictoria.

La imprecisión de los asistentes de IA no es un desafío meramente técnico. Casos documentados muestran consecuencias tangibles: En el sector legal, ChatGPT citó 6 precedentes judiciales ficticios en una demanda real en EE.UU. (The New York Times, junio 2023); Plataformas como Stack Overflow prohibieron respuestas generadas por IA tras comprobar que ~45% contenían errores graves disfrazados de certeza; El Foro Económico Mundial (2024) alerta sobre riesgos en procesos democráticos, donde bots podrían difundir alucinaciones creíbles durante elecciones.

Las alucinaciones son un síntoma de la naturaleza estadística de los LLMs. Como advierte Gary Marcus: "Sin representaciones simbólicas explícitas, la IA seguirá confundiendo correlación con causalidad". Su mitigación exigirá no solo avances técnicos, sino marcos regulatorios —como los propuestos por la Unión Europea en el AI Act — que exijan transparencia sobre los límites de estos sistemas. Mientras tanto, su presencia recuerda una verdad incómoda: la inteligencia artificial actual dista de ser artificialmente inteligente en el sentido humano del término.

Note el uso del eufemismo en un curso sobre como usar los asistentes de Inteligencia Artificial de Google. Conforme voy acumulando experiencia en la interacción con Copilot de Microsoft, la IA de Meta, y Deepseek, voy tomado conciencia de esta problemática, ya que veo reflejado la obstinada mitomanía de la Inteligencia Artificial en la sofocante hibris de las comunidades ideo-culturales en redes sociales. Las redes sociales han devenido en un teatro de sombras donde tribus digitales, armadas de certezas absolutas, levantan altares a sus propias opiniones. Esa hibris colectiva —esa intoxicación de arrogancia— se manifiesta en la necesidad patológica de tener no solo la razón, sino el monopolio moral sobre ella.

Cada comunidad construye su relato como si fuera dogma: los algoritmos alimentan sus ecos, los memes sustituyen a los argumentos y los disidentes son linchados con likes. Lo preocupante no es la diferencia de ideas, sino la sacralización de la propia perspectiva, ese endiosamiento grupal que convierte el debate en una batalla de egos disfrazada de lucha ideológica. Es una desmesura posmoderna: activistas que caricaturizan a sus oponentes, gurús de la autoayuda que venden recetas de felicidad en 280 caracteres, teóricos de conspiraciones que se creen iluminados en un mar de desinformación. Todos comparten el mismo pecado original: la convicción de que su fragmento de verdad es el mosaico completo. Pero la ironía es cruel: cuanta más seguridad exhiben, más frágiles se vuelven. Porque la hibris digital siempre precede a la caída —ya sea en forma de cancelación, de ridículo viral o del vacío existencial que deja perseguir fantasmas en una pelea que no tiene vencedores, solo damnificados—.

En juego de espejos este mismo articulo esta construido con asistentes, ahí les dejo de tarea que es verdad, que es mentira, y que es del color del cristal con que se mira. Para ejemplificar el concepto les cuento una anécdota. Por el tema de la Semana Santa, estaba haciendo reminiscencia de las empanadas de atún, que en su tiempo eran exclusivas de la Pastelería Monterrey y solo se ofrecían en temporada pascual. Yo tengo la biografía del dueño original de la Pastelería Monterrey pero no me acordaba donde la tenia y le pregunte a varios agentes sobre el nombre de la persona y el libro, dándole como referencia el nombre de la pastelería y el dato que el suegro tenia una pastelería en Torreón. La virtualidad me inventó un Yasaburo Kuramoto, que escribió Una vida entre dos culturas y que tenia un suegro llamado Nishi con una panadería en Torreón. No me sonaban los datos y busque mi libro hasta encontrarlo: Casi un siglo de recuerdos; Biografía de Federico Imamura de Antonio Murray, publicado por Ediciones Castillo en 1994. El suegro de Imamura tenía el apellido Ogushi.

Las alucinaciones de la IA y la hibris de las tribus digitales son síntomas de una misma enfermedad: la confusión entre coherencia interna y verdad objetiva. Superarla exigirá abandonar la comodidad de los relatos autocontenidos —ya sean generados por algoritmos o por cámaras de eco sociales— y abrazar la complejidad desordenada de la realidad verificable.

No hay comentarios.: