En un contexto de creciente adopción y fascinación mundial por los modelos generativos de lenguaje, Sam Altman, CEO de OpenAI, ha realizado una advertencia que no debe pasar desapercibida: la inteligencia artificial «alucina» y la gente confía en ella mucho más de lo que debería. Estas palabras, pronunciadas durante el primer episodio del podcast oficial de OpenAI, emitido el 18 de junio de 2025, han sido confirmadas por múltiples medios internacionales y revelan una verdad técnica ineludible: los sistemas de IA, pese a su apariencia sofisticada, pueden inventar información con una estructura perfectamente convincente.
Este artículo profundiza en las declaraciones de Altman, las contextualiza y explica por qué confiar ciegamente en la IA sin sistemas de verificación propios representa un riesgo operativo y reputacional considerable para individuos, medios, empresas e instituciones.
¿Qué dijo Sam Altman y cuándo?
La afirmación original fue expresada en el podcast oficial de OpenAI el 18 de junio de 2025. Altman manifestó:
“People have a very high degree of trust in ChatGPT, which is interesting, because AI hallucinates. It should be the tech that you don’t trust that much.”
Esta cita fue recogida por diversos medios internacionales de prestigio:
- The Economic Times tituló: “OpenAI CEO Sam Altman admits surprise over users’ blind trust in AI”.
- Moneycontrol y Unilad Tech replicaron la misma declaración, destacando la paradoja de una herramienta ampliamente adoptada, pero cuyo diseño no está orientado a la verdad, sino a la coherencia estadística.
- En Medium, el escritor Michael Wood analizó el episodio, resaltando que Altman, incluso como padre reciente, había comprobado que la IA responde con aparente seguridad aunque no siempre con precisión.
- Business Insider añadió una nota interesante: Altman reconoció que sus hijos jamás serán más inteligentes que las futuras generaciones de modelos de IA, pero eso no significa que haya que confiar en todo lo que dicen.
Estos testimonios demuestran, sin margen de duda, que Altman fue explícito sobre los límites actuales de la tecnología que él mismo lidera.
¿Qué significa que la IA “alucina”?
En el ámbito de la inteligencia artificial, “alucinar” no es un error de programación. Es un fenómeno intrínseco al funcionamiento de los modelos de lenguaje como GPT: generar contenido plausible pero falso.
Esto ocurre porque estos sistemas:
- No razonan ni entienden el significado del texto.
- Solo predicen, palabra a palabra, la secuencia que mejor se ajusta estadísticamente al contexto ofrecido.
- Si no tienen información verificada, la “rellenan” basándose en patrones anteriores, sin distinguir si el contenido es verdadero o no.
Por tanto, una IA puede afirmar que “París está en Alemania” o que “2 + 2 = 5”, si ese tipo de frase encaja con las correlaciones estadísticas de su entrenamiento.
¿Por qué sucede esto?
Durante su entrenamiento, los modelos de IA leen enormes cantidades de texto de diversa procedencia: libros, artículos, redes sociales, foros, medios fiables y también fuentes dudosas. Al absorber semejante volumen de información:
- Si encuentra huecos, los llena inventando.
- Si detecta sesgos, los reproduce.
- No distingue entre una mentira bien escrita y una verdad mal redactada.
A esto se suma que, a diferencia de un humano informado, la IA no puede verificar la veracidad de lo que produce, salvo que se le integre con sistemas externos de cotejo o repositorios estructurados.
¿Cuál es el verdadero riesgo?
El problema más grave no es que la IA “alucine”. El verdadero riesgo es que lo haga con tanta fluidez que el lector promedio no detecte el error.
Cuando un sistema escribe con seguridad, buena sintaxis, datos aparentes y estilo profesional, se tiende a asumir que también tiene razón. Esta ilusión de veracidad puede llevar a:
- Errores en decisiones empresariales.
- Difusión de desinformación en medios.
- Diagnósticos erróneos en contextos médicos.
- Fallos jurídicos o legales si se toman textos generados como verdades documentadas.
Sam Altman ha dejado claro que esta confianza ciega es peligrosa. No porque la IA sea maliciosa, sino porque no fue diseñada para ser un árbitro de la verdad, sino una generadora estadística de lenguaje.
¿La solución? Sistemas de cotejo y repositorios propios
Para evitar errores derivados de la alucinación, es imprescindible incorporar capas de verificación y fuentes de datos propias. Algunas estrategias incluyen:
- Integrar bases de datos documentadas con trazabilidad.
- Utilizar validadores externos antes de publicar o aplicar información.
- Enseñar a los equipos a desconfiar de respuestas sin soporte verificable.
- Establecer políticas internas de uso responsable de IA.
Sin estas herramientas de apoyo, los errores podrían ser tan graves como difíciles de detectar, ya que la fluidez lingüística de la IA enmascara su debilidad estructural frente a la veracidad factual.
Conclusión
La advertencia de Altman es más que una observación técnica: es una alerta ética y operativa. Vivimos en una época en la que las herramientas de IA escriben artículos, informes, correos, guías legales y respuestas médicas. Pero esa capacidad no equivale a precisión.
Entender cómo funciona un modelo generativo, aceptar sus límites y dotarse de sistemas de verificación no es una opción, sino una responsabilidad ineludible para cualquier persona u organización que desee utilizar esta tecnología de forma profesional, ética y segura.
LAS RIMAS DE LA IA
Si confías sin dudar, la IA te puede engañar.
Aunque hable con precisión, no siempre tiene razón.
Usa datos verificados, y tendrás mejores resultados.
