Opinión

Escuchar, comprender y opinar

Hacia una semántica de la inteligencia artificial

José Manuel Ruiz Gutiérrez | Sábado, 28 de Marzo del 2026
{{Imagen.Descripcion}}

En este artículo me propongo analizar, con la mayor imparcialidad que me permita la razón, el papel de la inteligencia artificial en nuestro mundo, apoyándome en el conocimiento y la investigación de sus recursos, sistemas y fundamentos. Parto de la convicción de que ninguna tecnología debe ser aceptada ni rechazada sin antes comprenderla. Este principio, al menos en el plano teórico, me permitirá ofrecer respuestas tanto a las preguntas que ustedes se plantean como a aquellas que yo mismo me formulo acerca de los avances tecnológicos.

La inteligencia artificial se ha convertido en un interlocutor cotidiano. Responde preguntas, analiza datos y sugiere decisiones con rapidez y precisión. Pero detrás de su aparente comprensión se esconde una limitación fundamental: no siente, no experimenta, no opina. Este artículo explora qué nos enseña la IA sobre nuestra propia inteligencia y por qué la experiencia humana sigue siendo insustituible.

Cada vez que hablamos con una máquina, surge la ilusión de que nos comprende. No hablo de corrección gramatical, sino de comprensión profunda, de ese instante en el que sentimos que alguien nos escucha y entiende nuestra intención. La inteligencia artificial promete respuestas rápidas, coherentes y convincentes. Sin embargo, detrás de esa apariencia de entendimiento hay algo esencial que no puede replicar: la experiencia de ser humano. Comprender, en el plano conversacional humano, es un proceso en el que entran en juego aspectos intelectivos  que, hasta el presente, no puede incorporar la IA.

Como ingeniero y profesor, he pasado la vida analizando sistemas y enseñando que la comprensión profunda requiere contexto, intuición y experiencia. La IA cumple con su promesa técnica, pero nos confronta con una pregunta esencial: ¿qué significa realmente “entender”?

¿La máquina escucha sin oír o ver?

Pretender que la IA “escuche como un humano” es un error conceptual. Convierte nuestro lenguaje, cargado de emoción e intención, en datos y secuencias estadísticas. Es cierto, no obstante, si decimos que la IA es capaz de reconocer patrones de voz y de imagen. Es decir, la IA,  puede reconocer estados de ánimo del que interroga e incluso aspectos relativos al lenguaje no verbal. Los sistemas basados en el modelo de lenguaje analizan millones de textos y aprenden patrones de combinación de palabras. En un artículo  publicado en 2020, Emily Bender y Alexander Koller afirman: “Los modelos de lenguaje -computacional- pueden generar texto coherente sin comprender su significado.”

Podemos imaginarlo. La IA actúa como un pianista que toca todas las partituras del mundo, pero nunca ha escuchado una melodía fuera del papel. Cada nota está en el lugar correcto, pero no sabe lo que es sentir el ritmo. La IA funciona así: produce respuestas brillantes, pero no comprende lo que implican. Luciano Floridi lo llama “ausencia de relación semántica plena con el mundo”. La máquina opera sobre información; no tiene mundo.

¿Opina la IA Generativa? Intentar demostrar que si, podría parecer tan difícil como decir no. Cuando parece que la IA opina, en realidad está generando correlaciones. No hay juicio, intención ni responsabilidad. “Los sistemas actuales son expertos en correlaciones, pero no en comprensión.”  Gary Marcus. Convengamos mas bien en el no como respuesta.

Esa ilusión de opinión que podemos atribuir erróneamente a la IA  es más convincente cuanto más coherente es la respuesta. La IA puede sugerir estrategias y explicar fenómenos complejos, pero no construye pensamiento propio. Es un espejo que simula luz, pero no genera su propia claridad. El algoritmo básicamente es una caja negra con unas restricciones de diseño que impiden a los soñadores ir más allá de la realidad computacional, esto es así al menos hasta ahora.

Contexto, ambigüedad y experiencia

La IA funciona bien con lo explícito, pero tropieza con lo implícito: ironías, dobles sentidos, matices culturales. Hubert Dreyfus lo señalaba hace décadas: “Lo que los ordenadores no tienen es un trasfondo de experiencia en el mundo.” Parece claro que es así: Los patrones de aprendizaje automático que alimentan las IAs Generativas carecen de contexto, son datos, solo datos.

Una IA no puede interpretar o deducir de lo dicho. Imaginemos un paciente que dice con voz temblorosa: “Todo ha ido… genial”, tras un diagnóstico preocupante. Un humano capta inmediatamente la ironía, el miedo, la resignación. Una IA, sin contexto emocional, podría interpretarlo literalmente y ofrecer un consejo inapropiado. La diferencia puede parecer sutil, pero es profunda: separa información de comprensión, datos de experiencia. Los contextos son necesarios para obtener las conclusiones.

Sesgo y límites de la objetividad

La IA aprende de nuestros textos y reproduce nuestros prejuicios. “Pensar es difícil, por eso la mayoría de la gente juzga.”, lo dijo Carl Jung.

Daniel Kahneman en su magnífico libro titulado Pensar rápido, pensar despacio, explora profundamente este concepto a través de su teoría de los dos sistemas de pensamiento que ya enuncio Jung, y establece dos sistemas de pensamiento: sistema1 (intuitivo/rápido) y sistema 2 (analítico/lento). Las maquinas tienden a usar el sistema 1 sustituyendo la intuición, que no la tienen, por la estadística. Mientras el ser humano puede reconocer y cuestionar sus sesgos, la IA carece de esa conciencia crítica.

Diagnóstico, intuición y juicio experto

En medicina, ingeniería, derecho o gestión, el juicio humano sigue siendo insustituible. El diagnóstico no depende solo de información, sino de experiencia e intuición. “La intuición no es irracional; es una forma de inteligencia rápida.”  Gerd Gigerenzer

La máquina detecta patrones; el humano interpreta contextos. La máquina reconoce síntomas; el experto reconoce personas, historias y circunstancias. Esa diferencia es invisible para muchos, pero vital: es la que asegura que las decisiones tengan sentido, humanidad y responsabilidad.

La IA no se fatiga, no interrumpe, no olvida información. Pero escuchar es más que recibir palabras. Implica interpretar silencios, percibir emociones y generar un vínculo.

¿Puede la IA aconsejar mejor que un experto? Depende del contexto. En entornos estructurados y con abundancia de datos, la IA es extraordinaria. En situaciones ambiguas, inciertas o éticamente complejas, el juicio humano sigue siendo insustituible. Erik Brynjolfsson, profesor en la Universidad de Stanford nos habla del tema y afirma: “No se trata de si las máquinas reemplazarán a los humanos, sino de cómo los humanos pueden trabajar mejor con las máquinas.”  La IA amplifica nuestra capacidad, pero no puede sustituir creatividad, intuición ni experiencia acumulada.


Una mirada humanística  frente a la máquina

Desde una perspectiva renacentista, la IA refleja nuestras capacidades y limitaciones. No olvidemos que la IA esta creada “a imagen y semejanza” del ser humano. La construcción del edificio de la “computación inteligente” no está basada en una quimera o un sueño y pienso, como ya lo pensó Leonardo da Vinci, que “La experiencia nunca engaña; lo que engaña son nuestros juicios.” La IA opera sobre experiencia ajena: datos acumulados, textos, estadísticas. Es poderosa, pero su “juicio” carece de vida propia. Nosotros podemos inventar, errar, aprender e integrar conocimiento y emoción, ciencia y arte.

La pregunta relevante ya no es si la IA escucha, comprende u opina. Es cómo ejercemos nuestra propia capacidad de escuchar, comprender y opinar. En un mundo saturado de información, lo esencial no es acumular datos, sino interpretarlos con criterio, empatía y creatividad.

Mientras la IA calcula, nosotros seguimos soñando. Mientras replica patrones, nosotros inventamos. Mientras aprende de lo que hemos escrito, nosotros seguimos escribiendo la historia que ella solo puede reproducir.

La inteligencia artificial es un espejo y un desafío. Nos recuerda que la velocidad, la precisión y la eficiencia no sustituyen la profundidad, la creatividad ni la intuición. Nos fuerza a redefinir qué significa ser inteligentes, creativos y conscientes.

En la proyección futura, el ser humano, una vez más, como siempre lo ha sido en la ciencia, tendrá que recurrir a la imaginación, y, solo lo podrá hacer él no las maquinas. Albert Einstein nos dejó una clave cuando afirmaba: “La imaginación es más importante que el conocimiento.”

La IA puede multiplicar nuestro conocimiento, pero no nuestra imaginación. Cuanto más poderosa se vuelve, más necesarias son la curiosidad, la reflexión y la experiencia humanas.

Mientras la máquina procesa y replica, nosotros podemos crear, soñar y reinventar mundos. La inteligencia artificial aprende de lo que hemos hecho; nosotros seguimos siendo los artífices de lo que está por venir. Y en esa capacidad reside la última lección humanista: la máquina amplifica nuestra fuerza, pero solo nosotros podemos dar sentido al mundo.

Sean muy felices y, por favor, “...traten de opinar usando el conocimiento no la intuición, el miedo o la pasión cuando se acerquen a determinados temas científicos y técnicos, que afortunadamente están muy documentados para poder entenderlos, pero no opinen desde el desconocimiento, se instalarán en el error y se harán daño así mismos

141 usuarios han visto esta noticia
Comentarios

Debe Iniciar Sesión para comentar

{{userSocial.nombreUsuario}}
{{comentario.usuario.nombreUsuario}} - {{comentario.fechaAmigable}}

{{comentario.contenido}}

Eliminar Comentario

{{comentariohijo.usuario.nombreUsuario}} - {{comentariohijo.fechaAmigable}}

"{{comentariohijo.contenido}}"

Eliminar Comentario

Haga click para iniciar sesion con

facebook
Instagram
Google+
Twitter

Haga click para iniciar sesion con

facebook
Instagram
Google+
Twitter
  • {{obligatorio}}