En este artículo me propongo analizar, con la mayor
imparcialidad que me permita la razón, el papel de la inteligencia artificial
en nuestro mundo, apoyándome en el conocimiento y la investigación de sus
recursos, sistemas y fundamentos. Parto de la convicción de que ninguna
tecnología debe ser aceptada ni rechazada sin antes comprenderla. Este
principio, al menos en el plano teórico, me permitirá ofrecer respuestas tanto
a las preguntas que ustedes se plantean como a aquellas que yo mismo me formulo
acerca de los avances tecnológicos.
La inteligencia artificial se ha convertido en un
interlocutor cotidiano. Responde preguntas, analiza datos y sugiere decisiones
con rapidez y precisión. Pero detrás de su aparente comprensión se esconde una
limitación fundamental: no siente, no experimenta, no opina. Este artículo
explora qué nos enseña la IA sobre nuestra propia inteligencia y por qué la
experiencia humana sigue siendo insustituible.
Cada vez que hablamos con una máquina, surge la
ilusión de que nos comprende. No hablo de corrección gramatical, sino de
comprensión profunda, de ese instante en el que sentimos que alguien nos
escucha y entiende nuestra intención. La inteligencia artificial promete
respuestas rápidas, coherentes y convincentes. Sin embargo, detrás de esa
apariencia de entendimiento hay algo esencial que no puede replicar: la
experiencia de ser humano. Comprender,
en el plano conversacional humano, es un proceso en el que entran en juego
aspectos intelectivos que, hasta el
presente, no puede incorporar la IA.
Como ingeniero y profesor, he pasado la vida
analizando sistemas y enseñando que la comprensión profunda requiere contexto,
intuición y experiencia. La IA cumple con su promesa técnica, pero nos
confronta con una pregunta esencial: ¿qué significa realmente “entender”?
¿La máquina escucha
sin oír o ver?
Pretender que la IA
“escuche como un humano” es un error conceptual. Convierte nuestro lenguaje,
cargado de emoción e intención, en datos y secuencias estadísticas. Es cierto, no obstante, si decimos que
la IA es capaz de reconocer patrones de voz y de imagen. Es decir, la IA, puede reconocer estados de ánimo del que
interroga e incluso aspectos relativos al lenguaje no verbal. Los
sistemas basados en el modelo de lenguaje analizan millones de textos y
aprenden patrones de combinación de palabras. En un artículo publicado
en 2020,
Emily Bender y Alexander Koller afirman: “Los modelos de lenguaje -computacional- pueden
generar texto coherente sin comprender su significado.”
Podemos imaginarlo. La IA actúa como un pianista que
toca todas las partituras del mundo, pero nunca ha escuchado una melodía fuera
del papel. Cada nota está en el lugar correcto, pero no sabe lo que es sentir
el ritmo. La IA funciona así: produce respuestas brillantes, pero no comprende
lo que implican. Luciano Floridi lo llama “ausencia de relación semántica plena
con el mundo”. La máquina opera sobre información; no tiene mundo.
¿Opina la IA
Generativa? Intentar
demostrar que si, podría parecer tan difícil como decir no. Cuando
parece que la IA opina, en realidad está generando correlaciones. No hay
juicio, intención ni responsabilidad. “Los sistemas actuales son expertos en
correlaciones, pero no en comprensión.” Gary Marcus. Convengamos mas bien en el no
como respuesta.
Esa ilusión de opinión que podemos atribuir
erróneamente a la IA es más convincente
cuanto más coherente es la respuesta. La IA puede sugerir estrategias y
explicar fenómenos complejos, pero no construye pensamiento propio. Es un
espejo que simula luz, pero no genera su propia claridad. El algoritmo básicamente es una caja negra con
unas restricciones de diseño que impiden a los soñadores ir más allá de la
realidad computacional, esto es así al menos hasta ahora.
Contexto,
ambigüedad y experiencia
La IA funciona bien con lo explícito, pero tropieza
con lo implícito: ironías, dobles sentidos, matices culturales. Hubert Dreyfus
lo señalaba hace décadas: “Lo que los ordenadores no tienen es un trasfondo de
experiencia en el mundo.” Parece
claro que es así: Los patrones de aprendizaje automático que alimentan las IAs
Generativas carecen de contexto, son datos, solo datos.
Una IA no puede
interpretar o deducir de lo dicho. Imaginemos un paciente que dice con
voz temblorosa: “Todo ha ido… genial”, tras un diagnóstico preocupante. Un
humano capta inmediatamente la ironía, el miedo, la resignación. Una IA, sin
contexto emocional, podría interpretarlo literalmente y ofrecer un consejo
inapropiado. La diferencia puede parecer sutil, pero es profunda: separa
información de comprensión, datos de experiencia. Los contextos son necesarios
para obtener las conclusiones.
Sesgo y límites de
la objetividad
La IA aprende
de nuestros textos y reproduce nuestros prejuicios. “Pensar es difícil, por eso
la mayoría de la gente juzga.”, lo dijo Carl Jung.
Daniel
Kahneman en su magnífico libro titulado Pensar rápido, pensar despacio, explora
profundamente este concepto a través de su teoría de los dos sistemas de
pensamiento que ya enuncio Jung, y establece dos sistemas de pensamiento:
sistema1 (intuitivo/rápido) y sistema 2 (analítico/lento). Las
maquinas tienden a usar el sistema 1 sustituyendo la intuición, que no la
tienen, por la estadística. Mientras
el ser humano puede reconocer y cuestionar sus sesgos, la IA carece de esa
conciencia crítica.
Diagnóstico,
intuición y juicio experto
En medicina, ingeniería, derecho o gestión, el juicio
humano sigue siendo insustituible. El diagnóstico no depende solo de
información, sino de experiencia e intuición. “La intuición no es irracional;
es una forma de inteligencia rápida.” Gerd Gigerenzer
La máquina detecta patrones; el humano interpreta
contextos. La máquina reconoce síntomas; el experto reconoce personas,
historias y circunstancias. Esa diferencia es invisible para muchos, pero
vital: es la que asegura que las decisiones tengan sentido, humanidad y
responsabilidad.
La IA no se fatiga, no interrumpe, no olvida
información. Pero escuchar es más que recibir palabras. Implica interpretar
silencios, percibir emociones y generar un vínculo.
¿Puede la IA aconsejar mejor que un experto? Depende del contexto. En entornos estructurados y con abundancia de datos, la IA es extraordinaria. En situaciones ambiguas, inciertas o éticamente complejas, el juicio humano sigue siendo insustituible. Erik Brynjolfsson, profesor en la Universidad de Stanford nos habla del tema y afirma: “No se trata de si las máquinas reemplazarán a los humanos, sino de cómo los humanos pueden trabajar mejor con las máquinas.” La IA amplifica nuestra capacidad, pero no puede sustituir creatividad, intuición ni experiencia acumulada.
Una mirada
humanística frente a la máquina
Desde una perspectiva renacentista, la IA refleja
nuestras capacidades y limitaciones. No olvidemos que la IA esta creada “a
imagen y semejanza” del ser humano. La construcción del edificio de la
“computación inteligente” no está basada en una quimera o un sueño y pienso,
como ya lo pensó Leonardo da Vinci, que “La experiencia nunca engaña; lo que
engaña son nuestros juicios.” La IA opera sobre experiencia ajena: datos
acumulados, textos, estadísticas. Es poderosa, pero su “juicio” carece de vida
propia. Nosotros podemos inventar, errar, aprender e integrar conocimiento y
emoción, ciencia y arte.
La pregunta relevante ya no es si la IA escucha,
comprende u opina. Es cómo ejercemos nuestra propia capacidad de escuchar,
comprender y opinar. En un mundo saturado de información, lo esencial no es
acumular datos, sino interpretarlos con criterio, empatía y creatividad.
Mientras la IA calcula, nosotros seguimos soñando.
Mientras replica patrones, nosotros inventamos. Mientras aprende de lo que
hemos escrito, nosotros seguimos escribiendo la historia que ella solo puede
reproducir.
La inteligencia artificial es un espejo y un desafío.
Nos recuerda que la velocidad, la precisión y la eficiencia no sustituyen la
profundidad, la creatividad ni la intuición. Nos fuerza a redefinir qué
significa ser inteligentes, creativos y conscientes.
En la proyección futura, el ser humano, una vez más, como siempre lo ha sido en la ciencia, tendrá que recurrir a la imaginación, y, solo lo podrá hacer él no las maquinas. Albert Einstein nos dejó una clave cuando afirmaba: “La imaginación es más importante que el conocimiento.”
La IA puede multiplicar nuestro conocimiento, pero no
nuestra imaginación. Cuanto más poderosa se vuelve, más necesarias son la
curiosidad, la reflexión y la experiencia humanas.
Mientras la máquina procesa y replica, nosotros
podemos crear, soñar y reinventar mundos. La inteligencia artificial aprende de
lo que hemos hecho; nosotros seguimos siendo los artífices de lo que está por
venir. Y en esa capacidad reside la última lección humanista: la máquina
amplifica nuestra fuerza, pero solo nosotros podemos dar sentido al mundo.
Sean muy felices y, por favor, “...traten de opinar usando
el conocimiento no la intuición, el miedo o la pasión cuando se acerquen a
determinados temas científicos y técnicos, que afortunadamente están muy
documentados para poder entenderlos, pero no opinen desde el desconocimiento,
se instalarán en el error y se harán daño así mismos”
{{comentario.contenido}}
Eliminar Comentario
"{{comentariohijo.contenido}}"
Eliminar Comentario
Sábado, 28 de Marzo del 2026
Viernes, 27 de Marzo del 2026
Jueves, 26 de Marzo del 2026
Sábado, 28 de Marzo del 2026
Sábado, 28 de Marzo del 2026