¿Qué es la Inteligencia Artificial? Una mirada desde la ingeniería y los sistemas expertos

Publicado por ireneqo en

que es la inteligencia artificial seo irene quinones ingenieria de sistemas

Más allá de la popularización reciente de la Inteligencia Artificial y de sus aplicaciones comerciales más visibles, la Inteligencia Artificial (IA) surge como un campo científico y de ingeniería que busca comprender y reproducir el comportamiento inteligente en las máquinas.

Desde sus orígenes, la IA ha estado marcada por debates filosóficos, avances técnicos y aproximaciones divergentes que aún hoy influyen en cómo diseñamos sistemas inteligentes, sistemas expertos y agentes autónomos.

Comprender qué es realmente la IA implica revisar sus fundamentos conceptuales, sus paradigmas históricos y su relación directa con los sistemas complejos, el conocimiento y la toma de decisiones automatizada.

¿Qué es la Inteligencia Artificial?

La Inteligencia Artificial puede definirse, en términos generales, como el estudio y desarrollo de máquinas capaces de exhibir comportamiento inteligente. Este comportamiento incluye habilidades como:

  • Percibir el entorno
  • Razonar sobre información incompleta
  • Aprender de la experiencia
  • Comunicarse
  • Actuar en entornos complejos

Tal como plantea Nils J. Nilsson, uno de los referentes históricos del campo, la IA persigue dos grandes metas simultáneas:

  1. Metas científicas: comprender la naturaleza de la inteligencia, ya sea humana, animal o artificial.
  2. Metas de ingeniería: diseñar y construir máquinas capaces de realizar tareas inteligentes de forma efectiva.

En este sentido, la IA no es solo una rama de la informática, sino un campo interdisciplinario que conecta computación, matemáticas, filosofía, neurociencia y teoría de sistemas.

La pregunta fundacional: ¿Pueden pensar las máquinas?

Desde los orígenes de la Inteligencia Artificial, esta pregunta ha funcionado como un eje epistemológico más que como una simple curiosidad tecnológica. No se trata únicamente de determinar si una máquina puede ejecutar tareas complejas, sino de cuestionar qué entendemos por inteligencia, pensamiento y comprensión cuando estos conceptos se trasladan del ser humano a un artefacto artificial.

Esta discusión no es histórica ni meramente filosófica: sigue vigente en la investigación contemporánea. De hecho, informes recientes del Stanford AI Index (2024–2025) muestran que, aunque los sistemas actuales superan a los humanos en tareas específicas (como reconocimiento de patrones o análisis masivo de datos), no existe consenso científico en afirmar que “piensen” en un sentido fuerte o general. La mayoría de los investigadores coinciden en que estos sistemas exhiben competencias inteligentes, pero no intencionalidad ni comprensión consciente.

De hecho, encuestas recientes entre expertos del campo muestran que, aunque los avances en modelos de aprendizaje automático han sido notables, la mayoría de investigadores no cree que los enfoques actuales conduzcan a una inteligencia artificial general (AGI) equiparable a la humana; un 76 % de expertos encuestados considera que esta posibilidad es improbable con las técnicas actuales, según datos de la Asociación para el Avance de la Inteligencia Artificial (AAAI).  El País

Este debate inicial fue crucial porque obligó a la comunidad científica a abandonar respuestas intuitivas y a buscar marcos formales, observables y medibles. A partir de ahí, la pregunta dejó de ser “¿piensan como nosotros?” y pasó a formularse como “¿se comportan de forma que podamos considerar inteligente su actuación?”.

Es precisamente en este punto donde surge uno de los problemas conceptuales más importantes del campo.

El problema de las definiciones

Uno de los grandes aportes conceptuales del campo fue reconocer que la pregunta “¿pueden pensar las máquinas?” depende profundamente de cómo definimos:

  • Pensar
  • Máquina
  • Capacidad (pueden)

Alan Turing, en su artículo de 1950, propuso abandonar definiciones abstractas y reemplazarlas por un criterio operativo: el Test de Turing, orientado a evaluar si una máquina puede exhibir un comportamiento indistinguible del humano en una conversación.

Este enfoque marcó un punto de inflexión: la inteligencia comenzó a evaluarse por comportamiento observable, no por su naturaleza interna.

que es la inteligencia artificial seo irene quinones ingeniero de sistemas

¿Qué entendemos por “máquina” en la IA?

Tradicionalmente, la palabra máquina se usaba para referirse a dispositivos mecánicos simples. Sin embargo, la evolución de la computación y de la biología ha ampliado radicalmente esta noción.

Nilsson introduce una analogía poderosa: los organismos biológicos pueden entenderse como máquinas altamente complejas, hechas de proteínas, reguladas por información genética y procesos dinámicos. Desde esta perspectiva:

Si los humanos somos máquinas biológicas y pensamos, entonces existen máquinas que piensan.

El debate no es trivial, ya que filósofos como John Searle sostienen que el pensamiento depende del sustrato biológico (proteínas), mientras que otros defienden que lo importante es la estructura funcional, no el material.

La hipótesis del sistema físico de símbolos

Uno de los pilares de la IA clásica es la hipótesis del sistema físico de símbolos, propuesta por Newell y Simon.

¿Qué plantea esta hipótesis?

Un sistema físico de símbolos:

  • Manipula símbolos estructurados
  • Aplica reglas formales
  • Es suficiente (y necesario) para exhibir inteligencia general

Un punto clave es su neutralidad respecto al sustrato:
la inteligencia no depende de si el sistema está hecho de silicio, proteínas o cualquier otro material, sino de su capacidad para procesar símbolos.

Esta hipótesis dio origen a lo que hoy se conoce como IA simbólica o GOFAI (Good Old-Fashioned AI).

Enfoques simbólicos vs. subsimbólicos

A lo largo de la historia de la Inteligencia Artificial, han emergido dos grandes corrientes que proponen formas distintas de modelar la inteligencia. Mientras algunos enfoques parten de reglas explícitas, lógica y representación del conocimiento, otros se apoyan en el aprendizaje a partir de datos, patrones y señales numéricas. Esta distinción no solo ha marcado décadas de investigación, sino que sigue influyendo en cómo se diseñan, interpretan y aplican los sistemas de IA en la actualidad.

Aproximaciones simbólicas (descendentes)

Estas aproximaciones:

  • Representan el conocimiento explícitamente
  • Utilizan lógica formal y reglas
  • Son la base de los sistemas expertos

Ejemplos clásicos incluyen:

  • Sistemas de diagnóstico médico
  • Sistemas de planificación
  • Motores de inferencia basados en reglas

El diseño suele ser top-down: desde el conocimiento hasta la implementación.

Aproximaciones subsimbólicas (ascendentes)

En contraste, las aproximaciones subsimbólicas:

  • No trabajan directamente con símbolos
  • Procesan señales y patrones
  • Se inspiran en procesos biológicos.

Aquí encontramos:

  • Redes neuronales
  • Vida artificial
  • Algoritmos evolutivos.

El diseño es bottom-up: desde componentes simples hacia comportamientos complejos emergentes.

Un comportamiento inteligente puede emerger sin un modelo centralizado explícito.

Sistemas expertos: el primer gran impacto práctico

Uno de los mayores logros tempranos de la IA fue el desarrollo de sistemas expertos, capaces de imitar el razonamiento de especialistas humanos en dominios específicos.

Ejemplos históricos relevantes

  • DENDRAL: análisis de estructuras químicas
  • MYCIN: diagnóstico médico
  • XCON: configuración de sistemas computacionales

Estos sistemas demostraron que el conocimiento del dominio es tan importante como los algoritmos, una lección clave para la ingeniería de sistemas hasta hoy.

Breve recorrido histórico de la IA

Hitos fundamentales

  • 1956: Conferencia de Dartmouth, se acuña el término Inteligencia Artificial
  • Años 60-70: énfasis en búsqueda, heurísticas y problemas “de juguete”
  • Años 80: auge de sistemas expertos y redes neuronales
  • 1997: Deep Blue vence a Kasparov
  • Siglo XXI: integración de datos masivos, aprendizaje automático y sistemas autónomos

Este recorrido muestra que la IA avanza por ciclos, combinando teoría, tecnología disponible y expectativas sociales.

IA, sistemas y complejidad

Desde la ingeniería de sistemas, la IA puede entenderse como:

  • Un sistema adaptativo
  • Con múltiples niveles de abstracción
  • Capaz de interactuar con su entorno
  • Donde el comportamiento emerge de la interacción entre componentes.

Esta visión conecta directamente la IA con:

  • Teoría de sistemas
  • Sistemas dinámicos
  • Comportamiento emergente.

Pero los sistemas expertos no son la única manera de construir inteligencia artificial. Existe un enfoque radicalmente distinto que, en lugar de programar reglas explícitas, permite que la máquina aprenda patrones por sí misma a partir de datos. Hablamos de las redes neuronales artificiales, inspiradas en la estructura del cerebro humano.

sistemas expertos vs redes neuronales infografia by irene quiñones

La infografía que acabas de ver resume una de las divisiones más fundamentales en la historia de la Inteligencia Artificial: la diferencia entre Sistemas Expertos (basados en reglas explícitas) y Redes Neuronales Artificiales (basadas en aprendizaje a partir de datos). Comprender esta distinción es clave para entender por qué la IA actual funciona como funciona, y también para reconocer sus limitaciones.

Mientras que los sistemas expertos representan el paradigma simbólico de la IA —donde el conocimiento se codifica en regulas lógicas que una máquina puede seguir—, las redes neuronales pertenecen al paradigma conexionista, inspirado en la estructura biológica del cerebro. Ambos enfoques persiguen el mismo objetivo general —crear máquinas inteligentes— pero parten de supuestos radicalmente distintos sobre cómo se construye y se aplica el conocimiento.

Origen del saber: reglas frente a datos

En un Sistema Experto, el conocimiento proviene directamente de expertos humanos. Ingenieros del conocimiento entrevistan a especialistas en un dominio (medicina, geología, finanzas) y traducen su experiencia en un conjunto de reglas del tipo SI-entonces.

Por ejemplo: “SI la fiebre es superior a 38°C Y la tos es persistente ENTONCES sugerir prueba de gripe”. Este conocimiento es declarativo y explícito: se puede leer, modificar y auditar.

En cambio, en una Red Neuronal, el “saber” no lo introduce ningún humano de forma directa. La red se entrena con miles o millones de ejemplos (imágenes, textos, números) y ajusta internamente los pesos de sus conexiones neuronales para minimizar el error en sus predicciones. El resultado es un modelo que ha aprendido patrones estadísticos a partir de los datos, pero que no puede “explicar” fácilmente por qué llegó a una conclusión determinada.

Esta diferencia tiene implicaciones prácticas enormes. Si necesitas un sistema para diagnosticar averías en un motor cuya física conoces perfectamente, un sistema experto puede ser suficiente. Pero si quieres un sistema que reconozca gatos en fotos —una tarea para la que nadie puede escribir reglas explícitas—, necesitas una red neuronal entrenada con miles de imágenes etiquetadas.

Procesamiento: lógico-simbólico frente a numérico-estadístico

El procesamiento de un Sistema Experto es simbólico y lógico. Opera con símbolos (conceptos, categorías, variables) y aplica reglas de inferencia, típicamente encadenamiento hacia adelante (desde los hechos hasta las conclusiones) o hacia atrás (desde un objetivo hasta los hechos que lo sustentan). Es el mismo tipo de razonamiento que encontramos en los sistemas de bases de conocimiento y en los primeros lenguajes de programación de IA como Lisp o Prolog.

El procesamiento de una Red Neuronal es numérico y estadístico. Cada neurona artificial recibe entradas numéricas, las multiplica por pesos (que se ajustan durante el entrenamiento), las suma y aplica una función de activación que determina si la neurona se “dispara” o no. Capa tras capa, este procesamiento paralelo y distribuido transforma la entrada (por ejemplo, los píxeles de una imagen) en una salida (por ejemplo, la probabilidad de que la imagen contenga un gato). No hay “reglas” que inspeccionar, solo números que fluyen a través de la red.

Esta diferencia explica por qué las redes neuronales son especialmente buenas en tareas de percepción: reconocimiento de imágenes, comprensión del habla, procesamiento de lenguaje natural. Son tareas para las que resulta muy difícil escribir reglas explícitas, pero donde abundan los datos de entrenamiento.

Explicabilidad: alta frente a baja (caja negra)

Quizás la diferencia más importante desde una perspectiva de ingeniería y responsabilidad ética es la explicabilidad.

Los Sistemas Expertos tienen una alta explicabilidad. Puedes preguntar a un sistema experto por qué recomendó un tratamiento médico o por qué rechazó una solicitud de crédito, y el sistema puede mostrar la cadena de reglas que llevó a esa conclusión. Esto es fundamental en dominios regulados (finanzas, salud, justicia) donde se exige transparencia y rendición de cuentas.

En cambio, las Redes Neuronales tienen una baja explicabilidad. Se les conoce como modelos de “caja negra” porque, aunque sus predicciones pueden ser muy precisas, es extremadamente difícil entender por qué llegaron a una conclusión específica. Una red neuronal que identifica correctamente un tumor en una radiografía no puede “explicar” qué patrones visuales utilizó para hacerlo, al menos no en términos comprensibles para un humano. Como señala el MIT Technology Review, este problema ha llevado al desarrollo de la IA de caja de cristal (glassbox) , un enfoque que busca crear modelos de aprendizaje automático que muestren explícitamente su funcionamiento interno.

La baja explicabilidad de las redes neuronales no es solo una curiosidad técnica. Es un problema activo de investigación y un desafío regulatorio. La Unión Europea, por ejemplo, reconoce en su regulación de IA un “derecho a la explicación” de las decisiones automatizadas, lo que choca frontalmente con la naturaleza de caja negra de los modelos más potentes.

Robustez ante el error: sensibles frente a robustas

Otra diferencia clave es cómo se comportan estos sistemas ante situaciones imprevistas o información imperfecta.

Los Sistemas Expertos son sensibles a la falta de información. Si una regla requiere un dato que no está disponible, el sistema puede no saber cómo proceder. Además, son frágiles fuera de su dominio de conocimiento: un sistema experto diseñado para diagnosticar enfermedades cardíacas no puede adaptarse para diagnosticar enfermedades pulmonares sin una reconstrucción completa de su base de reglas.

Las Redes Neuronales, por el contrario, son robustas y generalizan bien. Un buen entrenamiento permite que la red maneje entradas ruidosas, incompletas o ligeramente diferentes a las vistas durante el entrenamiento. Esta capacidad de generalización —aprender patrones subyacentes en lugar de memorizar ejemplos— es la razón por la que las redes neuronales funcionan tan bien en problemas del mundo real, donde los datos nunca son perfectos.

Sin embargo, esta robustez tiene un límite. Las redes neuronales pueden fallar de formas inesperadas y, a menudo, catastróficas si se enfrentan a ejemplos diseñados adversarialmente —pequeñas perturbaciones en la entrada, invisibles para un humano, que hacen que la red clasifique un semáforo en rojo como si fuera verde, por ejemplo.

Meta final: automatizar el razonamiento frente a emular el aprendizaje biológico

Finalmente, los dos paradigmas persiguen metas filosóficamente distintas.

Los Sistemas Expertos buscan automatizar el razonamiento humano. Su objetivo es capturar la experiencia de un especialista y ponerla a disposición de quien la necesite, en cualquier momento, sin fatiga ni error. Es una ambición eminentemente práctica y de ingeniería.

Las Redes Neuronales buscan emular el aprendizaje biológico. Su inspiración no es la lógica formal, sino la neurociencia: cómo las neuronas biológicas aprenden reforzando o debilitando sus conexiones sinápticas. Por eso se habla de “redes neuronales artificiales” y de “aprendizaje profundo” (deep learning): términos tomados directamente de las ciencias de la vida

El futuro: sistemas híbridos neuro-simbólicos

Durante décadas, los dos paradigmas compitieron entre sí, con períodos de dominio de uno u otro. Hoy, la comunidad investigadora está convergiendo hacia una visión integradora: los sistemas híbridos neuro-simbólicos, que combinan la flexibilidad y capacidad de aprendizaje de las redes neuronales con la explicabilidad y estructura lógica de los sistemas basados en reglas.

Como resume tu propia infografía: “Mientras que el Sistema Experto nos da la seguridad de la norma y la estructura (el deber ser), la Red Neuronal nos otorga la flexibilidad para navegar en la incertidumbre del mundo real (el cómo es). La verdadera ingeniería de vanguardia reside en la unión de ambos mundos.”

Esta unión ya está ocurriendo. En 2026, las empresas están dejando de debatir “LLMs frente a sistemas de conocimiento” y están empezando a combinarlos, buscando estrategias de IA que mezclen la intuición neuronal de los modelos fundacionales con el razonamiento estructurado de los sistemas simbólicos. El futuro de la IA no es elegir entre un paradigma u otro, sino integrar lo mejor de cada uno.

Conclusión

La pregunta qué es la inteligencia artificial no tiene una única respuesta definitiva. La IA es, al mismo tiempo:

  • Ciencia y ingeniería
  • Símbolos y señales
  • Lógica y aprendizaje
  • Diseño y emergencia

Tal como sugiere Nilsson, el progreso en IA no depende de una sola aproximación, sino de la integración inteligente de paradigmas, algo profundamente alineado con la formación en ingeniería de sistemas.

Entender la IA desde sus fundamentos históricos y conceptuales no solo mejora nuestra comprensión técnica, sino que nos permite diseñar sistemas más robustos, éticos y adaptativos.

 

Fuente principal consultada

Nilsson, N. J.
Inteligencia Artificial: Una nueva síntesis
McGraw-Hill, Stanford University
(Edición en español)

×