¿Qué es la Inteligencia Artificial? Una mirada desde la ingeniería y los sistemas expertos

Publicado por ireneqo en

que es la inteligencia artificial seo irene quinones ingenieria de sistemas

Más allá de la popularización reciente de la Inteligencia Artificial y de sus aplicaciones comerciales más visibles, la Inteligencia Artificial (IA) surge como un campo científico y de ingeniería que busca comprender y reproducir el comportamiento inteligente en las máquinas.

Desde sus orígenes, la IA ha estado marcada por debates filosóficos, avances técnicos y aproximaciones divergentes que aún hoy influyen en cómo diseñamos sistemas inteligentes, sistemas expertos y agentes autónomos.

Comprender qué es realmente la IA implica revisar sus fundamentos conceptuales, sus paradigmas históricos y su relación directa con los sistemas complejos, el conocimiento y la toma de decisiones automatizada.

¿Qué es la Inteligencia Artificial?

La Inteligencia Artificial puede definirse, en términos generales, como el estudio y desarrollo de máquinas capaces de exhibir comportamiento inteligente. Este comportamiento incluye habilidades como:

  • Percibir el entorno
  • Razonar sobre información incompleta
  • Aprender de la experiencia
  • Comunicarse
  • Actuar en entornos complejos

Tal como plantea Nils J. Nilsson, uno de los referentes históricos del campo, la IA persigue dos grandes metas simultáneas:

  1. Metas científicas: comprender la naturaleza de la inteligencia, ya sea humana, animal o artificial.
  2. Metas de ingeniería: diseñar y construir máquinas capaces de realizar tareas inteligentes de forma efectiva.

En este sentido, la IA no es solo una rama de la informática, sino un campo interdisciplinario que conecta computación, matemáticas, filosofía, neurociencia y teoría de sistemas.

La pregunta fundacional: ¿Pueden pensar las máquinas?

Desde los orígenes de la Inteligencia Artificial, esta pregunta ha funcionado como un eje epistemológico más que como una simple curiosidad tecnológica. No se trata únicamente de determinar si una máquina puede ejecutar tareas complejas, sino de cuestionar qué entendemos por inteligencia, pensamiento y comprensión cuando estos conceptos se trasladan del ser humano a un artefacto artificial.

Esta discusión no es histórica ni meramente filosófica: sigue vigente en la investigación contemporánea. De hecho, informes recientes del Stanford AI Index (2024–2025) muestran que, aunque los sistemas actuales superan a los humanos en tareas específicas (como reconocimiento de patrones o análisis masivo de datos), no existe consenso científico en afirmar que “piensen” en un sentido fuerte o general. La mayoría de los investigadores coinciden en que estos sistemas exhiben competencias inteligentes, pero no intencionalidad ni comprensión consciente.

De hecho, encuestas recientes entre expertos del campo muestran que, aunque los avances en modelos de aprendizaje automático han sido notables, la mayoría de investigadores no cree que los enfoques actuales conduzcan a una inteligencia artificial general (AGI) equiparable a la humana; un 76 % de expertos encuestados considera que esta posibilidad es improbable con las técnicas actuales, según datos de la Asociación para el Avance de la Inteligencia Artificial (AAAI).  El País

Este debate inicial fue crucial porque obligó a la comunidad científica a abandonar respuestas intuitivas y a buscar marcos formales, observables y medibles. A partir de ahí, la pregunta dejó de ser “¿piensan como nosotros?” y pasó a formularse como “¿se comportan de forma que podamos considerar inteligente su actuación?”.

Es precisamente en este punto donde surge uno de los problemas conceptuales más importantes del campo.

El problema de las definiciones

Uno de los grandes aportes conceptuales del campo fue reconocer que la pregunta “¿pueden pensar las máquinas?” depende profundamente de cómo definimos:

  • Pensar
  • Máquina
  • Capacidad (pueden)

Alan Turing, en su artículo de 1950, propuso abandonar definiciones abstractas y reemplazarlas por un criterio operativo: el Test de Turing, orientado a evaluar si una máquina puede exhibir un comportamiento indistinguible del humano en una conversación.

Este enfoque marcó un punto de inflexión: la inteligencia comenzó a evaluarse por comportamiento observable, no por su naturaleza interna.

que es la inteligencia artificial seo irene quinones ingeniero de sistemas

¿Qué entendemos por “máquina” en la IA?

Tradicionalmente, la palabra máquina se usaba para referirse a dispositivos mecánicos simples. Sin embargo, la evolución de la computación y de la biología ha ampliado radicalmente esta noción.

Nilsson introduce una analogía poderosa: los organismos biológicos pueden entenderse como máquinas altamente complejas, hechas de proteínas, reguladas por información genética y procesos dinámicos. Desde esta perspectiva:

Si los humanos somos máquinas biológicas y pensamos, entonces existen máquinas que piensan.

El debate no es trivial, ya que filósofos como John Searle sostienen que el pensamiento depende del sustrato biológico (proteínas), mientras que otros defienden que lo importante es la estructura funcional, no el material.

La hipótesis del sistema físico de símbolos

Uno de los pilares de la IA clásica es la hipótesis del sistema físico de símbolos, propuesta por Newell y Simon.

¿Qué plantea esta hipótesis?

Un sistema físico de símbolos:

  • Manipula símbolos estructurados
  • Aplica reglas formales
  • Es suficiente (y necesario) para exhibir inteligencia general

Un punto clave es su neutralidad respecto al sustrato:
la inteligencia no depende de si el sistema está hecho de silicio, proteínas o cualquier otro material, sino de su capacidad para procesar símbolos.

Esta hipótesis dio origen a lo que hoy se conoce como IA simbólica o GOFAI (Good Old-Fashioned AI).

Enfoques simbólicos vs. subsimbólicos

A lo largo de la historia de la Inteligencia Artificial, han emergido dos grandes corrientes que proponen formas distintas de modelar la inteligencia. Mientras algunos enfoques parten de reglas explícitas, lógica y representación del conocimiento, otros se apoyan en el aprendizaje a partir de datos, patrones y señales numéricas. Esta distinción no solo ha marcado décadas de investigación, sino que sigue influyendo en cómo se diseñan, interpretan y aplican los sistemas de IA en la actualidad.

Aproximaciones simbólicas (descendentes)

Estas aproximaciones:

  • Representan el conocimiento explícitamente
  • Utilizan lógica formal y reglas
  • Son la base de los sistemas expertos

Ejemplos clásicos incluyen:

  • Sistemas de diagnóstico médico
  • Sistemas de planificación
  • Motores de inferencia basados en reglas

El diseño suele ser top-down: desde el conocimiento hasta la implementación.

Aproximaciones subsimbólicas (ascendentes)

En contraste, las aproximaciones subsimbólicas:

  • No trabajan directamente con símbolos
  • Procesan señales y patrones
  • Se inspiran en procesos biológicos.

Aquí encontramos:

  • Redes neuronales
  • Vida artificial
  • Algoritmos evolutivos.

El diseño es bottom-up: desde componentes simples hacia comportamientos complejos emergentes.

Un comportamiento inteligente puede emerger sin un modelo centralizado explícito.

Sistemas expertos: el primer gran impacto práctico

Uno de los mayores logros tempranos de la IA fue el desarrollo de sistemas expertos, capaces de imitar el razonamiento de especialistas humanos en dominios específicos.

Ejemplos históricos relevantes

  • DENDRAL: análisis de estructuras químicas
  • MYCIN: diagnóstico médico
  • XCON: configuración de sistemas computacionales

Estos sistemas demostraron que el conocimiento del dominio es tan importante como los algoritmos, una lección clave para la ingeniería de sistemas hasta hoy.

Breve recorrido histórico de la IA

Hitos fundamentales

  • 1956: Conferencia de Dartmouth, se acuña el término Inteligencia Artificial
  • Años 60-70: énfasis en búsqueda, heurísticas y problemas “de juguete”
  • Años 80: auge de sistemas expertos y redes neuronales
  • 1997: Deep Blue vence a Kasparov
  • Siglo XXI: integración de datos masivos, aprendizaje automático y sistemas autónomos

Este recorrido muestra que la IA avanza por ciclos, combinando teoría, tecnología disponible y expectativas sociales.

IA, sistemas y complejidad

Desde la ingeniería de sistemas, la IA puede entenderse como:

  • Un sistema adaptativo
  • Con múltiples niveles de abstracción
  • Capaz de interactuar con su entorno
  • Donde el comportamiento emerge de la interacción entre componentes.

Esta visión conecta directamente la IA con:

  • Teoría de sistemas
  • Sistemas dinámicos
  • Comportamiento emergente.

Conclusión

La pregunta qué es la inteligencia artificial no tiene una única respuesta definitiva. La IA es, al mismo tiempo:

  • Ciencia y ingeniería
  • Símbolos y señales
  • Lógica y aprendizaje
  • Diseño y emergencia

Tal como sugiere Nilsson, el progreso en IA no depende de una sola aproximación, sino de la integración inteligente de paradigmas, algo profundamente alineado con la formación en ingeniería de sistemas.

Entender la IA desde sus fundamentos históricos y conceptuales no solo mejora nuestra comprensión técnica, sino que nos permite diseñar sistemas más robustos, éticos y adaptativos.

 

Fuente principal consultada

Nilsson, N. J.
Inteligencia Artificial: Una nueva síntesis
McGraw-Hill, Stanford University
(Edición en español)

×