Como disciplina autónoma, la inteligencia artificial (IA) surgió en 1956 a partir del «Darmouth Summer Research Project on AI» organizado por J. McCarthy, que contó con la colaboración de M. Minsky, H. Simon y A. Newell.
Aunque existen varias definiciones de inteligencia artificial, la enorme diversificación que ha visto esta disciplina desde los años setenta hace difícil una definición precisa.
Marvin Minsky, uno de los primeros y más importantes investigadores en IA, define su disciplina como «la realización de sistemas informáticos con un comportamiento que en el ser humano calificamos como inteligente».
Winston la definió, en 1984, como «el estudio de las ideas que permiten a los ordenadores ser inteligentes», y Roger Penrose la concibe como «imitación por medio de máquinas, normalmente electrónicas, de tantas actividades mentales como sea posible, y quizá llegar a mejorar las capacidades humanas en estos aspectos».
No obstante, se ha objetado que sin una buena definición previa de inteligencia, cualquier definición precisa de inteligencia artificial está destinada al fracaso.
Otra objeción que se planteó en sus inicios se basaba en el hecho de que una máquina solamente muestra su inteligencia cuando ejecuta un programa, lo que más que decir nada en favor de la inteligencia de la máquina lo dice en favor de la inteligencia de su programador.
Pero la IA, aunque es una ciencia experimental, propone toda una serie de problemas filosóficos como el planteado en la pregunta: ¿Qué es o que debe entenderse por inteligencia, pensamiento, razonamiento, mente?, y los sitúa en un terreno nuevo, muy cercano al de las ciencias cognitivas y a los de la filosofía de la mente.
Por otra parte, sus resultados, cada vez más espectaculares, permiten un amplio debate acerca de las nociones de intencionalidad, inteligencia, sentimientos y, en general, de todos los conceptos involucrados en la noción de lo mental, a la vez que hace reflexionar sobre una nueva concepción de lo mecánico que ya no puede limitarse a las tesis del mecanicismo clásico.
Los primeros intentos de réplica de comportamientos inteligentes pueden hallarse en la construcción de autómatas mecánicos muy antiguos.
Sin embargo, los intentos de la formalización del razonamiento y la definición del conocimiento desde el campo de la epistemología y la lógica matemática son antecedentes más directos y cruciales para el posterior desarrollo de la inteligencia artificial.
Tal es el caso de las investigaciones de autores como: Llull, Leibniz, Descartes, Hume, Russell, Hilbert, Boole, Turing y otros.
La invención de los ordenadores en los años cincuenta del siglo XX, con la gran capacidad de cálculo y de tratamiento de símbolos de estas nuevas máquinas, condujo rápidamente a una reflexión sobre su límite computacional y lógico.
Pero, junto a las prestaciones de los ordenadores, en los orígenes de la IA, están la cibernética, los sistemas de autorregulación de Norbert Wiener, la teoría computacional de von Neumann, la teoría de la información de Shannon y Weaver, la neurobiología y las ciencias cognitivas.
Alan Turing fue uno de los primeros en formular explícitamente un programa de estudio que llevaría a la inteligencia artificial como disciplina a finales de los años cincuenta.
Turing ideó un «test» (el célebre test de Turing) para verificar la eventual inteligencia de una máquina.
Básicamente, se trata de verificar si un observador es capaz de distinguir una máquina de una persona, pudiendo tan solo comunicarse a través de un teclado y una pantalla.
Si la máquina consigue despistar al observador, Turing argumenta que la podemos considerar como inteligente, aunque él mismo —ferviente defensor de la posibilidad de la IA—, señala que esta máquina todavía estaría alejada del ser humano y carecería de intencionalidad.
Superar ese test a corto plazo era impensable.
Inicialmente se trató de comenzar a crear programas de ordenador capaces de simular aspectos muy reducidos de la inteligencia, con la esperanza de generalizar, a partir de estos programas de bajo nivel, sistemas cada vez más inteligentes.
Así, en los años cincuenta, Herbert Simon y Allan Newell idearon los primeros programas capaces de demostrar ciertos teoremas de lógica propuestos por Whitehead y Russell en Principia Mathematica.
Es decir, programas capaces de deducir, a partir de axiomas básicos y gracias a las reglas de transformación y búsqueda programadas, teoremas complejos no definidos en el programa.
Los supuestos teóricos de estos autores pertenecen a la tradición racionalista de la mathesis: consideran que la inteligencia está basada en la manipulación de representaciones que pueden descomponerse en elementos básicos primitivos o simples ligados por reglas sintácticas.
Posteriormente, durante los años sesenta, empiezan a aparecer las primeras aplicaciones de robótica y tratamiento del lenguaje y de imágenes.
Pronto las posibilidades prácticas y económicas de la inteligencia artificial se hicieron evidentes por su capacidad de tratar problemas de organización y control en situaciones críticas, por la masa de datos a manipular o la velocidad necesaria del proceso.
Por ello, uno de los grandes impulsores de la inteligencia artificial en los años setenta ha sido el complejo militar-industrial, al comprender sus posibilidades para la guerra espacial y el control del armamento nuclear.
También la robótica se beneficia de los descubrimientos de la inteligencia artificial y propulsa su estudio a partir de los años ochenta.
Operaciones como la compraventa de acciones en bolsa, la asignación de créditos, o la diagnosis y el tratamiento a través de imágenes médicas, son ámbitos en los que las aplicaciones de la IA son comunes, y actualmente las técnicas de programación desarrolladas por la inteligencia artificial forman parte de las herramientas de trabajo de las que dispone el ingeniero informático.
A medida que la inteligencia artificial ha ido evolucionando, sus diferentes técnicas se han ido diversificando y han constituido sub sub disciplinas disciplinas más o menos independientes y a menudo en controversia.
En particular, existe una profunda división entre las llamadas tendencias simbólicas derivadas de la comprensión de la inteligencia como proceso de deducción lógico (caso de Newell y Simon), y las tendencias sub-simbólicas o numéricas, de concepción probabilista.
La inteligencia artificial simbólica trata de crear sistemas cada vez más perfeccionados y complejos de organización y tratamiento de información fuertemente estructurada. Los sistemas expertos, las redes semánticas y el llamado aprendizaje por máquina (machine learning) son disciplinas características de esta tendencia.
La tendencia sub-simbólica utiliza, en cambio, datos de un nivel de abstracción y representatividad mucho menor.
Este enfoque permite el tratamiento de datos no estructurados, como pueden ser las imágenes o sonidos, pero se ve limitado en su interpretación por la falta de una semántica apropiada de sus operadores.
Las disciplinas más características de esta tendencia son las redes neuronales artificiales, la lógica difusa o los modelos gráficos.
Existen también numerosas disciplinas que han optado por una utilización mixta de ambas tendencias: desde la perspectiva sub-simbólica para un tratamiento de datos de nivel numérico o perceptivo, y desde el modelo simbólico para la estructuración de conocimientos, creación de planes y toma de decisiones.
Los sistemas de visión por ordenador y los sistemas de reconocimiento del lenguaje natural son dos de los ejemplos más importantes de este enfoque dual.
La IA se ha ido desarrollando paralelamente a las ciencias cognitivas y a la filosofía de la mente.
En este ámbito, Jerry Fodor ha sustentado una teoría computacional del espíritu conocida como teoría representacional y teoría modular de la mente, que se enmarca en las tendencias simbólicas.
Esta estructura modular está estructurada en tres niveles: a) un nivel de entradas de los estímulos del mundo externo; b) sistemas de entradas modulares que generan símbolos, y c) un sistema de procesamiento central que es la sede de los procesos cognitivos.
Cada uno de estos niveles modulares puede ser modificado sin necesidad de modificar el conjunto, lo que, en el caso de los organismos vivos, es favorecido por los procesos evolutivos.
Fodor sustenta que los estados mentales son de naturaleza computacional, y afirma que la mente es independiente del soporte (hardware), siendo más bien semejante al software.
El filósofo H. Dreyfus ha cuestionado las bases de las tesis de la IA, en especial la que sustenta el modelo simbólico, ya que, según él, se fundamenta sobre cuatro postulados discutibles, que son:
1) Postulado biológico: el cerebro, como los ordenadores, actúa mediante operaciones discretas;
2) Postulado psicológico: la mente, como los ordenadores, es un sistema que opera mediante reglas formales;
3) Postulado epistemológico: todo saber puede ser formalizado o explicitado formalmente;
4) Postulado ontológico: toda información puede ser analizada independientemente de su contexto, ya que todo cuanto existe es un conjunto de hechos lógicamente independiente de los otros.
En contraposición a la orientación simbólica, de tipo atomista, los defensores de los modelos conexionistas, en especial los que se basan en las redes neuronales (o neurales), como W. Pitts y W. McCulloch, sustentan tesis más holistas: una red neuronal no está programada como un ordenador, sino que debe ser educada mediante procesos de aprendizaje basados en la asociación de estímulos.
Seguidores de modelos neoconexionistas son, por ejemplo, M. Minsky y S. Papert.
Contra las tesis conexionistas, Fodor replica afirmando que dichos modelos no explican las características básicas de los procesos cognitivos, y son inadecuados para una teorización de los procesos de la inteligencia.
Searle distingue entre los defensores de la IA débil (que se contentan con afirmar la utilidad de los modelos computacionales para el estudio de la inteligencia) y los defensores de la IA fuerte que sustentan que un ordenador, con un programa adecuado posee propiamente estados cognitivos.
En contra de los defensores de esta última tesis propuso su conocido experimento mental de la habitación china en el que señala que un ordenador se limita a manipular símbolos a partir de unas instrucciones.
Este funcionamiento, meramente sintáctico, no permite afirmar que el ordenador sea capaz de comprender sus actos.
No obstante, se han alzado varias críticas a este argumento.
Una de ellas consiste en señalar que el ejemplo propuesto por Searle es defectuoso, ya que un individuo solo, manipulando símbolos que no entiende, no puede compararse a los millones de operaciones por segundo que efectúa un ordenador.
A esto Searle respondió que, si en lugar de un individuo aislado en una habitación se propusiese como ejemplo millones de individuos, su argumento seguiría siendo válido, ya que ninguno de estos individuos entendería realmente las operaciones con símbolos según reglas.
Como contrarréplica se ha señalado que estos miles o millones de individuos —cada uno de los cuales no entiende las operaciones que realiza— se asemejan más a los millones de neuronas de un cerebro que al cerebro mismo.
Por esta razón, los defensores de la IA fuerte, como Jack Copeland, sustentan que lo que cuenta es propiamente el algoritmo, y que es indiferente si dicho algoritmo es ejecutado por un cerebro, un ordenador, un sistema de tuberías o por millones de individuos.
Lo único realmente significativo es la estructura lógica del algoritmo.
Como respuesta a esta contrarréplica Searle ha señalado que la IA fuerte representa una nueva forma de dualismo, en el que, en lugar de una res cogitans, se pone la estructura lógica de un algoritmo, cuyo estatus ontológico se asemejaría al de las ideas platónicas.
Ante ello Searle propone una teoría emergentista: los fenómenos mentales son una manifestación del cerebro, pero ni se confunden con él, ni tienen una existencia autónoma, sino que son propiedades emergentes.
No obstante, y además de los éxitos en los sistemas expertos y otros ámbitos, en la medida en que la inteligencia artificial ha permitido una nueva forma de interrogarse sobre la mente, adquiere una especial relevancia filosófica.