Historia de la
inteligencia artificial
Génesis de la inteligencia
artificial ( 1943 – 1956 )
El primer trabajo de inteligencia artificial fue realizado por Mc
Culloch y Pitts en 1943. Para esto utilizaron las fuentes del conocimiento
sobre la fisiología básica y funcionamiento de las neuronas en el cerebro , el
análisis formal de la lógica proporcional y la teoría de la computación de
Turing . Propusieron un modelo
constituido por neuronas artificiales , cada una estaba encendida o apagada
. Mostraron que cualquier función
calculable podría calcularse mediante cierta red de neuronas interconectadas
y que los conectores lógicos se podían lograr utilizando estructuras de red.
Minsky y Edmonds , construyeron la primera computadora de red neural
en 1951 , se llamaba Snarc.
Newell y Simon contaban con un programa
de razonamiento , el teórico lógico , era un programa de computación capaz
de pensar de manera no numérica. El programa era capaz de demostrar gran parte
de los teoremas.
El taller de Dartmovnth , contribuyo a que todos los personajes
importantes se conocieran . Lo ultimo del
taller fue ponerle a este campo: inteligencia artificial.
Entusiasmo inicial ,
grandes esperanzas ( 1952- 1969)
Según el solucionador general
de problemas ( SGP) , este programa se diseño para que imitara protocolos
de resolución de problemas de los humanos. Fue el primer programa que incorporo el enfoque del pensar humano.
Gelernter en 1959 construyo el demostrador de teoremas de geometría
(DTG) .
En 1952 , Samuel escribió un programa
para el juego de damas , el programa aprendió a jugar mejor que su creador.
Mc Carthy definió el lenguaje
de alto nivel LISP . Ya tenia la herramienta que necesitaba pero aun existía el
problema de los escasos y costosos recursos de cómputo. Para resolverlo inventaron el tiempo compartido .
También en 1958 publico un articulo titulado “programas con sentido común” , en
el que descubrió el escucha consejos
(EC) , podrá considerarse como el
primer sistema de inteligencia artificial completo , fue designado para la
solución de problemas. Estaba diseñado para usar el conocimiento general del
mundo. El programa permitía aceptar nuevas acciones durante el curso normal de
operación , permitiendo ampliar la capacidad en áreas nuevas sin necesidad de
reprogramacion. El escucha consejos incorporaba los principios medulares de
representación y razonamiento.
Estaban los micromundos , eran problemas limitados cuya solución
requería de la inteligencia .
Una dosis de realidad ( 1966 – 1974 )
El obstáculo que enfrenta la mayoría de los proyectos de investigación
, consistió en que aquellos métodos que
demostraban funcionar en uno o dos ejemplos sencillos , fallaban en problemas
mas variados o de mayor dificultad.
El primer tipo de obstáculo , fue que los programas contaban con poco o ningún conocimiento de la materia u
objeto de estudio. Cuando se intentaba la traducción automatizada para
traducir , era necesario contar con un conocimiento general del tema respectivo
, lo que permite discernir lo correcto en casos de ambigüedad y así precisar el
contenido de una oración.
El segundo obstáculo fue el de la
intratabilidad de muchos de los problemas que se estaban intentando resolver
mediante inteligencia artificial. Que un programa sea capaz de encontrar
una solución no implica que tal programa encierre todos los mecanismos
necesarios para encontrar la solución en la practica.
El tercer obstáculo derivo de las limitaciones inherentes a las
estructuras básicas que se utilizaban en la generación de la conducta
inteligente.
Sistema basado en el
conocimiento ( ¿clave del poder? ).
La naturaleza de la resolución de problemas de la investigación en la
inteligencia artificial residía en un mecanismo de búsqueda de propósito
general en el que se entrelazaban pasos
del razonamiento elementales para encontrar soluciones complejas. Estos
métodos son llamados débiles , debido a que la información sobre el dominio con que cuentan es débil . Para
resolver un problema prácticamente es necesario saber de antemano la respuesta
respectiva .
Dendral fue el primer sistema de conocimiento intensivo que lograba
funcionar: sus conocimientos se basaban en importantes cantidades de reglas
para propósitos especiales. Se incorporó la separación del conocimiento (en
forma de regla) y la parte correspondiente al razonamiento.
La inteligencia artificial
se convierte en una industria ( 1980- 1988).
Casi todas las compañías importantes de EEUU contaban con su propio
grupo de inteligencia artificial , el
cual investigaba la tecnología de los sistemas expertos.
En 1981 los Japoneses anunciaron el proyecto de la “ quinta
generación” un plan de 10 años para construir computadoras inteligentes en la
que se corriera Prolog, de igual manera que las computadoras comunes corren
código de máquina.
Para contrarrestar el proyecto japonés se fundó la microelectronic and
computer tecnology corporation (MCC). Originaba el diseño de chips y la
investigación en el campo de las interfaces humanas.
Más de un centenar de compañías constituyeron sistemas de visión
robótica para uso industrial.
El regreso de las redes
neurales ( 1986 al presente )
Físicos utilizaron técnicas de la mecánica estadística para
analizar las propiedades de almacenamiento y optimización de las redes.
Psicólogos estudiaron los modelos de la memoria basados en redes neurales.
Cuatro grupos reinventaron el algoritmo de aprendizaje de retroprogramación. El
algoritmo se aplica a problemas relacionados con el aprendizaje en computación
y en psicología
Había pesimismo en la aplicación de la tecnología de los sistemas
expertos. Para construir un sistema experto satisfactorio, se necesitaba algo
más que un sistema de razonamiento que estuviera lleno de reglas.
Acontecimientos recientes (1987 al presente)
En años recientes, hubo un
cambio tanto en contenido como en metodología en las investigaciones de
inteligencia artificial. Actualmente es
común construir sobre teorías ya existentes que proponen teorías totalmente
novedosas, toman como base rigurosos
teoremas o sólidas evidencias experimentales más que la intuición, y
demostrar la utilidad de las aplicaciones en el mundo real, más que crear
ejemplos de juguetes.
En el campo de la comprensión del lenguaje, prevalecen los enfoques basados
en los modelos de Markov ocultos(MMO). Estos modelos se basan en una teoría
matemática, lo que les permitió basarse
en resultados dedicados décadas de resultados hechos en otros campos. Los
modelos fueron generados mediante un proceso de aprendizaje basados en datos
del lenguaje real. Esto garantizó un sólido desempeño.
El área que se
benefició con la formalización fue la planeación. Existe un número de avances
sobre los que se apoya el siguiente, en vez de empezar de cero cada vez. En
consecuencia en vez de planificación de
sistemas que sólo funcionaban para los micromundos, actualmente sirven para
la programación del trabajo fabril y de misiones especiales.
La invención del formalismo de red de creencia,
obedece a la necesidad de poder razonar ante una combinación de evidencias
inciertas. Este enfoque supera los sistemas de razonamiento probabilístico
(década 60 y 70) y actualmente prevalece en la investigación que se hace en
inteligencia artificial sobre razonamientos inciertos y sistemas expertos. Este
sirvió para promover sistemas expertos normativos, los que actúan racionalmente
de acuerdo con las leyes de la teoría de las decisiones, sin que intenten
imitar a los expertos humanos.