Site hosted by Angelfire.com: Build your free website today!
                                  

PROFESOR JUAN LUIS OROZCO MONTALVO

ALUMNA LORENA ORENDAIN AVELAR


TEMARIO
1 INTRODUCCION A LA INTELIGENCIA ARTIFICIAL
2 LOGICA Y RESOLUCION DE PROBLEMAS
3 METODOS DE BUSQUEDA
4 REPRESENTACION DEL CONOCIMIENTO
5 APRENDIZAJE AUTOMATICO
6 SISTEMAS EXPERTOS



INTRODUCCION A LA INTELIGENCIA ARTIFICIAL


INTELIGENCIA ARTIFICIAL

En ocaciones se dice que no pueden existir computadoras robots o computadoras capaces de razonar como las personas tal como nos la presentan en las peliculas de ciencia ficcion.
Las investigaciones de muchos cientificos actuales van por este camino
Linguisticas, psicologos, estadisticas, ingenieros y fundamentalmente expertos en ingenieria del software que estan empeñados en alumbrar una nueva era en la ciencia de la computacion e informatica fundamentada en lo que se denomina Inteligencia Artificial
Realmente no podemos decir de forma contundente que una computadora como maquina que pueda razonar de la misma forma que un ser humano pero si puede ser programada para que lo emite, dotandola de una gran cantidad de la informacion y de capacidad para ser un buen uso de la misma.

          
CONCEPTO DE IA

La inteligencia artificial  puede definirse de la sig manera:
Rama de la informatica cuyo objetivo es proporcionar computadoras con sus elementos hatware y software que permita conseguir la simulacion de la inteligencia humana.

En definitiva el objetivo que se pretende cubrir en la investigacion en el campo de la inteligencia artificial no es el modo alguno, la sustitucion del hombre por la maquina.



  GENERACIONES DE LAS COMPUTADORAS

Primera generación de computadoras.
(1946 a 1959)
 
La UNIVAC 1.
La primera generación de computadoras se caracterizó por el rasgo más prominente de la ENIAC; los tubos al vacío. Durante 1950 se construyeron varias computadoras notables, cada una contribuía con avances significativos, como aritmética binaria, acceso aleatorio y el concepto de programas almacenados. Estos conceptos de computación, comunes en las computadoras de hoy, se analizan posteriormente en el libro.
 
Dicen que la historia se repite, y así fue con la instalación de la primera computadora comercial en la Oficina de Censos Estadounidense en 1951. Esta computadora, llamada UNIVAC 1 (Universal Automatic Computer), la construyeron Mauchly y Eckert para la Remington-Rand Corporation. Esto hizo que la Sperry UNIVAC División, que después se convertiría en la Sperry Corporation, se colocara por encima de la competencia. El gobierno federal aprovechó muy bien el dinero invertido en la UNIVAC 1: la oficina e Censos la utilizó durante 12 años.
Hoy en día, damos por sentado que la computadoras pueden emplearse para predecir a los ganadores en las elecciones nacionales. A menudo se hacen predicciones acerca de los resultados de las elecciones antes de que cierren las urnas en los estados de la Unión Americana de la costa occidental. A finales de 1951, el noticiero de la CBS creyó en la UNIVAC 1 cuando ésta predijo con mucho tino la victoria de Dwight Eisenhower sobre Adlai Stevenson en la elección presidencial, con sólo el 5% de los votos contados. Hoy, los sistemas de información complejos son herramientas primordiales para la compleja cobertura de las elecciones transmitidas por televisión.
Para 1951, muchos fabricantes, sobre todo de industrias electrónicas y de tarjetas perforada comenzaban a entrar al mercado comercial de las computadoras. Dentro de este grupo se encontraban Buroughs, Honeywell, International Bussiness Machines (IBM) y Radio Corporation of America (RCA).
 
IBM entra al mercado de la computación. La primera computadora electromecánica, llamada Mark 1, fue le resultado de investigaciones patrocinadas por IBM: Un profesor de la Universidad de Harward. Harward Aiken, terminó la Mark 1 en 1944. Esta computadora era en esencia una colección, serial de calculadoras electrónicas y tenía muchas semejanzas con la máquina analítica de Babbage. Tres años después de terminar la Mark 1, Aiken se enteró del trabajo de Babbage y expresó: "Si Babbage hubiera vivido 75 años más tarde, me hubiera quedado sin empleo".
La Mark 1 significó un adelanto importante en la tecnología de las computadoras; varios años después, la ENIAC fue ofrecida a IBM, pero esta compañía todavía creía que las computadoras no sustituirían al equipo de las tarjetas perforadas. Para entonces, la IBM tenía el monopolio de los equipos de procesamiento de datos a base de tarjetas perforadas y estaba teniendo un gran auge en productos como rebanadoras de carne, básculas para comestibles, relojes y otros artículos. No fue sino hasta el éxito que tuvo la UNIVAC 1 que IBM se decidió y se comprometió a fabricar y comercial computadoras.
La primera entrada de la IBM al mercado comercial de las computadoras fue con la IBM 701en 1953. La introducción de la IBM 701 fue en verdad detonante. Durante una demostración de prensa acaparó la atención de todos los presentes. Después de un lento, pero excitante comienzo, la IBM 701se convirtió en un producto comercial viable. Sin embargo, la IBM 650, introducida en 1954, es quizá la razón por la que IBM disfruta hoy de una gran parte del mercado de las computadoras. A diferencias de algunos de sus competidores, la IBM 650 se diseñó como una perfección lógica de las máquinas de tarjetas perforada existentes. La administración de la IBM asumió un gran riesgo y estimó una venta de 50 computadoras. Este número era mayor que la cantidad de computadoras instaladas en esa época en Estados Unidos. De hecho, la IBM instaló 1000 computadoras. El resto es historia.
 
La Industria de las computadoras llega a la mayoría de edad. A finales de los cincuentas, algunos fabricantes, incluyendo Control Data Corporation (CDC), General Electric (GE), y National Cash Register (NCR), habían decidido comprometer sus recursos en las computadoras y probar suerte.

 
CEREBRO GIGANTE PRECIDE QUE IKE SERA EL GANADOR EN LAS ELECCIONES DE 1952
Antes de las elecciones
En la noche de las elecciones, las redes de radio y televisión esperan que termine el suspenso, tan pronto como sea posible. Para detectar al instante cualquier tendencia significativa en las votaciones, la CBS ha decidido usar a Univac, una computadora automática totalmente electrónica, conocida como el "cerebro gigante". Debido a que es demasiado grande (12 toneladas) para trasladarse a Maniatan, la CBS enfocará una cámara de televisión en la máquina en las oficinas de Remington Rand en Filadelfia.
 
Esta semana, y por lo que queda del mes, un cuerpo de investigadores estará alimentando al gran cerebro con los resultados de las elecciones en todo el país de los años 1944 y 1948. Con todo este material digerido y memorizado, la máquina será capaz de responder en la noche de la elección hora tras hora con un análisis comparativo de la población total y los votos electorales para cada candidato.
 
La NBC tiene su propio cerebro electrónico pequeño, llamado Monrobot, que también recurrirá al pasado y ayudará a predecir el resultado de las actuales elecciones, lo más temprano posible. El director de noticias de la ABC, John Madigan, dice, profesando un profundo desdeño a tales artimañas electrónicas: "Informaremos nuestros resultados por medio de Elmer Davis, John Daly, Walter Winchell, Drew Pearson y Otros 20 cerebros humanos".
 
Después de las elecciones.
 
El New York Times informó sobre "el primer uso de los embaucadores cerebros electrónicos, en la noche de las elecciones, que pueden resolver millones de billones de problemas matemáticos a la vez. Ambos artefactos fueron más un fastidio que una ayuda".
 
"El orgullo de la CBS, llamado 'UNIVAC', se rehusó trabajar en el momento crítico con todo lo que a eficiencia humana se refiere. El percance causó que las estrellas de la CBS, Walter Cronkite, Ed Murrow y Eric Sevaried se olvidaran de 'UNIVAC' por el resto de la noche y le dedicaran espacio en un apartado más ameno de noticias secundarias en la cobertura de la CBS."
 
Fue un rudo comienzo, pero hoy en día, las computadoras forman parte de la noche de las elecciones tanto como la retórica política y el ondeo de banderas.
 
Segunda Generación De Computadoras
(1959-1964)
 
Para la mayoría de las personas, el invento del transistor significó radios portátiles. Para aquellos inmersos en el negocio del procesamiento de datos, señaló el comienzo de la segunda generación de computadoras.
El transistor representó la construcción de computadoras más poderosas, más confiables y menos costosas que ocuparían menos espacio y producirían menos calor que las computadoras que operaban basándose en tubos al vació.
 
Sin embargo, se tomaría en cuenta el factor costo. El costo de una computadora durante la primera, la segunda, y parte de la tercera generación representaba una porción significativa del presupuesto de una compañía. Las computadoras eran costosas. La expresión costo por instrucción ejecutada puede usarse para comparar el precio de las computadoras durante las últimas tres décadas. Algunas innovaciones importantes estimuladas por la dura competencia, han suscitado enormes mejoras en las ejecuciones de la computadora y reducciones considerables en precio. Esta tendencia, que llegó con la introducción de la computadoras de la segunda generación, sigue hasta nuestros días. Si la industria automovilística hubiera experimentado la mejorías en precio y ejecución de la industria de la computación, todos tendríamos un Rolls-Royce como un segundo automóvil.
 
El diseño de unidades de almacenamiento en núcleos facilitó la incorporación de unidades adicionales de almacenamiento y permitió el desarrollo
 
de un diseño "modular" de la memoria. Éste concepto de la modularidad se aplicó también a los dispositivos periféricos (los que no forman parte de la CPU).
 
Esta computadoras podían realizar más de una función al mismo tiempo (simultaneidad).
El desarrollo de lo lenguajes de ensamblador facilitó los problemas de la programación al inicio de está generación. Los ensambladores son los programas que permiten al programador utilizar números (signos alfabéticos casi siempre) para representar los códigos de maquinas. El programa de ensamblador lee éstos códigos electrónicos y los traduce a códigos de números de máquinas.
Los lenguajes de compilador fueron las principales innovaciones de la segunda generación. Los compiladores son programas que traducen un programa escrito en lenguaje simbólico (fuente) a un programa entendible por la máquina (objeto). Los dos principales lenguajes de compiladores desarrollados fueron el FORTRAN para resolver problemas científicos y el COBOL para resolver aplicaciones de negocios.
 
Para los sistemas mayores de computadora, los fabricantes ofrecían programas de sistemas operacionales o de superación, que le permitían a la computadora controlar su propio flujo de trabajo. Estos sistemas ponían en la cola los trabajos que llegaban para su procesamiento, ya sea en el orden de llegada o alguna prioridad simple.
Las características predominantes de la segunda generación fueron:
 
1. El Transistor.
2. Compatibilidad Limitada: los programas escritos para una computadora generalmente requerían modificaciones antes de que se pudieran ejecutar en otra computadora.
3. Orientación al procesamiento secuencial en cinta.
4. Lenguajes simbólicos de programación de bajo nivel.
 
Tercera Generación De Computadoras.
(1964-1971)
 
Características:
Lo que consideran algunos historiadores de la computadora como el suceso más importante en la historia de la computación, ocurrió cuando la IBM anunció su línea de computadoras Sistemas 360, el 7 de abril de 1964. El sistema 360 se metió de lleno en la Tercera Generación de las computadoras. Los circuitos integrados hicieron por la tercera generación lo que los transistores por la segunda. La línea del sistema 360 y la tercera generación de computadoras de Honeywell, NCR, CDC, UNIVAC, Burroughs, GE, y otros fabricantes hicieron obsoletas todas las computadoras instaladas con anterioridad.
 
Los problemas de compatibilidad de las computadoras de la segunda generación casi se eliminaron en las de la tercera. No obstante, las computadoras de la tercera generación diferían radicalmente de las de segunda generación.
  
 El cambio fue revolucionario, no evolutivo, y provocó pesadillas de conversión a miles de usuarios. Con el tiempo, la conversión de los sistemas de información de una a otra generación de Hardware se consideró que era el precio del progreso.
A mediados de los sesentas, se volvió obvio el hecho de que cualquier instalación de computadora podía experimentar un desarrollo rápido. Una característica importante de la tercera generación de computadoras es la compatibilidad con equipo mayor, que significa que una compañía podía adquirir una computadora con un distribuidor particular y luego cambiar a una computadora más poderosa, sin necesidad de volver a diseñar o programar los sistemas de información existentes.
Las computadoras de la Tercera Generación trabajan a tal velocidad que proporcionan la capacidad de correr más de un programa de manera simultánea (multiprogramación). Por ejemplo, en cualquier momento dado, la computadora podría estar imprimiendo cheques de nómina, aceptando órdenes y probando programas. Aunque las computadoras de tercera generación continuaron proporcionando capacidades de procesamiento de cinta, los sistemas de computación se desarrollaron para estimular el uso del procesamiento aleatorio y de los discos magnéticos rotatorios.
La minicomputadora. La demanda de computadoras pequeñas en los negocios y para aplicaciones científicas eran tan grande que muchas compañías fabricaron sólo computadoras pequeñas. A éstas se les llamó Minicomputadoras. Las compañías que se encontraban a la cabeza de las ventas y fabricación de "minis" era Digital Equipment Corporation (DEC) y Data General Corporation
 
 
Cuarta Generación De Computadoras
 
La mayoría de los distribuidores consideran que sus computadoras pertenecen a la Cuarta Generación, y hay algunos que llaman a las suyas "de quinta generación". Las primeras tres generaciones se caracterizaron por los importantes avances tecnológicos en la electrónica: primero el uso de tubo al vació, luego los transistores y después los circuitos integrados. Hay quienes prefieren fijar el comienzo de la cuarta generación en 1971, con la aparición de la integración a gran escala (más circuitos por unidad de espacio), de circuitos electrónicos. Sin embargo, otros diseñadores de computadoras afirman que de aceptar esa premisa, quizá hubiera habido una quinta, sexta y hasta séptima generación desde 1971.
 
La tecnología base de las computadoras de hoy es todavía el circuito integrado. Esto no requiere decir que han pasado dos décadas sin innovaciones significativas. En realidad, la industria de la computación ha experimentado una sorprendente sucesión de avances en al miniaturización cada vez más marcada de los circuitos, en la comunicación de datos, en el diseño del hardware software, y en dispositivos de entrada / salida.
 
El microprocesador. Una de las contribuciones más importantes al surgimiento de la cuarta generación de computadoras es el microprocesador que pude estar contenido en una pastilla de silicio o chip y que es el producto de la microminiaturización de los circuitos electrónicos. El primer procesador totalmente operacional, al que se llama a veces "computadora dentro de un circuitos", se inventó en 1971. hoy, más microprocesadores que gente sobre la Tierra. Este dispositivo cuesta menos que un refresco y puede encontrársele en cualquiera parte, desde ascensores hasta satélites.
 
Microprocesador
 
 La microcomputadora. El microprocesador es el componente encargado del procesamiento en la pequeña, relativamente económica, pero poderosa microcomputadora ha hecho posible que negocios chicos y personas posean una computadora.
 
Computadora sin generación. Podemos tener definida nuestra última generación de computadoras y empezar la era de las computadoras sin generación. No obstante que los fabricantes de computadoras habían de una quinta y sexta generación, esta idea es más un truco comercial que una reflexión de la realidad. Los que abogan por el concepto de computadoras sin generación, opinan que a pesar de que las innovaciones tecnológicas se están dando en una rápida sucesión, ninguna es, si será, tan significativa para caracterizar otra generación de computadoras.
Alguien que esté expuesto en la actualidad a los sistemas de cómputo y al procesamiento de información por vez primera, podría mirar atrás a la breve, pero interesante historia de las computadoras y desearía haber estado en el primer escalón. Sin embargo, en la historia de las computado<ras, hoy es el primer escalón.
 
 
Quinta Generación de Computadoras.
 
En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados.
 
Japón lanzó en 1983 el llamado programa de la quinta generación de computadoras, con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera:
· Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de gran velocidad.
· Manejo de lenguaje natural y sistemas de inteligencia artificial.
El futuro previsible de la computación es muy interesante, y se puede esperar que esta ciencia siga siendo objeto de atención prioritaria de gobiernos y de la sociedad en conjunto.
 
MODELO DE VON NEUMANN.
Las computadoras digitales actuales se ajustan al modelo propuesto por el matemático John Von Neumann. De acuerdo con el, una característica importante de este modelo es que tanto los datos como los programas, se almacenan en la memoria antes de ser utilizados.


Fundamentos de la inteligencia artificial

La Iinteligencia Artificial se fundamenta en la utilizacion de una computadora de caracteristicas especiales en cuanto a potencia de calculo, velocidad de proceso y capacidad de almacenamiento, que puede soportar un softwer compuesto por uno o varios Programas denominados motor de diferencias que permitan sobre una gran masa de datos que recibe el nombre de BASE DE CONOCIMIENTOS generalmete compuesta por un conjunto de hechos teorias y reglas fundamentadas en la experiencia que se posee relativa a un problema determinado.
Un programa de inferencias es un componente de motor de inferencias que constituye un metodo para utilizar la base de conocimientos con el fin de razonar sobre la resolucion de un problema se toma una serie de datos de entrada y se realiza con ellos una serie de busquedas y comparaciones con los datos e informaciones que componen la base de conocimientos hasta que se encuentra una solucion al problema.
el proceso  generalmente consiste en tomar un dato que busca en la base de conocimientos y una vez encontrado, se obtiene informacion acerca de el provocando la busqueda del siguiente se repite este proceso hasta llegar a una posible solucion del problema.
 
Este  encadenamiento de busquedas sucesivas de datos es controlado por el programa que sigue un determinado razonamiento logico.




         APLICACIONES DE LA INTELIGENCIA ARTIFICIAL
La inteligencia artificial se aplica en numerosos tipos de problemas que se salen de la resolucion  algoritmica clasica los principales campos de aplicacion en los que se mueve este tipo de software son:


                                                    SISTEMAS EXPERTOS
            INTELIGENCIA;                                UTILIZACION DEL LENGUAJE NATURAL
            ARTIFICIAL                                  RECONOCIMIENTO DE LA VOZ
                                                    RECONOCIMIENTO DE FORMAS
                                                    ROBOTICA

SISTEMAS EXPERTOS
Un sistema experto o un sistema de conocimiento basado en reglas de inferencias es un conjunto de programas que pueda acceder a una gran masa de informaciones donde se reune las experiencias y conocimietos de uno o maas expertos en un determinado campo de la ciencia o de la tecnica para la resolicion de problemas.

UTILIZACION DEL LENGUAJE NATURAL
Las aplicaciones utilizan el lenguaje natural (natural language processing-NLP)Realizan procesos que reciben los datos de entrada en lenguaje natural entendiendo como tal un lenguaje escrito o hablado en un determinado idioma y acontinuacion los procesan, produciendose la salida tambienen lenguaje natural.
Un programa de reconocimiento de lenguaje natural consta de una base de conocimientos que contienen un diccionario completo de palabras del idioma del donde el objetivo del programa es el reconocimiento de las mismas para provocar las reacciones correspondientes a cada reconocimiento.

RECONOCIMIENTO DE LA VOZ
Las aplicaciones del reconocimiento de la voz tiene como objetivo la captura, por parte de una computadora de la voz humana bien para el tratamiento de lenguage natural para cualquier tipo de funcion
En primer lugar, la voz se calcula electronicamente con un microfono que genera una señal analogica, para a continuacion convertirla en una señal digital que pueda alimentar a un programa inteligente capaz de interpretarla con exactutud. en este caso la base de conocimiento contiene los patrones para que los programas puedan realizar las comparaciones y se produzca el reconocimiento.




VOZ

RECONOCIMIENTO DE FORMAS
Las aplicaciones de reconocimiento de formas trata de imitar la vision humana a traves de la captacion de una imagen por medio de una camara de video. Esta imagen produce una señal analogica que posteriormente se digitaliza yacontinuacion se procesa por medio de un programa inteligente que realiza las correspondientes comparaciones con los patrones obtenidos en la base de conocimientos hasta conseguir el reconocimiento.


FORMA

                                                                 ROBOTICA
Los robots son dispositivos compuestos de censores que reciben datos de entrada y que pueden estar conectados a la computadora. Esta, al recibir la información de entrada, ordena al robot que efectúe una determinada acción. Puede ser que los propios robots dispongan de microprocesadores que reciben el input de los sensores y que estos microprocesadores ordenen al robot la ejecución de las acciones para las cuales está concebido. En este último caso, el propio robot es a su vez una computadora.


                                                           Tipos de robots

  Robots impulsados neumaticamente: La programación consiste en la conexión de tubos de plástico a unos manguitos de unión de la unidad de control neumático. Esta unidad está formada por dos partes: una superior y una inferior. La parte inferior es un secuenciador que proporciona presión y vacío al conjunto de manguitos de unión en una secuencia controlada por el tiempo. La parte superior es el conjunto de manguitos de unión que activan cada una de las piezas móviles del robot. Son los más simples que existen. Hay quien opina que a este tipo de máquinas no se les debería llamar robots; sin embargo, en ellas se encuentran todos los elementos básicos de un robot: estas máquinas son programables, automáticas y pueden realizar gran variedad de movimientos.
Futuro de la robótica
 
A pesar de que existen muchos robots que efectúan trabajos industriales, aquellos son incapaces de desarrollar la mayoría de
 operaciones que la industria requiere. Al no disponer de unas capacidades sensoriales bien desarrolladas, el robot es incapaz de realizar tareas que dependen del resultado de otra anterior.
 En un futuro próximo, la robótica puede experimentar un avance espectacular con las cámaras de televisión, más pequeñas y menos caras, y con las computadoras potentes y más asequibles.
 Los sensores se diseñarán de modo que puedan medir el espacio tridimensional que rodea al robot, así como reconocer y medir la posición y la orientación de los objetos y sus relaciones con el espacio. Se dispondrá de un sistema de proceso sensorial capaz de analizar e interpretar los datos generados por los sensores, así como de compararlos con un modelo para detectar los errores que se puedan producir. Finalmente, habrá un sistema de control que podrá aceptar comandos de alto nivel y convertirlos en órdenes, que serán ejecutadas por el robot para realizar tareas enormemente sofisticadas.


                                                            Redes Neuronales.

  Las Redes Neuronales surgieron del movimiento conexionista, que nació junto con la Inteligencia Artificial simbólica o tradicional. Esto fue hacia los años 50, con algunos de los primeros ordenadores de la época y las posibilidades que ofrecían.

La Inteligencia Artificial simbólica se basa en que todo conocimiento se puede representar mediante combinaciones de símbolos, derivadas de otras combinaciones que representan verdades incuestionables o axiomas.

Así pues, la Inteligencia Artificial tradicional asume que el conocimiento es independiente de la estructura que maneje los símbolos, siempre y cuando la 'máquina' realice algunas operaciones básicas entre ellos. En contraposición, los 'conexionistas' intentan representar el conocimiento desde el estrato más básico de la inteligencia:
ESTRATO FISICO. Creen que el secreto para el aprendizaje y el conocimiento se halla directamente relacionado con la estructura del cerebro: concretamente con las neuronas y la interconexión entre ellas. Trabajan con grupos de neuronas artificiales, llamadas Redes Neuronales.

La estructura básica de una neurona natural es:


9

Éstas funcionan como sigue:

Cada neurona puede tener infinitas entradas llamadas Dendritas que condicionan el estado de su única salida, el Axón. Este Axón puede ir conectado a una Dendrita de otra neurona mediante la Sinapsis correspondiente, de la siguiente manera:

NEURONA



El Axón da un nivel eléctrico correspondiente a sus entradas y a la importancia que les da a cada una de ellas. De esta forma, una neurona puede no reaccionar ante un nivel muy alto de una de sus entradas, o dar una salida muy favorable cuando otra de ellas está mínimamente activa.

En las primeras etapas de nuestra vida, cuando realizamos el aprendizaje de nuestros cerebros, entrenamos nuestras neuronas mediante el éxito o fracaso de una acción a unos estímulos sensoriales.

Cuando cierta acción realizada en respuesta a alguna entrada sensorial es exitosa (por ejemplo, al beber agua calmamos la sed), las conexiones sinápticas entre un grupo de neuronas se fortalecen, de manera que cuando tengamos una sensación sensorial parecida, la salida será la correcta. De esta forma se forman fuertes conexiones entre grupos de neuronas, que pueden servir para realizar otras acciones complejas.

El esquema de una neurona artificial es:



Esta neurona funciona de la siguiente manera:

cada entrada x tiene su peso asociado w, que le dará más o menos importancia en la activación de la neurona. Internamente se calcula la suma de cada entrada multiplicada por su peso:


Con este valor de suma ponderada se calcula una función de activación, que será la salida que dará la neurona. Las dos funciones de activación más usada son el Escalón y la Sigmoidea:




Principalmente se diferencian en que la Sigmoidea (llamada así por su forma de S) es diferenciable en todos sus puntos y la Escalón no.
El Perceptrón unicapa.
Un Perceptrón unicapa no es más que un conjunto de neuronas no unidas entre sí, de manera que cada una de las entradas del sistema se conectan a cada neurona, produciendo cada una de ellas su salida individual:



Como se ha dicho, un conjunto de neuronas no sirve para nada si previamente no se le enseña qué debe hacer.

Existen tres métodos de aprendizaje para un Perceptrón: Supervisado, Por Refuerzo y No Supervisado.


Principalmente se diferencian en que la Sigmoidea (llamada así por su forma de S) es diferenciable en todos sus puntos y la Escalón no.

                                            El Perceptrón unicapa.

Un Perceptrón unicapa no es más que un conjunto de neuronas no unidas entre sí, de manera que cada una de las entradas del sistema se conectan a cada neurona, produciendo cada una de ellas su salida individual:

Como se ha dicho, un conjunto de neuronas no sirve para nada si previamente no se le enseña qué debe hacer.

Existen tres métodos de aprendizaje para un Perceptrón: Supervisado, Por Refuerzo y No Supervisado.

                                           El Perceptrón multicapa

Nacio con la intension de dar solucion a las limitaciones del perseptrón clasico o unicapa y supuso el resurgimiento del movimiento conexionista. Se trate de unos cuantos (2 o 3 ) perseptrones unicapa conectados en cascada.

Un ejemplo prectico de un perceptrón multicapa podria ser su uso en vision artificial. Dada su capacidad para generalizar las redes neuronales ya han demostrado su importancia en este campo.

Se puede saber que la red aprenda 2 o 3 formas basicas y quedada otra que no ha aprendido, la clasifique  como la mas cercana a las que conoce y ademas de un porcentaje de lo segura que estaque esa nueva forma se paresca a una que ha aprendido.

                                                Sistemas Expertos
 
¿Qué es un sistemas experto?
 Los sistemas expertos forman parte de un firme y verdadero avance en inteligencia artificial. Los sistemas expertos pueden incorporar miles de reglas. Para una persona seria una experiencia casi "traumática" el realizar una búsqueda de reglas posibles al completado de un problema y concordar estas con las posibles consecuencias, mientras que se sigue en un papel los trazos de un árbol de búsqueda. Los sistemas expertos realizan amablemente esta tarea; mientras que la persona responde a las preguntas formuladas por el sistema experto, este busca recorriendo las ramas más interesantes del árbol, hasta dar con la respuesta a fín al problema, o en su falta, la más parecida a esta. Los sistemas expertos tienen la ventaja frente a otro tipos de programas de Inteligencia Artificial, de proporcionar gran flexibilidad a la hora de incorporar nuevos conocimientos. Para ello solo tenemos que introducir la nueva regla que deseemos hacer constar y a está, sin necesidad de cambiar el funcionamiento propio del programa. Los sistemas expertos son "auto explicativo", al contrario que en los programas convencionales, en los que el conocimiento como tal está encriptado junto al propio programa en forma de lenguaje de ordenador. Los expertos de I.A. dicen que los sistemas expertos tienen un conocimiento declarativo, mientras que en los demás programas es procedural.


                                           HISTORIA DE LOS (SE)
 

Sus inicios datan a mediados de los años sesenta. Durante esta década los investigadores Alan Newell y Herbert Simon desarrollaron un programa llamado GPS (General Problem Solver; solucionador general de problemas). Podía trabajar con criptoaritmética, con las torres de Hanoi y con otros problemas similares. Lo que no podía hacer el GPS era resolver problemas del mundo real, tales como un diagnóstico médico.

 

Algunos investigadores decidieron entonces cambiar por completo el enfoque del problema restringiendo su ambición a un dominio específico e intentando simular el razonamiento de un experto humano. En vez de dedicarse a computarizar la inteligencia general, se centraron en dominios de conocimiento muy concretos. De esta manera nacieron los SE.

 

A partir de 1965, un equipo dirigido por Edward Feigenbaum, comenzó a desarrollar SE utilizando bases de conocimiento definidas minuciosamente.     Dos años más tarde se construye DENDRAL, el cual es considerado como el primer SE. La ficción de dicho SE era identificar estructuras químicas moleculares a partir de su análisis espectrográfico.

 

En la década de los setenta se desarrolló MYCIN para consulta y diagnóstico de infecciones de la sangre. Este sistema introdujo nuevas características: utilización de conocimiento impreciso para razonar y posibilidad de explicar el proceso de razonamiento. Lo más importante es que funcionaba de manera correcta, dando conclusiones análogas a las que un ser humano daría tras largos años de experiencia. En MYCIN aparecen claramente diferenciados motor de inferencia y base de conocimientos. Al separar esas dos partes, se puede considerar el motor de inferencias aisladamente. Esto da como resultado un sistema vacío o shell (concha). Así surgió EMYCIN (MYCIN Esencial) con el que se construyó SACON, utilizado para estructuras de ingeniería, PUFF para estudiar la función pulmonar y GUIDON para elegir tratamientos terapéuticos.

En esa época se desarrollaron también: HERSAY, que intentaba identificar la palabra hablada, y PROSPECTOR, utilizado para hallar yacimientos de minerales. De este último derivó el shell KAS (Knowledge Adquisition System).

  En la década de los ochenta se ponen de moda los SE, numerosas empresas de alta tecnología investigan en este área de la inteligencia artificial, desarrollando SE para su comercialización. Se llega a la conclusión de que el éxito de un SE depende casi exclusivamente de la calidad de su base de conocimiento. El inconveniente es que codificar la pericia de un experto humano puede resultar difícil, largo y laborioso.



Usos y evolucion de un Sistema Experto


     Un sistema experto es muy eficaz cuando tiene que analizar una gran cantidad de información, interpretándola y proporcionando una recomendación a partir de la misma. Un ejemplo es el análisis financiero, donde se estudian las oportunidades de inversión, dependiendo de los datos financieros de un cliente y de sus propósitos.


     Para detectar y reparar fallos en equipos electrónicos, se utilizan los sistemas expertos de diagnóstico y depuración, que formulan listas de preguntas con las que obtienen los datos necesarios para llegar a una conclusión. Entonces recomiendan las acciones adecuadas para corregir los problemas descubiertos. Este tipo de sistemas se utilizan también en medicina (ej. MYCIN y PUFF), y para localizar problemas en sistemas informáticos grandes y complejos.


     Los sistemas expertos son buenos para predecir resultados futuros a partir del conocimiento que tienen. Los sistemas meteorológicos y de inversión en bolsa son ejemplos de utilización en este sentido. El sistema PROSPECTOR es de este tipo.


     La planificación es la secuencia de acciones necesaria para lograr una meta. Conseguir una buena planificación a largo plazo es muy difícil. Por ello, se usan sistemas expertos para gestionar proyectos de desarrollo, planes de producción de fábricas, estrategia militar y configuración de complejos sistemas informáticos, entre otros.


     Cuando se necesita controlar un proceso tomando decisiones como respuesta a su estado y no existe una solución algorítmica adecuada, es necesario usar un sistema experto. Este campo comprende el supervisar fábricas automatizadas, factorías químicas o centrales nucleares. Estos sistemas son extraordinariamente críticos porque normalmente tienen que trabajar a tiempo real.


     El diseño requiere una enorme cantidad de conocimientos debido a que hay que tener en cuenta muchas especificaciones y restricciones. En este caso, el sistema experto ayuda al diseñador a completar el diseño de forma competente y dentro de los límites de costes y de tiempo. Se diseñan circuitos electrónicos, circuitos integrados, tarjetas de circuito impreso, estructuras arquitectónicas, coches, piezas mecánicas, etc.


     Por último, un sistema experto puede evaluar el nivel de conocimientos y comprensión de un estudiante, y ajustar el proceso de aprendizaje de acuerdo con sus necesidades.



materia de sql