sábado, 17 de mayo de 2008

Inteligencia Artificial. Concepto e historia.

Concepto y definición de Inteligencia Artificial.

Durante la década de los treinta ha habido encarnizados debates sobre si una máquina puede o no exhibir inteligencia. Esta idea ha tenido partidarios y detractores en todos los campos de la ciencia, por no decir los temores que para ciertas personas puede despertar el hecho de considerar que una máquina sea capaz de pensar. Con el término inteligencia artificial se designa en la actualidad a un conjunto de tecnologías informaticas que van desde los sistemas expertos a la robótica, pasando por los juegos de ajedrez por ordenador. En definitiva, se trata de reproducir en un ordenador aquellos comportamientos que consideramos inteligentes.

A la hora de definir lo que realmente significan las palabras inteligencia artificial la polemica se vuelve a abrir. Si bien es sabido la dificultad de definir lo que es la inteligencia en si, cuanto más si a esta se le añade el calificativo de artificial. El concepto de inteligencia natural recorre un abanico de definiciones entre las cuales psicologos y psiquiatras no parecen ponerse de acuerdo. Prescindiendo de los modelos psicométricos, basados en los test de inteligencia, la psicología ha intentado en varias ocasiones llegar al consenso de lo que se entiende por inteligencia o comportamiento inteligente. Se resalta por un lado la creatividad, la capacidad de resolución de problemas, el uso del lenguaje, el aprendizaje y otras muchas caracteristicas del comportamiento humano. El problema de la definición de inteligencia se complica aún más cuando se trata de determinar si existe inteligencia animal y mucho más si nos referimos a la inteligencia artificial.

A principios de siglo los psicólogos insistieron en la empresa de elavorar reflexivamente una definición satisfactoria de la inteligencia. A juicio de Charles Spearman (1923) esta empresa siguió tres direcciones principales:

1 - La que tenía como objetivo alcanzar una definición de la inteligencia general.
2 - La caracterizada por los intentos de definir por separado las diversas facultades que constituyen la inteligencia.
3 - La orientación omnibus, encaminada a estimar un nivel mental promedio, resultado de un gran número de aptitudes no bien determinadas.

Dentro de cada una de esas corrientes se formaron diferentes definiciones, el resultado fue un amplio ramo de soluciones heterogeneas que dieron lugar a una nueva y amplia confusión. Terman definió la inteligencia como la capacidad de razonar abstractamente; Thorndike, como la capacidad de responder adecuadamente desde el punto de vista de lo verdadero; Thurstone como "aquello que puede ser juzgado por el grado de incomplección de las alternativas en la vida de tanteo del individuo"; Spearman habló de "educción de relaciones" y asi muchos otros. En lo tocante a las facultades, se resucitaron las descritas por la vieja psicología filosófica, enmascarandolas con una nueva nomenclatura. Para Binet (1909) la inteligencia se cifraba en cuatro palabras: comprensión, invención, dirección y censura o autocrítica, que expresaban su oposición a los intentos de definir la inteligencia por medio de test sensoriales y motores elementales. Thorndike, en cambio, afirmaba que la mente no es otra cosa que un conjunto de funciones que difieren tanto en su contenido como en su forma1. De esta forma la polemica continua hasta nuestros dias, sin que hasta la fecha se haya propuesto una definición de inteligencia ampliamente aceptada.

Dado este inconveniente, resulta obvio que al hablar de inteligencia artificial como el intento de reproducir la conducta inteligente de los seres humanos por medio de máquinas, ello de lugar a una nueva controversia. Si hay algo que distingue al hombre del resto de las criaturas que pueblan el planeta es: la posibilidad de afrontar problemas complejos, la creatividad, la adaptación física y mental al entorno, la utilización de un lenguaje basado en símbolos elementales, la capacidad de aprender tecnicas de otros semejantes, el reconocimiento de patrones del entorno y otras muchas actividades que, de forma general, son todas componentes de lo que llamamos inteligencia natural. La inteligencia artificial tratara de reproducir este tipo de conductas sobre artefactos creados por el hombre. De todos los artefactos creados por el hombre, parece ser que hoy en día el ordenador digital es el más adecuado para ello. Podemos considerar que un ordenador posee en su forma más simple las primitivas del conocimiento; es capaz de capturar datos de su entorno, procesarlos y obtener una nueva salida que es resultado y conclusión de los datos recibidos 2.

Pero el problema de la definición de inteligencia sigue latente a la hora de dterminar que es lo que se va a intentar reproducir en una máquina. El doctor Marvin Minsky del MIT salió al paso del problema definiendo inteligencia artificial como la capacidad de construir máquinas que hacen cosas que realizadas por el hombre requieren el uso de la inteligencia 3. Parecida definición a la de Minsky fué la expuesta por Elain Rich (1983), quien definió la disciplina como el estudio de cómo hacer que los ordenadores hagan cosas que, en estos momentos, hace mejor el hombre 4. A finales de los 60, tras haber visitado los laboratorios de procesamiento de datos de la Siemens AG, Alexander Sperl escribe en su obra Sperls-Computerbuch, (1971) sobre la definición de inteligencia: "Bajo inteligencia entiendo la capacidad de un ser vivo o de una máquina de oredenar informaciones externas, observaciones, experiencias, descubrir interrelaciones, valorarlas con las informaciones para abstraer de esta forma cosas y poderlas ligar entre si" 5. La posibilidad de comprender los mecanismos de la inteligencia a traves del uso de las tecnicas de inteligencia artificial fué apuntada por P.H. Winston, director del laboratorio de inteligencia artificial del MIT, quien define el objetivo de la inteligencia artificial como el intento de conseguir hacer ordenadores más sutiles para comprender los principios que hacen posible la inteligencia 6.

Ante la también enorme proliferación de definiciones de la inteligencia artificial y los problemas que el nombre acarrea, el investigador de la Universidad de Carnegie Mellon (Pittsburgh), propone hablar, en lugar de inteligencia artificial, de informatica avanzada. Esto tendría una doble ventaja: al mantenerse las mismas iniciales se evitarían problemas a la hora de buscar referencias bibliogr ficas ayudando a que todo el mundo siguiera hablando de lo mismo bajo otro nombre y por otro lado, ayudaría a eliminar el recelo y las expectativas exageradas que en la gente no iniciada evoca el termino de inteligencia artificial 7.

Las definiciones dadas hasta el momento constituyen una descripción general de lo que pretende el campo de investigación de la inteligencia artificial. Sin embargo no se hace un acotamiento de dicho campo, ni resulta evidente, a partir de estas, la determinación de los procesos en los cuales es interesante la aplicación de las tecnicas de inteligencia artificial o informatica avanzada. David W. Rolston (1988) propone una nueva definición de la disciplina en los siguientes términos: "IA es la solución de problemas complejos con el apoyo del computador mediante la aplicación de procesos que son análogos a los procesos del razonamiento humano"8. Por su parte los profesores B.G. Buchanan y E.A. Feigenbaum de la Universidad de Standford establecen el campo de la inteligencia artificial como la parte de la ciencia de ordenadores que investiga procesos simbólicos, razonamientos no algorítmicos y representaciones simbolicas de conocimiento usados en máquinas inteligentes 9. Queda de esta forma deslindado el campo de la inteligencia artificial del campo de aplicación de la informatica convencional.

La resolución de problemas es fundamental para la mayoría de las aplicaciones de inteligencia artificial. De hecho, la capacidad de resolver problemas suele usarse como una medida de la inteligencia tanto para el hombre como para la computadora. Hay dos clases de problemas. Una primera puede ser resuelta usando algun tipo de procedimiento determinista cuyo exito este garantizado. A este procedimiento se le llama computación. La resolución por computación normalmente solo se aplica a aquellos tipos de problemas para los que existan tales procedimientos, como el calculo numerico. Se puede traducir los metodos usados para resolver estos problemas de manera fácil, a un algoritmo que pueda ser ejecutado por una computadora. No obstante, a pesar de que pocos problemas reales se prestan a soluciones computables, deben ser situados en una segunda categoría, que consiste en problemas que se resuelven con la busqueda de una solución. Este es el método de resolución de problemas del que se ocupa la inteligencia artificial 10. En este sentido cabe distinguir en tre dos tipos de procesamiento de la información, por un lado el proceso de datos, que emplea tecnicas algoritmicas para la obtencion de nuevos datos, y por otro, el procesamiento de conocimientos, que emplea las tecnicas de busqueda inteligente para la generación de nuevos conocimientos (figura 1). La frontera que separa a mabos se conoce como barrera de la complejidad (figura 2). Su significado determina los niveles de esfuerzo y complejidad que se requieren para ambos tipos de procesamiento. El procesamiento de datos se caracteriza por un gran esfuerzo de calculo, con un gran numero de datos para cada variable, es el metodo eficaz para aquellas labores tediosas y repetitivas, pero con ausencia total de iniciativa. para las que tradicionalmente se han destinado los ordenadores. En el proceso de conocimientos el volumen de datos no es tan importante como el tipo de reglas que trabajaran con estos, la complejidad aumenta, en cuanto que no existe un método universalmente válido de resolución del problema 11.

Las tecnicas de inteligencia artificial intentan en forma explícita trasladar el proceso del razonamiento hacia el programa. En un programa de computación la imlpementación ejecuta los resultados del razonamiento de un analista con referencia a un problema específico. La variabilidad de un problema de computación se relaciona solamente con la capacidad del programa para aceptar la variabilidad de los datos. El proceso de razonamiento tiende a estar oculto para el usuario. Las implementaciones de computación tienden a ser frágiles, ya que un cambio en el enunciado del problema suele traer como consecuencia la necesidad de un nuevo análisis. El problema y las acciones requeridas deben establecerse por completo y de modo exacto, y todos los datos deben estar disponibles. Por el contrario, una implementación de inteligencia artificial, debido a que el proceso de razonamiento es interior a ella, puede emplear esos conocimientos para controlar el proceso de razonamiento y hacer una ejecución visible al programador y al usuario.

Una implementación de inteligencia artificial es relativamente flexible, en la medida en que puede llevar a cabo alguna parte de la tarea cuando se enfrenta a información incompleta o a datos inexactos y puede frecuentemente adaptarse a enunciados modificados. Debido a que el conocimiento se separa del proceso de razonamiento se puede modificar este sin necesidad de reescribir el programa 12.

Una característica de las implementaciones de inteligencia artificial es que no siempre dan como resultado una respuesta satisfactoria, tal que sea lo suficientemente buena para hacer un trabajo, aunque no sea la óptima (Simon 1981). Historicamente se ha llegado a equiparar la solución computacional con una solución exacta y exenta de error. Ello es debido a que los ordenadores se han empleado tradicionalmente para aplicaciones en problemas numericos que exigen un alto grado de precisión. Habitualmente esperamos de una persona un desempeño aceptable, pero no le exigimos una solución optima en todos los casos. Este concepto se transfiere directamente a una implementación de inteligencia artificial 13. Cuando el razonamiento heurístico se acompaña con el concepto de soluciones satisfactorias, a menudo nos posibilita para hallar soluciones adecuadas a problemas que podriamos considerar insolubles en razón de su complejidad exponencial (Rolston 1988)14.

Pese a todas las acotaciones que se puedan hacer al campo de la inteligencia artificial y las diferencias establecidas entre la informatica convencional y esta disciplina, sigue siendo una tarea dificil desarrollar su definición. Es por eso que en muchos tratados se prescinde de dar una definición general y se intenta dar una idea al lector a traves de la enumeración y explicación de las diferentes areas de aplicación de la inteligencia artificial. Areas que examinaremos más adelante y que como breve enumeración podemos citar: la resolución general de problemas, los juegos de estrategia, los sistemas expertos, el análisis y reconocimiento de objetos, el procesamiento del lenguaje natural, los sistemas de aprendizaje automático y la robótica. Estos són los grandes grupos de aplicación, que a su vez se dividen en varias sublineas de investigación. Debido al gran numero de areas y subareas de la inteligencia artificial, en la actualidad estas se encuentran sufriendo un efecto desagre gador derivado de su especialización, persiguiendose en unas los mismos fines que en otras pero por caminos diferentes. En la actualidad se pueden diferenciar dos grandes escuelas dentro de la investigación en inteligencia artificial. Por un lado, una corriente que sostiene que la inteligencia natural se puede reproducir mediante la construcción de sistemas que simulen los mecanismos del razonamiento humano en términos de símbolos. Su esfuerzo se basa en encontrar tecnicas que permitan la búsqueda sistematica en un espacio de soluciones, aplicación de la heurística para limitar la explosión combinatoria y representación de la realidad mediante símbolos. Esta corriente es conocida como la escuela simbólica. La principal area de trabajo de los simbólicos son los sistemas expertos. En contraposición a los simbólicos se halla la escuela conexionista. Estos pretenden pretenden acercarse a la "máquina inteligente" mediante un proceso de replicado muy primitivo de la estructura del cerebro. Sus sistemas son capaces de aprender rapidamente, pero dificilmente pueden explicar lo que han aprendido. Sus representantes típicos trabajan en el campo de las redes neuronales, replicas lógicas del sistema neuronal de los seres vivos 15.

La falta de unanimidad y la dispersión de esfuerzos transforma a la investigación en inteligencia artificial en un conjunto de técnicas esencialmente diferenciadas pero con un objetivo comun. En este ambiente surge la Teoría General de la Inteligencia (TGI), en un intento de poner orden e intentar que los esfuerzos que se desarrollen en un area puedan ser aprovechados en otra (Alvarez 1990). en la obra de Alvarez de Toledo se hace hincapié en la necesidad de que un sistema inteligente sea, principalmente un sistema que aprenda a traves de sus experiencias con el mundo real. Este modelo está basado fuertemente en conceptos conexionistas, sin dejar de lado a la escuela simbólica 16.

No cabe duda de que el desarrollo de la inteligencia artificial trae consigo serias implicaciones para la sociedad moderna. En una entrevista realizada al Doctor Weitzembaum del MIT, creador del programa ELIZA a finales de los sesenta, (Logsdon 1982) respondio a la pregunta sobre los posibles efectos de la automatización y la inteligencia artificial en los trabajadores americanos con las siguientes palabras: "Durante trescientos años ha habido lazos directos entre trabajar y comer. En el pasado, esto había sido necesario, ya que no había riqueza suficiente para todos. Pero ahora que hay abundancia no existe razón alguna para castigar a una persona que no trabaja". Weitzembaum comprende que habra que enfrentar un difícil período de transición antes de poder adaptar nuestro pensamiento a tan magn nima propuesta. Eso le llevó ha hacer una curiosa comparación: "Hemos conseguido separar sexo y reproducción, algo que hubiera sido inconcebible hace cien años. Atravesamos esto con ciert a dificultad. Ahora tenemos que hacer lo mismo con trabajo y supervivencia" 17.

Una de las ideas más originales sobre las consecuencias del desarrollo de la inteligencia artificial (De Garis 1989) sostiene que la aparición los sistemas inteligentes, a los que denomina artelectos, mezcla de artefacto e intelecto, es inminente. Tal aparición provocar intensos debates en el proximo siglo sobre como deben ser tratados los artelectos por la especie humana. De Garis propone dos escenariós que pueden surgir como consecuencia de la generalización de la máquina inteligente. En el primero surgirían dos grupos de opinión; los que mantendrán que la especie humana deber seguir siendo la dominante del planeta, y los que preferir n dar una oportunidad a los artelectos para que estos se desarrollen por su cuenta y puedan decidir su futuro. El segundo escenario plantéa a la raza humana totalmente dominada por los artelectos dando paso a una nueva organización en el planeta. Ante tal perspectiva De Garis propone la celebración de un intenso debate en el que se decida la linea a seguir por la especie humana en el caso de que la investigación en inteligencia artificial tenga exito en alcanzar sus objetivos finales 18.

Antecedentes historicos de la IA

Con el término inteligencia artificial se designa una pretensión que los seres humanos llevan arrastrando desde hace tiempo. La especie humana se ha servido de instrumentos con los que ha ido construyendo su civilización, ha levantado ciudades, ha circunnavegado la Tierra y ha viajado a otros planetas. El reto último de la humanidad, en cuanto a sus instrumentos se refiere, es hacer que estos puedan valerse por si mismos, es decir, dotarlos de la facultad del pensamiento y la razón. La inteligencia artificial se traduce en el intento de trasladar la facultad del pensamiento inteligente, propio de los seres humanos, a las maquinas que este construye.

La posibilidad de contruir una máquina que pueda rivalizar o superar la capacidad de razonamiento del cerebro humano ha atraido durante muchos años la imaginación del hombre. Las primeras conjeturas preceden al ordenador en cientos de años y eran tan solo expresables en el reino de la literatura fant stica. No obstante, desde la antigüedad, se han seguido dos lineas en el esfuerzo por conseguir la máquina inteligente, a saber: la construcción de automatas el comportamiento humano o animal y la información y automatización del razonamiento lógico y matematico 19.

La primera obra escrita acerca de maquinas capaces de realizar tareas en suplantación de los humanos procede de la antigua Grecia. Concretamente de la desaparecida biblioteca de Alejandría, en la cual se sabe de la existencia de un tratado llamado Automata , de Herón de Alejandría (inventor de cajas de engranajes y aparatos de vapor), en la que se describían los primeros automatas20. Pero no ser hasta los siglos XVII y XVIII, que este tipo de artilugios empezaron a mostrar algun rasgo de "inteligencia" en tanto en cuanto que reproducían actividades para las cuales el hombre debe usar la inteligencia.

El siglo XVIII fué el siglo de los automatas por excelencia. Descartes habia presentado en su "Discurso del Método" la tesis de que los seres vivos, a excepción de los humanos, son simples mecanismos. En 1737 el francés Jacques Vancanson construyó un automata flautista que movía los dedos para producir una melodía. Un año mas tarde sorprendió a la sociedad europea con el pato mec nico, capaz de nadar, batir las alas, comer y expulsar excrementos simulados21.

Durante la segunda mitad del siglo XVIII el barón húngaro Wolfgang Von Kempelen de Pressburg construyó dos máquinas que asombrarían a las cortes de Europa. La primera de ellas fué un artefacto que imitaba al tracto vocal humano, inspirado aparentemente en la gaita escocesa. El operador hacía funcionar un fuelle mientras con los dedos de la mano derecha hacia sonar las consonantes a través de lengetas que servían como sustitutos de lengua y labios. La máquina parlante de Von Kempelen fué especialmente alabada por Goethe, quien escribió en 1797 una carta al Duque Carlos Augusto de Sajonia-Weimar en la que decía que "la máquina de Von Kempelen no es muy locuaz, pero pronuncia muy bien ciertas palabras infantiles" 22. En 1769 Von Kempelen construyó y mostro un automata jugador de ajedrez con la forma de un turco de tamaño natural. El turco estaba sentado frente a un mueble que sostenia un tablero de ajedrez con contadores magnéticos. El turco recorrió toda Europa derrotando a todos aquellos competidores que se le presentaban, incluidas lumbreras de la época como Jorge III, Federico el Grande y Napoleón (quien hizo varios intentos inútiles de ganar con trampa) 23.

La mayoría de los admiradores del turco quedaban asombrados por su actuación, pero hubo algunas personalidades que mostraron su excepticismo. Edgar Alan Poe escribió en una monografía lo que puede considerarse un primer veredicto hacia la inteligencia en las máquinas. Poe arguía que "Los cálculos aritméticos son, por su misma naturaleza, fijos y determinados. Dados ciertos datos, inevitablemente siguen ciertos resultados". Continuaba afirmando que una simple máquina nunca sería capaz de hacer la clase de selecciones que se requieren de un jugador de ajedrez. Terminaba su ensayo con la observación de que si el invento de Von Kempelen fuese en realidad una máquina, sería "el invento más maravilloso de la humanidad" 24. Poe no se equivocaba en cuanto al fraude de la máquina, esta escondía a un autentico maestro de ajedrez en el interior del mueble. Pero si había errado en cuanto a la capacidad esencial de juego de "maquinas fijas y determinadas". Los ordenadores actuales han sido programados para jugar al tres en raya, a las damas, incluso a nivel de campeonato mundial, y a un ajedrez que es bastante bueno pero sin imaginación.

En 1768, el relojero suizo Pierre Jacquet-Droz, con la ayuda de sus hijos, terminó,despues de cuatro años de trabajo, un automata al que se conoce como "El Escriba". Al escriba, cuyo nombre es Charles, se le puede equipar para escribir cualquier mensaje con un m ximo de 40 caracteres, lo que hace de el una de las primeras maquinas programables. Se mueve de forma realista, parando de vez en cuando para mojar la plume en el tintero y sacudir cualquier exceso de tinta. su pluma se desplaza a una nueva linea cuando es necesario y su cabeza y sus ojos siguen lo que esta escrito en la hoja. Se necesitan seis horas de laborioso trabajo para cambiar el mensaje escrito por la máquina, que es tan sensible que los cambios en algún grado de la temperatura pueden causar errores ortogr ficos en sus transcripciones. Los tres Jacquet-Droz crearon otros dos aparatos: "Henry, el Dibujante" y "Marianne, la Músico". El primero podía dibujar cuatro bosquejos a lapiz y soplaba el carboncillo que qued aba en la hoja al terminar el dibujo. En cuanto a Marianne, exhibía una cierta personalidad, expresada en algunas gracias de la sociedad de la epoca mientras tocaba el piano con sus diez dedos 25.

La afición por los automatas fué en aumento a medida que fueron transcurriendo los años. En el siglo XIX Charles Babbage y Ada Lovelace consideraron la posibilidad de construir una máquina del tres en raya con el fin de ganar dinero para financiar la construcción de su proyecto de la máquina analítica26. Ya entrado el siglo XX, el español Torres Quevedo construyó en 1912 un automata para jugar el final de ajedrez de rey y torre contra rey. En 1929 se presentó en Francia el "Philidog", que seguía el rayo luminoso de una linterna y ladraba si la intensidad luminósa era excesiva27. En 1917 el escritor checo Karel Capek publicó la obra RUR , que dio lugar al término robot. La palabra checa "robota" significa servidumbre o trabajador forzado, y cuando la novela de Capek fué traducida al ingles se convirtio en robot. Entre los escritores de ciencia ficción de nuestro siglo, Isaac Asimov ha contribuido con varias narraciones relativas a robots, comenzando en 1939, y a él se atribuye el acuñamiento del término "robótica"28. En la actualidad estos términos poseen un significado claro y distintivo dentro del campo de la inteligencia artificial moderna, y seran analizados con más detalle en páginas posteriores.

La segunda linea apuntada, la correspondiente a la información y automatización del razonamiento lógico matemático, fue iniciada, como disciplina con cuerpo propio, por los griegos, concretamente Aristóteles con sus Tratados de Lógica. Continuada por el mallorquín Raimundo Lulio y su Ars Magna . El filósofo racionalista Leibniz buscó un lgebra universal que permitiera deducir todas las verdades, y en caso de discrepancias entre dos filósofos aplicar esta para llegar al consenso. A este método lo denominó calculus ratiocinator. Leibniz es en realidad el fundador de la lógica simbólica, a la que concibió como un sistema de reglas que permitieran representar las ideas de un modo exacto. La condición previa para realizar ese cálculo era la construcción de un lenguaje artificial, characteristica universalis, que refleje los contenidos ideologicos de un modo perfecto y sin ambigüedades 29.

Al llegar el siglo XIX, los matemáticos sienten la necesidad de abandonar la institución como fundamento de su ciencia y buscar para su razonamiento bases más sólidas. La aparición de las paradojas lleva al desarrollo de los sistemas formales y la lógica matemática. Las escuelas de Russell o de Hilbert reducen el razonamiento a la manipulación abstracta de cadenas de simbolos 30. En 1854, el inglés George Boole publicó Laws of Thought, en donde, independientemente de Leibniz, descubrió, formuló y desarrolló las leyes de un algebra del pensamiento, que presentan el mismo rigor de calculo que las leyes del lgebra matemática. Por su parte, el alem n Gottlob Frege publicó en 1879 una obra titulada Begriffsschrift en la que consigue la construcción de un cálculo lógico perfecto, con una escritura artificial original, que permite la formulación completa de la lógica deductiva elemental. Boole y Frege son los padres de la lógica simbólica o matemática 31.

Dentro de esta segunda linea cabe destacar el esfuerzo de muchos investigadores por construir y desarrollar instrumentos automaticos de cálculo. El procedimiento automático de cálculo mas antiguo que ha llegado a nuestros dias ha sido el ábaco, perfeccionado por los chinos en el siglo XIII. Un siglo más tarde el español Ramon Llull inventa una máquina a base de circulos concentricos para el manejo de silogismos lógicos. En 1519, Leonardo Da Vinci diseñó una máquina que servía para contar y disponía de un mecanismo de acarreo, pero que no llegó a construir. Descendiente directo del diseño de Da Vinci fue la famosa pascalina, obra de Blaise Pascal, quien a la edad de 19 años, construyó la maquina sumadora que lleva su nombre. La pascalina dispone de acarreo automatico, y en 1645 se le incorporo la resta por el método del complemento. Retomando las ideas de Pascal, Leibniz construyó en 1671 una calculadora universal capaz de realizar las cuatro operaciones elementales. El invento de Leibniz se basaba en un tambor cilindrico con nueve dientes de longitud variable que le permite la multiplicación como operación directa y que posteriormente se conoceria con el nombre de rueda escalonada de Leibniz 32. En el siglo XIX se construye simultaneamente por Joseph M. Jacquard y Vancanson el telar de tapices controlado por tarjetas perforadas 33.

Pronto se planteó la cuestión de que era precisa la construcción de una máquina capaz de encadenar automaticamente todas las operaciones y calculos necesarios para la resolución de un problema completo. El diseño de tal instrumento vendría en 1832 de la mano del matemático inglés Charles Babbage, quien en 1812 habia diseñado la maquina de diferencias, capaz de tabular logaritmos y funciones de segundo grado con ocho cifras a base de un mecanismo de relogería34. Babbage diseñó la "Maquina Anlítica", una máquina de uso general capaz de resolver, en teoría cualquier tipo de problema. Aunque posteriormente se demostró que el concepto de la máquina analítica era completamente sólido, la máquina nunca llego a ver la luz. En parte, porque Babbage estaba modificando su diseño constantemente, y en parte, por la extremada precisión que se exigía a sus engranages y dientes de rueda para poder manejar sus computos. Babbage adiestró a algunos de los mejores maquinistas de la época, pero inclu so sus formidables talentos fueron insuficientes para producir los componentes con la precisión necesaria 35. El esquema básico de la máquina analítica se asemeja al de cualquier ordenador electronico de nuestros dias, contando entre sus componentes con un dispositivo de almacenamiento volatil, unidad aritmetico-lógica, unidad de control y dispositivos de entrada/salida36.

En 1920, Torres Quevedo exhibe en París una calculadora digital a base de relés y gobernada a distancia por una máquina de escribir con contactos eléctricos en sus teclas y con memoria electromec nica. Cuatro años despues se funda en Estados Unidos la compañia International Busines Machines (IBM), la cual financiar en 1944 la construcción del Mark I, proyecto de un estudiante de licenciatura de la Universiadad de Harvard, Howard Aiken37. Mark I fué el precursor directo de ENIAC (Electronic Numerical Integrator and Calculator), el primer "cerebro electronico" (segun la prensa) de uso general y primer ordenador completamente electrónico. ENIAC fué construido en 1946 en la Moore School of Engineering de Filadelfia (Pennsylvania) por John Eckert y John W. Maunchly, bajo encargo del departamento de defensa 38. Había sido concebido como máquina de proposito general pero la motivación principal del ejercito era el calculo de complejas tablas balisticas. ENIAC fué utilizada extensivament e por los militares norteamericanos hasta 1955, año en que fué donada al Smithonian Museum39.

Origen de la IA como disciplina científica

Tras los avances en la técnica experimentados en el siglo XIX y principios del XX, surge a mediados de los años treinta la pregunta básica de "¿puede una maquina pensar?", propuesta por el inglés Allan M. Turing (1912-1954). Turing publicó en 1950 Computer Machinery and Inteligence, donde propone un test para determinar si una maquina puede o no pensar, o bien si una maquina es inteligente. El test de Turing consistía en situar detras de una cortina a un humano y una maquina, ambos comunicados con un interrogador. El interrogador haría preguntas a los dos, y si finalizada la sesión no era capaz de distinguir cual era la persona y cual la máquina habría que admintir la existencia de inteligencia al otro lado de la cortina. Visto de esta forma, es muy difícil pensar que un ordenador actual sea capaz de superar la prueba. Sin embargo, si se imponen ciertas restricciones la cosa cambia. Limitando el ámbito de la conversación a un tema muy concreto y admitiendo que la dinámica de la conversación se pueda desarrollar en terminos de simples preguntas y respuestas, sin plantear juicios de valor o comentarios generales 40. Bajo estas condiciones hasta el más pequeño ordenador doméstico puede actualmente superar el test de Turing (McAllister 1990) 41.

Una de las teorías que más han influído en el nacimiento de la inteligencia artificial como disciplina con cuerpo propio ha sido la cibernética. Junto con el desarrollo de la lógica simbólica, la psicología cognoscitiva y la teoría de la información de Shannon, la cibernética de Norbert Wiener ha constituido el punto de partida de las teorías sobre la inteligencia artificial de Turing, Simon y Newell 42.

La cibernética nace en los años cuarenta como un estudio sobre las cuestiones del control y la comunicación, concretamente la comunicación entre el hombre y la máquina, y del estudio fisiológico del comportamiento animal. Los promotores de esta teoría la definen como el estudio de la materia referente al control y la teoria de la comunicación bien sea en el animal como en la máquina. La cibernética parte de la idea de sistema. Los sistemas son comprensibles según la idea de una máquina 43. Asi, la cibernetica es la primera teoría que estudia a la maquina como una entidad propia, capaz de comunicarse consigo misma o con el exterior.

La cibernética, junto con la psicología cognoscitiva y la lógica simbólica constituyen las influencias últimas dentro de nuestro siglo que haran posible el nacimiento de la inteligencia artificial como linea de investigación con cuerpo propio. La obra de Turing supuso el punto de partida, que vendría seguido por la publicación a comienzos de los años 60 de Human Problem Solving de A. Newell y H.Simon 44. Ahora examinaremos los acontecimientos más relevantes en la historia de la inteligencia artificial (figura 3).

En el verano de 1956 tuvo lugar una conferencia en Dortmouth sobre inteligencia artificial, organizada por Marvin Minsky, John McCarthy y Claude Shanon. La conferencia fue patrocinada por la fundación Rockefeller y reunió a todos los que trabajaban en el recien estrenado campo de la inteligencia artificial. Se discutió la lógica teórica, desarrollada por los autores citados. La lógica teórica fué considerada como el primer programa de inteligencia artificial y usada para resolver problemas de busqueda heurística, junto con los principios matemáticos de Whitehead y Rusell. La conferencia de Dartmouth acuñó la expresión "inteligencia artificial", y predijo que al cabo de 25 años los ordenadores harian todo el trabajo de los hombres 45.

Los fundadores de la inteligencia artificial fueron demasiado optimistas con respecto al futuro de su disciplina. En un articulo publicado en el Science Journal Marvin Minsky hacia la siguiente predicción: "Actualmente las máquinas resuelven problemas de acuerdo con los principios que hemos establecido en ellas. Dentro de poco quiz s aprendamos a ponerlas a trabajar en el problema específico de mejorar su capacidad de resolver problemas. Una vez traspasado cierto umbral, esto nos llevaría a una espiral de aceleración y sería difícil perfeccionar un regulador fiable para refrenarlo." (Minsky 1968). Un año despues de la conferencia de Dartmouth Simon estaba convencido que un ordenador era capaz de hacer cualquier cosa que haga una persona, solo que mejor. Poco despues formuló junto con Newell, la predicción de que un ordenador sería campeón mundial de ajedrez y habría demostrado algun teorema importante de las matemáticas. Ninguna de las predicciones de aquel momento se ha cumplido todavía 46.

Al mismo tiempo que se desarrollaban las teorías sobre la intyeligencia artificial fué haciendose patente la necesidad de diseñar nuevos lenguajes de programación que hicieran posible la representación del razonamiento. Los lenguajes procedimentales de los años cincuenta (Fortran) estaban pensados para su utilización en el calculo numerico. Para representar conocimientos y reglas de razonamiento eran necesarios lenguajes capaces de tratar con sus variables a modo de simbolos, independientemente del valor que estas fueran a tomar. El primer lenguaje de inteligencia artificial fue desarrollado en 1956 por Newell, Shaw y Simon, que recibió el nombre Information Processing Languaje - I (IPL - I). También a mediados de los años cincuenta, John McCarthy y posteriormente el MIT, comenzaron a desarrollar el LISP (List Processing). El LISP es en la actualidad uno de los lenguajes más populares en la investigación de inteligencia artificial, y tambien el que más modificaciones y adaptacio nes ha sufrido, dando lugar a cerca de un millar de dialectos diferentes, entre los cuales el más extendido tal vez sea el Common Lisp 47.

La historia de la inteligencia artificial pude dividirse en cuatro décadas (Forsyth 1986), que son: años 50, redes neuronales; años 60, busqueda heurística; años 70, sistemas expertos y años 80, aprendizaje de las máquinas. En 1943 S. Warren, McCulloch y Walter Pitts trabajaron con redes neuronales. Estas consistían en el estudio de modelos que siguen la arquitectura del cerebro humano con el fin de conseguir con ello la realización de las tareas propias del cerebro de una forma artificial, incluyendo la inteligencia. La semejanza entre el cerebro y un ordenador es puramente anecdótica. Cada neurona del cerebro funciona igual que un procesador binario muy sencillo, que tomo como salida los valores 0 o 1 dependiendo de las señales que le lleguen de otras neuronas. Cada uno de estos procesadores binarios puede estar activo o inactivo, dependiendo del proceso que se este realizando. En 1957 Frank Roseblett de la Universidad de Cornell construyó el Perceptron basandose en esta filos ofía. El perceptron debia ser capaz de simular la visión humana. En 1959, Minsky y Papert pusieron de manifiesto que máquinas como el perceptron, dado el nivel de complejidad que requería su construcción , solo eran aplicables a problemas muy sencillos48.

Uno de los más estrepitosos fracasos de los origenes de la inteligencia artificial fué la traducción automatica. Los intentos de traducir textos de un idioma a otro por medio de máquinas se remontan al menos al memorandum que W. Weaver distribuyó en 1949. Durante la decada de los 50 se celebraron congresos y proliferaron los grupos de investigación. En 1954 uno de estos grupos afirmaba haber creado un programa que traducía del ruso al inglés. Pero los resultados de estos proyectos fueron bastante desastrosos. El informe ALPAC de 1966 persuadió a la administración norteamericana para que dejara de financiar los proyectos de traducción autom tica49.

Quizás una de las razones más inportantes de los fracasos de la inteligencia artificial en sus principios hayan sido las magnitudes de los objetivos a alcanzar por los primeros proyectos. Cuando en 1957 Newell y Simon comenzaron a desarrollar el Resolvente de Problemas Generales (GPS) pecaron de un exceso de optimismo. Por medio de la GPS se pretendía construir sistema capaces de manipular expresiones matemáticas simbólicas para tratar con axiomas y demostrar teoremas siempre en clave de lógica matemática. Su interes era hallar una forma de formalizar de una manera precisa unos mecanismos generales para la resolución de problemas. La aportación más importante de estos pioneros fué hacer ver, a traves de la experiencia de su fracaso, que la inteligencia artificial ha de empezar por lo muy particular e ir generalizandose paulatinamente, justo al contrario de lo que ellos pretendían 50.

Pero no todo fueron fracasos. Newell, Shaw y Simon desarrollaron la lógica teórica ya comentada; y en 1959 Gelertner escribió un programa para resolver problemas de geometría elemental. Slage comenzaba en el MIT la automatización de la integración simbólica con un programa que denominó SAINT. Hacia 1959 y despues de años de experimentación, Arthur Samuel completó un programa de ordenador verificador de juegos en un trabajo titulado Estúdios en máquinas de Aprendizaje Usando el Juego del Ajedrez, publicado en el IBM Journal of Research and Development . En 1960, los investigadores del MIT comienzan un proyecto sobre IA bajo la dirección de John McArthy y Marvin Minsky. El resultado más espectacular de este período fué el programa de Samuel para jugar a las damas, que se presentó en 1961 y que era capaz de tener en cuenta sus errores y aciertos pasados y tenerlos en cuenta en una partida posterior 51. Por supuesto, no todo el mundo era optimista con respecto a la idea de la "máquina pensante". J. R. Lucas planteo una objeción bastante sensata: "si el teorema de G”del afirma que existen proposiciones formalmente indemostrables en aritmética, "¿como puede pretenderse que una máquina, que es una materialización de un sistema formal, iguale el funcionamiento de la mente humana, capaz de ver que la formula de Gödel es verdadera?" (Lucas 1961)52. Anterior a la objeción de Lucas fué la obra del Doctor Hubert Dreyfus titulada Lo que los ordenadores no pueden hacer, que abre con un resumen de alguno de los fracasos más estrepitosos de los investigadores de inteligencia artificial. Dreyfus sospechaba especialmente de las pretensiones autosuficientes y formulo una curiosa ley según la cual el valor de un programa suele ser inversamente proporcional a las promesas y publicidad de su programador 53.

Tales habían sido las expectativas levantadas por la inteligencia artificial y tantos sus fracasos que el desanimo sucedió al optimismo inicial. El mundo exterior se desentendió de los trabajos de investigación y la financiación de muchos proyectos se volvió problem tica. No obstante la inteligencia artificial se fué consolidando y, aprendiendo de sus fracasos, buscó nuevos enfoques para los viejos problemas. Bajo la dirección de E.A. Feigenbaum y J. Feldman se publicó en 1963 la colección Ordenadores y Razonamiento, en la que aparece el artículo de Marvin Minsky Pasos Hacia la IA. En el año 1964 se publicó la tesis doctoral de D.G. Bobrow sobre su sistema STUDENT, que es un programa de lenguaje natural que comprende y resuelve problemas elevados de álgebra 54.

La Universidad de Standford comenzó a investigar (1965) sobre sistemas expertos con su Proyecto de Programación Heuristica (HPP), dentro de los laboratorios del Departamento de Ciencia de Ordenadores de dicha Universidad. Actualmente, el HPP pertenece al Laboratorio de Sistemas de Conocimiento. En este año se comienzan los trabajos de investigación sobre el primer sistema experto: DENDRAL, desarrollado por un grupo en el que estaban J. Lenderberg, E.A. Feigenbaum, B.G. Buchanan y otros. DENDRAL soluciona un problema de ingeniería química en tres fases. En primer lugar, el programa infiere cualquier posible restricción sobre la solución, basandose en el conocimiento que el posee en su base de datos. A continuación permite a los usuarios añadir cualquier posible restricción y finalmente genera y comprueba una lista de soluciones posibles que imprime en orden de preferencia 55.

En el año 1966 se publica en Comunicaciones de la Asociación para máquinas Calculadoras, un programa para el estudio de la comunicación hombre-máquina mediante lenguaje natural interactivo. Se trata del ELIZA del Joseph Weitzenbaum del MIT. Weitzenbaum describe en su libro Computer Power and Human Reason, como fué escrito el programa ELIZA y las aplicaciones para las que se diseñó. El programa puede conversar acerca de cualquier tema respondiendo al principio con una serie de frases escogidas al azar entre las de un repertorio contenido en una tabla interna y posteriormente, escogiendo palabras de entre las propuestas por el usuario. Dichas respuestas son examinadas para saber si en ellas aparecen ciertas frases o palabras clave. El programa se desarrollo originalmente para demostrar la dificultad que existe al intentar comunicarse con un ordenador en lenguaje natural; Weitzenbaum manifestó que la comunicación entre humanos era, como mucho, un asunto impreciso en el que nadie pue de estar absolutamente seguro del significado exacto que otras personas pueden asociar a una palabra o frase. Para su sorpresa y posible decepción fue llevado a cabo una ampliación del programa que recibió el nombre de DOCTOR. Este programa era una sátira de una escuela de psicoterapia llamada "psicoterapia Rogeriana". Según opinion del propio Weitzenbaum tanto ELIZA como el DOCTOR no eran más que un monton de trucos estupidos sin capacidad de remedar ni remotamente la inteligencia humana. Pero DOCTOR rapidamente se difundió por el campus del MIT cautivando tanto a alumnos como a profesores, quienes llegaron en algunos casos a pensar que estaban hablando con un autentico psicologo. Esto sorprendió y alarmo a su creador, pero la aparente complacencia e incluso ansia de la comunidad psiquiatrica por usar su programa en el tratamiento de pacientes con trastornos mentales lo dejo aun más asustado. En su obra Weitzenbaum propone que temas como la psiquiatria o la justicia criminal, por su contenido humanistico, nunca deberían ser entregados a los ordenadores, aun en el caso de que estos fueran realmente eficientes en estas cuestiones 56.

En el año 1969 tuvo lugar el Primer Congreso Internacional de Inteligencia Artificial. A partir de este momento se produce la "institucionalización" de la comunidad científica que trabajaba en inteligencia artificial, reuniendo a investigadores de todas las especialidades relacionadas con esta disciplina. Consecuencia inmediata de ello fué la aparicion del primer número de la revista Artificial Inteligence en 1970, que desde entonces publica trabajos de las más destacadas investigaciones en curso. De esta misma época es el programa SHRLDU de Terry Winograd, que era una parte de un proyecto de comprensión del lenguaje natural capaz de comprender y ejecutar ordenes acerca de un "mundo de bloques". Ello era posible gracias a que el programa tenía todos los conocimientos necesarios acerca de su simplificado mundo57.

La decada de los 70 se caracteriza, en el campo de la inteligencia artificial, por el desarrollo de los sistemas expertos. En 1976 E. Shortcliffe de la Universidad de Standford publica el programa MYCIN. Se trata de un sistema experto que diagnostica enfermedades infecciosas de la sangre. En pocas palabras, un sistema experto es un programa que produce un resultado basandose en las manifestaciones de un usuario, los hechos memorizados en una base de datos y las reglas de infrencia que posee. Ademas, un sistema experto debe ser capaz de explicar su razonamiento al usuario y aprender de su propia experiencia. El motor de inferencias de MYCIN, llamado EMYCIN se ha aplicado en una gran variedad de campos. Con los sistemas expertos surge la ingeniería del conocimiento, como un conjunto de tecnicas y herramientas para la representación, recolección y empleo del conocimento experto en un campo dado 58.

En 1970 el proyecto de inteligencia artificial del MIT se transforma en Laboratorio de inteligencia artificial del mismo bajo la dirección de Minsky y Papert. Los trabajos de investigación hasta 1973 tuvieron como herramientas básicas los conceptos de tiempo compartido en ordenadores y procesamiento de palabra. Paralelamente, en la Universidad de Pittsburgh, J.D. Myers y H.E. Pople, empiezan a trabajar en el sistema INTERNIST, para ayudar a los médicos en el diagnostico de enfermedades. Entre 1971 y 1976, la Agencia de Investigación de Proyectos Avanzados para la Defensa de los EE.UU. (DARPA) financió varios proyectos de investigación relacionados con la comprensión de lenguaje e imagen 59.

Otro de los campos de la inteligencia artificial que experimento un r pido crecimiento en la decada de los 70 fué la robótica. La primera instalación de un robot fué hecha en 1961 en la Ford Motor Company para descarga de una máquina de fundición en troquel. En 1968 se desarrolló un robot móvil en el Instituto de Investigaciones de Standford (SRI) llamado SHAKEY. Estaba provisto de una diversidad de sensores, incluyendo una c mara de video y sensores t ctiles y podía desplazarse por el suelo. Los robots habían sido simples máquinas diseñadas para unas actividades prefijadas hasta que en 1973 el SRI desarrolló en primer lenguaje de programación de robot para investigación con el nombre WAVE. Fué seguido por el lenguaje AL en 1974. Los dos lenguajes se desarrollaron posteriormente en el lenguaje VAL comercial para Unimation Inc. por Victor Scheinman y Bruce Simano 60.

En 1975, Alain Colmerauer, de la Universidad de Marsella, define el lenguaje PROLOG de programación lógica, no por procedimientos. Un instrumento asi libera al programador de la necesidad de especificar los procedimientos de resolución de un problema: sólo tenemos que enunciar los hechos y reglas conocidos y señalar las metas que queremos alcanzar. La aparición de los lenguajes declarativos fué un paso inportante para la inteligencia artificial. Rapidamente el PROLOG se convirtió en el lenguaje principal para la investigación en inteligencia artificial en Europa, rivalizando con el LISP en Estados Unidos. A finales de los años 70 comenzaron a aparecer diferentes versiones del PROLOG. Sin embargo, PROLOG cuenta con un estandar definido en el libro Programming in Prolog de W.F. Clocksin y C.S. Mellish 61.

Hacia 1976, D.B. Lenat escribe un programa llamado AM. Se trata de un programa típico de aprendizaje que define y evalúa conceptos matemáticos con tería de conjuntos y números. También R. Davis publica su tesis doctoral, en la Universidad de Standford, sobre un sistema que emplea metaniveles de conocimiento para entrar y actualizar bases de conocimientos usadas en sistemas expertos. Dos años más tarde, R.O. Duda publica un sistema experto en exploraciones geológicas llamado PROSPECTOR, que descubrió un yacimiento de molibdeno 62.

Las instituciones, gobiernos y empresas percibieron los adelantos que habia realizado la inteligencia artificial en los años 70. Las empresas y organizaciones se vieron seducidas por las posibilidades que los sistemas expertos y la ingeniería del conocimiento tenían para aumentar su eficiencia. Por todo ello, la inteligencia artificial volvió a ser tema de moda, y el impulso definitivo vino de Japón. En 1979, el Ministerio de Industria y Comercio Internacional de Japón decidió desarrollar una nueva generación de ordenadores que cumplieran las necesidades previsibles para la decada de los noventa. En 1981se publicó un informe aprobando, el gobierno japonés, los creditos presupuestarios para lo que se llamó el Proyecto de la Quinta Generación de Ordenadores. Un año más tarde, se lanza oficialmente en Tokyo el ICOT, Instituto Japones para Generación de Nuevas Tecnologías de cálculo. Paralelamente se crea en EE. UU. la Corporación Tecnológica de Microelectrónica y Microordenadores (MCC), para responder al programa japonés de Quinta Generación. También Gran Bretaña pone en marcha el programa Alvey de Tecnología Avanzada de la Información, para realizar investigaciones sobre ordenadores de la Quinta Generación 63.


Bibliografía

1- Pinillos, J.L. - Principios de Psicología General. - Ed. Alianza Universidad, 1983. 2- Martinez, A. - Inteligencia Artificial, La Gran Guia. - Ed. Jackson, 1991. 3 - Varios. - Inteligencia Artificial, Conceptos, Técnicas y Aplicaciones. Ed. Marcombo, 1987. 4 - Rich, E. - Artificial Inteligence. - Ed. McGraw-Hill, 1983. 5 - Varios, Siemens Nixdorf. - Sistemas Expertos - Ed. Marcombo, 1988. 6 - Varios. - Op. cit. 7 - Martinez, A. - Op. cit. 8 - Rolston, D.W. - Principios de Inteligencia Artificial y Sistemas Expertos. - Ed. McGraw-Hill, 1988. 9 - Varios. - Op. cit. 10 - Schildt, H. - Utilización de C en Inteligencia Artificial. - Ed. McGraw-Hill, 1988. 11 - Varios, Siemens Nixdorf. - Op. cit. 12 - Rolston, D. W. - Op. cit. 13 - Simon, H. - The Sciences of the Artificial. - Ed. MIT Press, 1981. 14 - Rolston, D.W. - Op. cit. 15 - Martinez A. - Op. cit. 16 - Alvarez de Toledo, S. - Neither Artificial nor Natural, Simply Inteligence. - Ed. Alvarez de Toledo, 1990. 17 - Logsdon, T. - The Robot Revolution. - Ed. Simon & Schuster, 1984. 18 - de Garis, H. - What if AI Succeeds?. The Rise of the Twenty-First Century Artilect. - AI Magazine, Summer 1989. 19 - Varios. - Op. cit. 20- Sagan, C. - Cosmos.- Ed. Planeta, 1982. 21 - Varios. - Op. cit. 22 - Logsdon, T. - Op cit. 23 - Logsdon, T. - Ib. Idem. 24 - Logsdon, T. - Ib. Idem. 25 - Logsdon, T. - Ib. Idem. 26 - Logsdon, T. - Ib. Idem. 27 - Varios. - Op. cit. 28 - Groover, M.P., Weis, M., Nagel, R.N. y Odrey, N. G. - Robotica Industrial, Tecnología Programación y aplicaciones. - Ed. McGraw-Hill, 1989. 29 - Garrido M. - Lógica Simbólica. - Ed. Tecnos, 1983. 30 - Varios. - Op. cit. 31 - Garrido M. - Op. cit. 32 - Guilera Agera, L. - Introducción a la informatica. - Ed.EDUNSA, 1988. 33 - Varios. - Op. cit. 34 - Guilera Agera, L. - Op. cit. 35 - Logsdon, T. - Op. cit. 36 - Guilera Agera, L. - Op. cit. 37 - Guilera Agera, L. - Ib. Idem. 38 - Logsdon, T. - Op. cit. 39 - Guilera Agera, L. - Op. cit. 40 - Martinez, A. - Op. cit. 41 - McAllister, J. - Inteligencia Artificial y Prolog en Microordenadores. - Ed. Marcombo, 1991. 42 - Varios, Siemens Nixdorf. - Op. cit. 43 - Wiener, N. - Cybernetics or Control and Comunication in the Animall and the Machine. - Ed. MIT Press, 1984. 44 - Varios, Siemens Nixdorf. - Op. cit. 45 - Varios. - Op. cit. 46 - Logsdon, T.- Op. cit. 47 - Varios.- Op. cit. 48 - Forsyth, R. y Naylor, C. - The Hitch Hicker s Guide to Artificial Inteligence. - Ed. Chapman and Hall Ltd., 1986. 49 - Varios. - Op. cit. 50 - Martinez, A. - Op. cit. 51 - Varios. - Op. cit. 52 - Varios. - Ib. Idem. 53 - Logsdon, T. - Op. cit. 54 - Varios. - Op. cit. 55 - McAllister, J. - Op. cit. 56 - McAllister, J. - Ib. Idem. 57 - Varios. - Op. cit. 58 - McAllister. - Op. Cit. 60 - Groover, M.P., Weis, M., Nagel, R.N. y Odrey, N. G. - Op. cit. 61 - Robinson, P.R. - Using Turbo Prolog.- Ed. McGraw-Hill, 1987. 62 - Varios. - Op cit. 63 - Varios.- Ib. Idem.