Inteligencia Artificial

Tecnología. Historia. Períodos. Gestación. Técnicas. Problemas. Lenguajes. Estructuras. Shakey

  • Enviado por: Yoko Antonio García
  • Idioma: castellano
  • País: República Dominicana República Dominicana
  • 31 páginas
publicidad

Introducción:

La inteligencia artificial sea destacado como el comienzo de una nueva era ya iniciada en los años del 1950 haciendo de gran importancia en la vida de la comunicación, y con la búsqueda de un nueva forma de ayuda en el trabajo. La inteligencia artificial consta de robot bien diseñado, y computadoras que no paran de ser un elemento de gran necesidad.

Un ejemplo claro de la inteligencia artificial son los robot diseñados para la construcción de vehículos, electrodomésticos tareas que realizaba el hombre haciendo desplazado cada día, en parte la mayoría de los hombres se sienten disgustados por ser desplazados por la robótica, pero las industrias no lo ven de esa forma en cambio se sienten beneficiados por este recurso.

Desarrollo:

Historia De la Inteligencia Artificial

Es en los años 50 cuando se logra realizar un sistema que tuvo cierto éxito, se llamó el Perceptrón de Rossenblatt. Éste era un sistema visual de reconocimiento de patrones en el cual se unieron esfuerzos para que se pudieran resolver una gama amplia de problemas, pero estas energías se diluyeron enseguida.

    Fué en los años 60 cuando Alan Newell y Herbert Simon, que trabajando la demostración de teoremas y el ajedrez por ordenador logran crear un programa llamado GPS (General Problem Solver: solucionador general de problemas). Éste era una sistema en el que el usuario definía un entorno en función de una serie de objetos y los operadores que se podían aplicar sobre ellos. Este programa era capaz de trabajar con las torres de Hanoi, así como con criptoaritmética y otros problemas similares, operando, claro está, con microcosmos formalizados que representaban los parámetros dentro de los cuales se podían resolver problemas. Lo que no podía hacer el GPS era resolver problemas ni del mundo real, ni médicos ni tomar decisiones importantes. El GPS manejaba reglas heurísticas (aprender a partir de sus propios descubrimientos) que la conducían hasta el destino deseado mediante el método del ensayo y el error.

   En los años 70, un equipo de investigadores dirigido por Edward Feigenbaum comenzó a elaborar un proyecto para resolver problemas de la vida cotidiana o que se centrara, al menos, en problemas más concretos. Así es como nació el sistema experto.

   El primer sistema experto fue el denominado Dendral, un intérprete de espectrograma de masa construido en 1967, pero el más influyente resultaría ser el Mycin de 1974. El Mycin era capaz de diagnosticar trastornos en la sangre y recetar la correspondiente medicación, todo un logro en aquella época que incluso fueron utilizados en hospitales (como el Puff, variante de Mycin de uso común en el Pacific Medical Center de San Francisco, EE.UU.).

   Ya en los años 80, se desarrollaron lenguajes especiales para utilizar con la Inteligencia Artificial, tales como el LISP o EL PROLOG. Es en esta época cuando se desarrollan sistemas expertos más refinados, como por el ejemplo el EURISKO. Este programa perfecciona su propio cuerpo de reglas heurísticas automáticamente, por inducción.

Desarrollo Histórico Según [Jackson 86]

1950-1965 Periodo ``clásico''

ð Gestación [McColluck y Pitts, Shannon, Turing]

ð Inicio - reunión de Darmouth College en 1956 [ Minsky, McCarthy]

ð Redes neuronales, robótica (Shakey)

ð Búsqueda en un espacio de estados, Heurísticas, LISP

ð Resolvedor general de problemas (GPS) [Newell, Simon]

ð Juegos, prueba de teoremas

ð Limitaciones de pura búsqueda, explosión combinatoria.

1965-1975 Periodo ``romántico''

ð Representación ``general'' del conocimiento.

ð Redes semánticas [Quillian]

ð Prototipos (frames) [Minsky]

ð Perceptron [Minsky y Papert]

ð Lógica [Kowalski]

ð Mundo de bloques (SHDRLU) [Winograd]

ð Compresión de lenguaje, visión, robótica.

ð Dificultades de representación ``general'',problemas de ``juguete''.

1975-Hoy Periodo ``moderno'' Inteligencia ``especifica'' vs ``g
eneral''.

ð Representación explícita del conocimiento específico del dominio.

ð Sistemas expertos o basados en conocimiento.

ð Regreso de redes neuronales [Hopfield, Rumelhart, Hinton], algoritmos genéticos [Holland, Goldberg] Reconocimiento de voz (HMM), incertidumbre (RB, Lógica difusa), planeación, aprendizaje Aplicaciones ``reales'' (medicina, finanzas, ingeniería, exploración, etc.).

ð Limitaciones: conocimiento ``superficial''

Según [Russell, Norvig 95]:

Gestación (1943-1956):

ð McCullock y Pitts (43), Hebb (49), Shannon

ð (50), Turing (53), Minsky y Edmonds (51). Darmouth College (56) McCarthy, Newell y Simon ``The Logic Theorist''

Entusiasmo y grandes espectativas (1952-1969):

ð Samuel - checkers (52), McCarthy (58):

ð Lisp, time sharing, Programs with common sense. Minsky y McCarthy en MIT moldearon mucho del area. En 63 McCarthy se fue a Stanford SRI, Shakey, etc. Minsky Evans, Student, Waltz, Winston, Winograd, etc. Trabajo en RN: Hebb, Widrow, Rosenblatt

Dosis de realidad (1966-1974):

ð Simon predecía que en 10 años se tendría una máquina inteligente. Predicciones similares en traducción automática y ajedrez. Teoría de NP-completness. Experimentos en machine evolution (ahora algoritmos genéticos) (Friedberg, 58) estaban bien fundados pero no produjeron nada. Minsky y Papert Perceptrons (69) (aunque irónicamente el mismo año se descubrió backpropagation (Bryson y Ho))

Sistemas basados en conocimiento (1969-1979):

ð Dendral , Mycin , HPP, Prospector, Winograd SHDRLU,Shank (no hay sintáxis), frames, Prolog, Planner

ð IA como industria (1980-1988): R1/XCON, proyecto de la quinta generación, shells y máquinas de Lisp...

Regreso de redes neuronales (1986-presente):

ð Hopfield, Rumelhart y Hinton y descenso de los SE

Eventos recientes (1987-presente):

ð Cambio gradual hacia los técnicos y lejos de los rudos (implica cierto grado de madurez y estabilidad) e.g., reconocimiento de voz (HMM), incertidumbre (Bayes), planeación (Tweak), robótica, aprendizaje (PAC), etc...

Tomando como definición de Inteligencia Artificial, la que dio en su día Marvin Minsky (frase tal, que se ha hecho famosa por donde quiera que va):
"La Inteligencia Artificial es el arte de hacer máquinas capaces de hacer cosas que requerirían inteligencia en caso de que fuesen hechas por seres humanos”.



...esta definición nos llevaría, o por lo menos, nos ayudaría a entender porque en inteligencia artificial hay tantas ramas, pues al igual que la medicina, la I.A. debe abarcar todo lo inherente al hombre, para podérselo ofrecer a la máquina y en definitiva, a nosotros, los seres humanos.

La inteligencia artificial (IA) estudia como lograr que las máquinas realicen tareas que, por el momento, son realizadas mejor por los seres humanos. Esta definición es, por supuesto, bastante efímera ya que hace referencia al estado actual de la informática. Además falla al no incluir algunas áreas que potencialmente tienen un gran impacto, tales como aquellos problemas que no pueden ser resueltos adecuadamente ni por las máquinas ni por los hombres. Sin embargo, proporciona un buen comienzo para aclarar en qué consiste la inteligencia artificial evitando los aspectos filosóficos que dominan en los intentos de definir los términos artificial o inteligencia. Además, resulta interesante que surjan similitudes con la filosofía y al mismo tiempo las evite.

¿QUE ES UNA TECNICA DE IA?

Los problemas abordados por la ingeniería artificial configuran un amplio espectro. Tienen muy poco en común excepto que todos ellos son complicados. ¿Existen entonces técnicas apropiadas para solucionar algunos de estos problemas? La respuesta es afirmativa, los hay.

Uno de los más rápidos y sólidos resultados que surgieron en las primeras tres décadas de la investigación de IA fue que la inteligencia necesita conocimiento. Para compensar este arrollador logro, imprescindiblemente, el conocimiento posee algunas propiedades poco deseables, tales como:

  • Es voluminoso

  • Es difícil caracterizarlo con exactitud

  • Cambia constantemente

  • Se distingue de los datos en que organiza de tal forma que se corresponde con la forma en que va a ser usado.

  • Concluimos que una técnica de IA es un método que utiliza conocimiento representado de tal forma que:

El conocimiento represente las generalizaciones. En otras palabras, no es necesario representar de forma separada cada situación individual. En lugar de esto, se agrupan las situaciones que comparten propiedades importantes. Si el conocimiento no posee esta propiedad, puede necesitarse demasiada memoria. Si no se cumple esta propiedad es mejor hablar de " datos" que de conocimiento.

Debe ser comprendido por las personas que lo proporcionan. Aunque en muchos programas, los datos pueden adquirirse automáticamente (por ejemplo, mediante lectura de instrumentos), en muchos dominios de la IA, la mayor parte del conocimiento que se suministra a los programas lo proporcionan personas, haciéndolo siempre en términos que ellos comprenden.

Puede modificarse fácilmente para corregir errores y reflejar los cambios en el mundo y en nuestra visión del mundo.

Puede usarse en gran cantidad de situaciones aun cuando no sea totalmente preciso o completo.

Puede usarse para ayudar a superar su propio volumen, ayudando a acotar el rango de posibilidades que normalmente deben ser consideradas.

Aunque las técnicas de IA deben diseñarse de acuerdo con las restricciones impuestas por los problemas de IA, existe cierto grado de independencia entre los problemas y las técnicas de resolución de problemas. Es posible resolver problemas de IA sin usar técnicas de IA (estas soluciones no suelen ser muy adecuadas). También es posible aplicar técnicas de IA para resolver problemas ajenos a la IA. Esto parece ser adecuado para aquellos problemas que tengan muchas de las características de los problemas de la IA.

Encontramos tres importantes técnicas:

Búsqueda : Proporciona una forma de resolver los problemas en los que no se dispone de un método más directo tan bueno como la estructura en la que empotrar algunas técnicas directas existentes.

Uso del conocimiento: Proporciona una forma de resolver problemas complejos explotando las estructuras de los objetos involucrados.

Abstracción : Proporciona una forma de separar aspectos y variaciones importantes de aquellos otros sin importancia y que en caso contrario podrían colapsar un proceso.

Para solucionar problemas complicados los programas que utilizan estas técnicas presentan numerosas ventajas frente a los que no lo hacen. Lo primeros son mucho más frágiles; no se despistarán totalmente debido a una pequeña perturbación en la entrada. El conocimiento del programa es comprendido fácilmente por la gente. Y estas técnicas pueden trabajar con facilidad en grandes problemas en donde los métodos directos fallan.

LOS PROLEMAS DE LA INTELIGENCIA ARTIFICIAL:

¿Cuales son entonces los problemas de los que se ocupa la IA? La mayoría de los primeros trabajos en este campo hicieron gran hincapié en las tareas formales, como juegos y demostración de teoremas. La lógica teórica fue el primer intento de demostrar los teoremas matemáticos. Los juegos y la demostración de teoremas comparten la propiedad de que son tareas en las que se considera que es necesaria la inteligencia para desarrollarlas. A pesar de esto, parecía que al menos en principio, las computadoras podían realizar estas tareas simplemente haciendo una rápida exploración de todos los posibles caminos que pueden llevar a la solución y entonces seleccionar el mejor. Se pensó en que este proceso necesitaba muy poco conocimiento y que, por consiguiente, podría ser fácilmente programado. Esta suposición se demostró como falsa, desde el momento en que no existen computadoras lo suficientemente rápidas para procesar la explosión combinatoria generada en la mayoría de los problemas.

Otra primera incursión dentro de la IA se centró en la clase de problemas que aparecen a diario - como cuando decidimos cómo llegar al trabajo por la mañana - con frecuencia denominados de sentido común. Estos problemas incluyen el razonamiento sobre objetos físicos y sus relaciones (por ejemplo, un objeto sólo puede estar en un lugar a la vez), como también razonamiento sobre acciones y sus consecuencias por ejemplo, si se deja caer algo, chocará contra el suelo y posiblemente romperá). Para estudiar este tipo de razonamientos, el Resolutor General de Problemas (GPS General Problems Solver), el cual se aplicó tanto a variadas tareas de sentido común como al problema de realizar manipulaciones simbólicas en expresiones lógicas. De nuevo, no se pudo crear un programa con la cantidad suficiente de conocimiento sobre dominio específico del problema: sólo podían resolverse algunas tareas muy simples.

Conforme las investigaciones en IA progresaron y fueron desarrollándose técnicas de manipulación de grandes cantidades de conocimiento sobre el mundo, se realizaron algunos avances en las tareas descritas y aparecieron nuevas áreas de investigación. Estas áreas incluyen percepción (visión y habla), comprensión del lenguaje natural, y resolución de problemas en campos especializados como diagnósticos médicos y análisis químico.

La percepción del mundo que nos rodea es un elemento crucial para nuestra supervivencia. Los animales, con mucha menos inteligencia que nosotros, han desarrollado una capacidad de percepción visual más evolucionada que la que pueden ofrecer las máquinas actuales. Las tareas de percepción son difíciles ya que incluyen señales analógicas (previas a las digitales); estas señales suelen contener bastante ruido aunque normalmente se percibe a la vez una gran cantidad de objetos (algunos de los cuales pueden estar parcialmente tapados por otros).

La habilidad de utilizar el lenguaje para comunicar gran variedad de ideas es quizá el aspecto más importante que separa a los humanos del resto de los animales. La comprensión del lenguaje hablado es un problema de percepción difícil de resolver. Es posible, sin embargo, restringir el problema al lenguaje escrito. Este problema normalmente denominado comprensión del lenguaje natural, es aún extremadamente difícil. Para poder comprender frases sobre un cierto tema, es necesario no sólo poseer un conocimiento amplio sobre el propio lenguaje (vocabulario y gramática), sino también manejar el suficiente conocimiento sobre dicho tema para reconocer las suposiciones no expresadas en el texto.

Además de estas tareas de la vida diaria, mucha gente puede también realizar tareas más especializadas en las cuales es necesaria una cuidada adquisición de experiencia. Ejemplos de los anteriores son tareas como el diseño en ingeniería, los descubrimientos científicos, los diagnósticos médicos y la planificación financiera. Los programas que pueden resolver problemas sobre estos dominios también están bajo la tutela de la inteligencia artificial.

Las personas que saben cómo llevar a cabo las diversas tareas expuestas en la figura las han aprendido en un orden definido. Primero se aprenden las habilidades de percepción lingüística y de sentido común. Más tarde (por supuesto, en algunos casos, nunca) se aprenden disciplinas tales como la ingeniería, la medicina o las finanzas. Esto puede hacer pensar que las primeras habilidades son más fáciles y, por lo tanto, más fáciles de llevar a las computadoras que las tareas más especializadas. Por esta razón, gran parte del trabajo inicial en IA trataba de concentrarse en estas primeras áreas. Sin embargo, esta ingenua suposición no es correcta. Si bien las habilidades de un experto necesitan un conocimiento que la mayoría no poseemos, con frecuencia es mucho menor que el conocimiento necesario en las tareas más comunes, y con frecuencia es mucho menor que el conocimiento necesario en las tareas más comunes, y con frecuencia más fácil de representar y tratar en los programas.

Como consecuencia, las áreas donde la IA está prosperando como una disciplina práctica (en oposición a una puramente de investigación) es precisamente en los dominios donde es necesario únicamente un conocimiento experto sin la ayuda del sentido común. Existen en la actualidad miles de programas llamados sistemas expertos utilizados diariamente en cualquier área de la industria y la administración. Cada uno de estos sistemas intenta resolver parte, o quizás todos, los problemas de cierta entidad que antes necesitaban gran cantidad de conocimiento técnico humano.

IA PARALELA Y DISTRIBUIDA:

En los últimos años se han producido avances muy significativos en la computación paralela y en los sistemas distribuidos. Existen principalmente tres áreas en las que, las arquitecturas paralelas y distribuidas, pueden contribuir al estudio de sistemas inteligentes:

  • Modelado psicológico.

  • Mejora de la eficiencia.

  • Ayuda para la organización de los sistemas de una forma modular.

Estas áreas de aplicación son, a menudo, complementarias. Los conceptos de memoria a corto y largo plazo, el emparejamiento, las producciones independientemente operativas, y otros más, surgieron originalmente dentro de la literatura psicológica. Cuando los investigadores comenzaron a construir sistemas de IA basados en estos principios, llegaron a la conclusión de que las computadoras paralelas podían utilizarse para aumentar sensiblemente la velocidad a la que podrían trabajar dichos sistemas. De cualquier modo, aun en sistemas con un solo procesador, resultó que la arquitectura de los sistemas de producción presentaba muchas ventajas sobre la programación convencional. Un primer beneficio es una mejor modularidad. Cuando las reglas operan de manera más o menos independiente, resulta fácil añadirlas, borrarlas o modificarlas sin necesidad de modificar la estructura del programa completo.

EL PARALELISMO EN LOS SISTEMAS DE RAZONAMIENTO

Los programas de IA, consumen grandes cantidades de tiempo y espacio. Por consiguiente, es importante que los algoritmos de IA hagan uso de las ventajas del cálculo paralelo.

Paralelización de arquitectura de IA.

Los sistemas de producción poseen tanto aspectos secuenciales como paralelos. Con lo que plantea la siguiente cuestión, ¿Qué incremento de velocidad se puede esperar mediante un procesamiento paralelo?  Existen distintas fuentes de incremento de velocidad paralelo en sistemas de producción:

Paralelismo en el ámbito de emparejamiento, en el cual se utilizan múltiples procesadores para aumentar el manejo de los ciclos individuales de resolución de emparejamientos:

Paralelismo en el ámbito de producción, en el cual todas las producciones se emparejan consigo mismas con la memoria de trabajo en paralelo.

Paralelismo en el ámbito de condición, en el cual todas las condiciones de una única producción, se empareja en paralelo.

Paralelismo en el ámbito de acción, en el cual todas las acciones de una única producción se ejecutan en paralelo. 

Paralelismo en el ámbito de tarea, en el cual algunos ciclos se ejecutan simultáneamente.

La cantidad disponible de paralelismo en el ámbito de tarea depende directamente de la naturaleza de la tarea. En un sistema para realizar diagnósticos médicos, por ejemplo, el disparo de cada producción puede depender del disparo de otra producción previa que permita que se dé una secuencia más larga de razonamientos en cadena. De cualquier modo, si el sistema estuviera diagnosticado a cinco pacientes no deberían interaccionar unas con las otras y deberían ser ejecutadas en paralelo.

El paralelismo en el ámbito de emparejamiento se puede aplicar con más profundidad. Como los sistemas de producción gestan casi todo su tiempo en la fase de emparejamiento, se supuso desde un principio que en esta fase de emparejamiento, el paralelismo sería responsable de que se alcanzaran amplios incrementos de la velocidad. En un sistema de mil producciones, por ejemplo, se podría asignar un procesador a cada una de las producciones, posibilitando así, el aumento de la velocidad de cada ciclo de emparejamiento en un factor de mil. Sin embargo, el disponer de n procesadores no implica un aumento de (n) veces en la velocidad. Algunas de las razones por las que produce este efecto son:

Sólo unas pocas producciones se ven afectadas por un cambio de la memoria de trabajo. A través de sistemas de contabilidad que almacena información de los estados, las implementaciones secuenciales como RETE (Forgy, 1982) pueden evitar tener que procesar un gran número de producciones. Las ejecuciones paralelas deben ser juzgadas en función del incremento de velocidad que puedan ofrecer con respecto a los algoritmos secuenciales eficientes, no con respecto a los que no son.

Algunas producciones son realmente difíciles de emparejar, mientras que otras lo hacen con más facilidad. Esto quiere decir que muchos procesadores se pueden situar a la espera de que otros terminen. Cuando los procesadores se encuentran en situación de espera, la velocidad disponible del proceso paralelo, disminuye.

El gasto que implica la comunicación entre procesadores múltiples puede reducir más adelante los beneficios del paralelismo.

Otros tipos de arquitecturas se comportan de modo diferente con respecto a las implementaciones paralelas. Las arquitecturas imitadoras del cerebro que se acaban de mencionar son, naturalmente, paralelas; de hecho, su simulación en máquinas secuenciales es prohibitiva debido al alto nivel de paralelismo que suponen.

Paralelización de los lenguajes de programación de la IA.

Escribir programas paralelos es una tarea difícil para el hombre, por tanto se abriga la esperanza de que las implementaciones paralelas de estos lenguajes (quizá apoyados por construcciones de programación paralelas), den lugar a incrementos de la velocidad que sean más prácticos.

Las investigaciones en el campo de los lenguajes de programación paralelos, fueron uno de los principales objetivos en el proyecto de Quinta Generación japonés (ICOT, 1984). Algunos lenguajes como el PROLOG sugirieron inmediatamente dos tipos de paralelismo. En el paralelismo-O, se toman en paralelo múltiples caminos dirigidos a alcanzar un mismo objetivo.

En el paralelismo-Y, se desarrollan en paralelo las partes de un objetivo conjunción de todas ellas.

El paralelismo-Y no es tan directo cuando las variables se comparten entre varios objetivos.

Las investigaciones en programación lógica paralela comparten el mismo objetivo que los sistemas de producción paralela: permitir una ejecución eficaz de alto nivel, con un código escrito de forma sencilla para sistemas de IA.

 Paralelización de algoritmos de IA.

Las soluciones paralelas son más recomendables para unos problemas que para otros. Mientras que nueve escritores son capaces de escribir un libro mucho más rápido que uno solo (siempre que cada uno escriba capítulos diferentes), nueve mujeres no pueden dar a luz un bebe más rápido de los que lo haría una sola. Del mismo modo, la utilización de más procesadores en un problema de IA, puede no provocar los resultados deseados. Un ejemplo de un problema secuencial en IA es la unificación. En tanto que la incorporación de múltiples procesadores, pueden ayudar, argumentos formales nos muestran que no es posible conseguir grandes incrementos en la velocidad de unificación de grandes cantidades.

Muchos problemas se pueden resolver eficazmente por medio de métodos paralelos, pero no siempre resulta sencillo la conversión de un algoritmo secuencial a otro paralelo que sea eficaz.

Robots y autómatas varios, han existido desde hace mucho, pero parece ser que la robótica aplicada a micromundos se hizo patente en el proyecto que llevaba por nombre Shakey, o lo que es lo mismo: un robot con ruedas. En cuanto la existencia de este proyecto llegó a oídos del Departamento de Defensa de los Estados Unidos, este, se sintió interesado en su desarrollo, para, claro está, fines militares. La agencia norteamericana de investigación militar ARPA (Avanced Research Proyects Agency), que más tarde pasó a llamarse DARPA (Defense Avanced Reseach Proyect Agency), subvencionó este proyecto, esperando, como no, convertir al robot Shakey en un espía mecánico, capaz de infiltrarse en las líneas enemigas para conseguir información. Pero la apariencia del robot no parecía capaz ni de cruzar la esquina: una caja cuadrada, con una cámara de televisión (de las del 69), un telémetro y una antena de radio, parecía cualquier cosa menos un espía, claro que a veces es eso lo que se busca ¿no?. De todas formas el proyecto siguió adelante, aunque el robot hiciera gala de su nombre: Shakey [Temblón].

El mundo de Shakey era un Micromundo de Bloques de tamaño natural, compuesto de siete habitaciones conectadas entre sí por ocho puertas, habiendo en las habitaciones cubos que Shakey podía manipular, apilando y transportándolos de un lado a otro. Todo ello siguiendo las instrucciones (en inglés) que le transmitían mediante un teclado.

SHAKEY formaba parte del proyecto Micromundos de bloques diseñado por Marvin Minsky, fundador y por aquel entonces director científico del laboratorio de I.A. del MIT. Este proyecto estaba compuesto de varios experimentos basados en micromundos, virtuales, lingüísticos y reales para poder realizar algún avance significativo en las áreas asociadas (robótica, visión artificial, aprendizaje artificial…). Pero aunque los proyectos parecían "prometer", pasó el tiempo, y dado que ni el ARPA ni ninguno de los otros patrocinadores veían sacar nada en claro en todo esto, y dado que como no se habían conseguido apenas logros significativos en las materias tratadas, y no sería imposible cambiar el prefijo "micro" por ningún otro más extenso, se opto por cortar la subvenciones, acabando con el proyecto de Minsky

La verdad es que un micromundo real, no tiene demasiado misterio como tal, y es más, se podría parecer en todo a uno virtual, salvo en la utilización de robótica y datos que representan la realidad. Pero claro, de todo sistema o forma de experimentación surgen innovaciones inherentes a estos, y estas se hicieron esperar hasta que Rodney Brooks, investigador del MIT desarrolló una nueva concepción de inteligencia artificial, la cual choca de cara y sin casco con la concepción de I.A. clásica. Mientras que la I.A. clásica (no por ello obsoleta) mantiene que el razonamiento, el aprendizaje y el conocimiento simbólico son los pilares básicos de la I.A., las teorías de Brooks, que han desembocado en llamarse Arquitecturas de Subsucción, tienen su punto fuerte en evitar a toda costa cualquier indicio de racionalidad como tal, y creando robots que actúan enteramente por reflejos. Pero no por esa condición es un sistema sencillo y por eso despreciable, no, nada más alejado de la realidad: la arquitectura de subducción es también muy compleja, y es, de hecho, capaz de realizar actividades realmente sorprendentes, y sobretodo para los partidarios de la I.A. Uno de los robots diseñados por el equipo de Brooks recorrió una de las salas del MIT "recogiendo" latas de refresco, aún sin saber que era lo que hacia, hacia donde se dirigía especialmente, y para que valía su trabajo. Simplemente, su módulo de "aproximación" acercaba la pinza del robot a todo lo que tuviera forma de lata, y cerrándose esta ante todo lo que aparecía entre sus garras.

Porque aquí, en este punto empezaríamos a cuestionarnos el significado y el objetivo de la inteligencia artificial como tal. Porque sí, es la técnica que construye "cerebros artificiales", pero... ¿a que animal pertenecerían esos cerebros?. Claro, se suele suponer que sería un cerebro, imitación del humano. Pero, ¿qué es lo que tiene sentido y que es lo descabellado en I.A.?. Hay un capitulo de Expediente-X, el cual me sorprendió gratamente, pues parece copiar al pie de la letra la idea y proyectos de Brooks. En este, el supuesto Dr. Ivanov dice al agente Fox Mulder: "...anteriormente se ha tratado de crear máquinas capaces de pensar como un humano, pero este es demasiado maquinador, demasiado complejo, por ello es mucho mejor diseñar máquinas que, reaccionando por impulsos permitan conseguir otro tipo de inteligencia artificial más disponible a nuestra mano..." (bueno, no es exactamente esta frase la que dijo en su día, pero la esencia es esta). ¿Hasta ahí deacuerdo no?... pues yo no. Esto, y dicho de esta forma, parece una rendición de la I.A., la cual sería también la posible desencadenante de un cambio radical de nombre de la ciencia, la cual podría llamase Comportamientos Artificiales: C.A. En efecto, defiendo una Inteligencia Artificial Clásica, desde el punto de vista de que, hoy debemos preocuparnos por descubrir y entender el principio y lo más básico de la inteligencia (como todos los temas y ramas multidisciplinares que este concepto abarca) para poder, en un futuro (sea cuando fuere) entender y sacar conclusiones y aplicaciones más completas a este gran misterio, del cual parece ser que nuestra vida es inherente: ¿INTELIGENCIA?. La arquitectura de subsucción, es, y aunque parezca lo contrario a raíz de mis afirmaciones, un gran avance, pues nos muestra un camino que puede seguirse, para encontrar otro, es decir: podemos basar proyectos y partes de estos en esa arquitectura, aprovechando una muy buena idea, pero, no creo que tengamos que aferrarnos a ella, olvidando todo lo que aún permanece oculto al otro lado. La investigación de I.A. está en un momento de análisis y descubrimiento, pero aún no hemos llegado a la zona en la que es realmente útil una conclusión que implique una aplicación definitiva o cercana al resultado final.

La inteligencia, como tal, también se podría definir como capacidad que tenemos los humanos para, utilizando nuestros conocimientos, salir airosos de los problemas de cada día. Pero, un ordenador no adquiere los conocimientos necesarios como nosotros, y no solo eso, sino que nunca los podrá adquirir por su condición de no-humano. Nunca, o por lo menos, no a corto-medio plazo, podremos ver que un ordenador, como robot, es tratado como un igual por una persona, cuando, por ejemplo va a comprar una barra de pan a la panadería (suponiendo que fuera capaz de tal hazaña). Porque su perspectiva, a la hora de analizar el mundo y en definitiva: la sociedad, para poder aprender (si el sistema está basado en el aprendizaje) y así ampliar el marco de conocimientos, no es demasiado optimista. Al igual que el mundo no es el mismo para un invidente de nacimiento que para un vidente, dado que su concepción de este es diferente en varios puntos (nunca un camión será lo mismo psicológica y perceptivamente, para uno que para otro), esta circunstancia llevada al extremo con un robot sería totalmente desencadenante de una visión totalmente "distorsionada" de la realidad, si nosotros, claro está, poseemos la enfocada correctamente. También aquí llevaríamos a un curioso problema ¿quién está loco, el sistema cuando falla sus afirmaciones, o nosotros por considerarlas fallidas?: claro, ahora la balanza de la cordura nos apunta victoriosos, porque las cuestiones que se le pueden hacer a un sistema de I.A. no tienen nada que ver con este tipo de argumentaciones, pero, un sistema basado en el aprendizaje debe, por tanto, adoptar tarde o temprano una idea global de mundo, y en ella, tal vez, exista una gran distorsión de la realidad por su distinto campo de visión de los conceptos que nos ocupan en ese estudio. Pero es muy sencillo, y utilizando un ejemplo, el cual siempre expongo por ser de cosecha propia: ¿pero que hace un ordenador por las mañanas intentándose poner unos calcetines?... ¿para que va ha poseer piernas? ¿por qué precisará calcetines? y si no precisa calcetines... puede que la gran mayoría de lo que contenga nuestra sociedad le sea innecesario, como, por ejemplo: las sillas, las mesas, los cuadros, la comida... y claro, desencadenando en otro mundo, porque, al fin y al cabo, nuestro entorno seria otro mundo para un puma, ¿y no consiste en eso la arquitectura de subsucción?... en hacer que lo innecesario del mundo, es decir, razonar sobre nuestros conceptos, sea suplido. Podría parecer que me estoy contradiciendo, o que me acabo de liar y escribir lo contrario de lo que he planteado antes, pero no: si un sistema es inteligente como se desea construir desde la I.A. clásica (aunque hoy por hoy, ese sistema no exista más que en teorías), este puede tener muy aguda la facultad de adaptación de su pensamiento a las necesidades de la mayoría en la que está inmerso, es decir: llevando al máximo nuestra forma de ver que una ballena sin agua se ahoga. Es decir, el sistema debe aprender que las personas necesitan ponerse calcetines, porque tienen pies, y estos se enfrían... Este hecho, el de "ponerse en nuestro lugar" para entender el mundo, no es algo solo innato en lo que defino el sistema perfecto, porque, como he argumentado, nosotros también razonamos este hecho respecto a los demás animales, pero al masificar este acto ¿llevaríamos al sistema a una mutación cognitiva de lo que pretendemos?... si lo que pretendemos es crear inteligencia artificial lo más parecida a la humana... sí, en efecto, pero este hecho sería tan necesario como el concederle el conocimiento (o la facultad de adquirirle) de que el no es una persona, sino que se trata de un sistema inteligente.

Sería, y acotando como conclusión, como el ciego que sabe que el no puede ver, pero que los demás sí: un simple acto a adaptación, siendo una relativa minoría en el entorno. También, el invidente, sabe que las cosas tienen facultades físicas que pueden repercutir sobre el, pero el conocimiento sobre estos hechos que ha adquirido roza un nivel de abstracción, no mejor, sino diferente, al que por el aprendizaje totalmente distinto a percibido alguien con la facultad visual optima.

Conclusión:

Este consistió en la década de los 50 en que Mysil y otros colaboradores que desarrollaron el mundo de la robótica, así creando varios tipos de ramas que duraron casi 70 años en los cuales se destacaron diferentes tipo de programas como el GPS que fue desarrollándose desde un juego hasta un programa muy importante en su época.

La IA una importante empresa del desarrollo en la computación ya de los años de la invención de la inteligencia artificial fueron unos de los fundadores de ésta. Lograron muchos teoremas sobre lo cual podemos admirar el paralelismo-o, desarrolló también se puede ver el la invención del robot con ruedas o shaky que fue admirados por los militares de estados unidos, que mas tardes serian una gran motivación por los programadores de computación.