jueves, 20 de agosto de 2015

¿Qué es inteligencia artificial general?


220px-John_searle2
John Searle
Hoy se habla de inteligencia artificial fuerte (IA fuerte), inteligencia artificial débil (IA débil), super inteligencia artificial (Super IA), inteligencia artificial estrecha (la IA clásica) y la nueva inteligencia artificial general (IA general). Cuando se habla de inteligencia artificial general se hace referencia a una IA de propósito general como una continuidad a la IA clásica (la que fue renombrada como IA estrecha).
Todos vienen del inglés: Strong Artificial Intelligence, Weak Artificial Intelligence, Super Artificial Intelligence, Narrow Artificial Intelligence y Artificial General Intelligence (AGI)
Aun no existe un acuerdo sobre la traducción de la AGI, yo prefiero llamarla Inteligencia Artificial general (IA general), otros nombre son inteligencia general artificial o general inteligencia artificial.
Una vez hecha la aclaración de términos comencemos con el artículo, que es una selección actualizada de otros artículos publicados en este blog.
En los primeros años de la IA luego del paradigma cibernético con su intento de construir una mente mecánica, le siguió el paradigma cognitivo y la idea de reproducir la mente por medio de algoritmos, ya que la mente no era otra cosa que estados mentales que se procesaban en el cerebro al igual que los programas en una computadora.
Lo cual llevó a muchos investigadores en el campo teórico a pensar que una vez que se descifraran los procesos de la mente era seguro desarrollar los algoritmos que representaban esos procesos, es obvio, ya que la mente lo que hace es manipular símbolos por medios algorítmicos. De ahí surgieron los métodos heurísticos, las reglas de producción, los mecanismos de resolución de problemas, etc.
También surgieron los primeros desacuerdos entre los investigadores quienes no se ponían de acuerdo, en, si esa representación simbólica, se basaba en la lógica (la sintaxis, cálculo de predicados) o en la semántica (estructuras semánticas, guiones). Discusión que llevó a que se formaran dos grupos: los defensores de la lógica (a los que llamaban los pulcros, ya que siempre vestían de forma impecable) y los semánticos (llamados zarrapastrosos, estos andaban peludos y vestían de forma no convencional). Como era de esperar a nivel académico se impusieron las ideas de los pulcros, en cambio muchas de las aplicaciones más importantes en IA han provenido de las investigaciones de los zarrapastrosos. Pero, métodos a parte, ambos compartían un sueño: descubrir los programas que hacen funcionar la mente.
De todo lo anterior se desprende que era totalmente posible reproducir la mente en una computadora, bastaba con encontrar la descripción algorítmica de los estados mentales. Y por muy compleja que pareciera el funcionamiento de la mente, en el fondo no era otra cosa que complejos algoritmos, y la tarea de los investigadores de la IA consistía en descifrar esos procesos y su conversión en algoritmos para luego introducirlos en una computadora e ir conformando una nueva inteligencia no humana.
Ahora, para que la máquina tenga todos los algoritmos que conforman la mente, primero, hay que ir descubriendo los mecanismos de la mente, traducirlos en algoritmos para incluirlos en la computadora, así sucesivamente hasta que se haya reproducido totalmente la mente humana, y pueda funcionar en una computadora. Fueron muchos investigadores en esa época, principio de los 50, dieron esto por hecho y afirmaron que en los anos 80s ya existirían máquinas con inteligencia humana, en ese entonces no se hablaba de superar la inteligencia humana, ni de singularidad tecnológica, etc.

IA fuerte e IA débil

Desde sus inicios podemos hablar de dos enfoques de la Inteligencia Artificial (IA), de una parte la IA fuerte y de la otra, memos categórica a la hora de interpretar los hechos: la IA débil.
La idea de una IA fuerte ha sido el sueño de casi todos los investigadores de ese campo. Sostiene que todas las operaciones mentales son manifestaciones sofisticadas de complicados procesos computacionales, y que es irrelevante si tales procesos son llevados a cabo por un sujeto humano, un objeto físico o un dispositivo electrónico. Por lo que acepta que la mente humana puede ser reproducida o copiada para otro medio, el cerebro se considera un soporte más.
La IA fuerte asume que la mente está formada por algoritmos altamente complejos que pueden ser descifrado y convertidos en programas de computadora, y de ahí llegan a la conclusión que la mente humana puede ser digitalizada en una computadora
En cambio para la IA débil (menos radical que la anterior, y también más extendida desde el fracaso del enfoque idealista de los primeros años) computación no supone consciencia, y la simulación artificial de actividades mentales en ningún caso da origen a fenómenos mentales como dolor, reconocimiento, entendimiento o intencionalidad.
La IA débil considera que la mente funciona diferente a los sistemas de computación y solo aspiran a desarrollar sistemas informáticos que tenga un comportamiento tan inteligente como el del ser humano. Se acepta la creación de un algoritmo suficientemente complejo que podría ser codificado a través de un programa computacional y controlar un robot de la misma forma que lo haría un ser humano.
Siguiendo las ideas de John Searle: “La IA débil tiene por único objetivo simular estados mentales sin pretender por ello que las computadoras tengan conciencia,… El objetivo de la IA fuerte, por el contrario, es una computadora con conciencia”.
Y aquí es cuando surgió una interrogante, que ha perdurado hasta nuestros días: ¿si somos capaces de reproducir la mente humana en una máquina, esta será consciente? Lo cual llevó a las siguientes definiciones.
1. La consciencia no se puede atribuir a procesos puramente físicos y, por lo tanto, es inaccesible incluso a un abordaje científico arbitrariamente avanzado (metafísico)
2. La consciencia surge de procesos puramente físicos del cerebro pero sostiene que estos son tan complejos o tan alejados de la comprensión científica, que prácticamente no hay esperanza de que podamos duplicarlos (físico/irreproducible).
3. Es posible que podamos comprender y duplicar los procesos que dan lugar a la consciencia, aunque esto quizás resulte una labor extremadamente difícil (físico/reproducible).
4. La consciencia no es algo tan especial y que una máquina a la que se haya provisto de suficiente inteligencia, con el tiempo adquirirá consciencia de manera más o menos automática (trivial).
Los defensores de la IA fuerte están convencidos de que se podrán reproducir todas las capacidades humanas, incluyendo la consciencia en una máquina. Y aunque esta idea ha ido variando con el tiempo, no ha cambiado en su esencia.

Inteligencia artificial general

En sus inicios la inteligencia artificial (IA), intentó de salirse del esquema cibernético demasiado abarcador y, precisamente, se trazó como línea de investigación, propósitos más concretos, como el de reproducir la inteligencia en una computadora. Quizás por inercia, influidos, aun, por la cibernética, muchos de los investigadores siguieron trabajando en líneas más generales como el demostrador general de problemas (GPS en inglés) o los primeros intentos con las redes neuronales (que no soportó las críticas de Minsky). Todas estas líneas se fueron abandonadas y sustituidas por investigaciones más concretas, en realidad se quería que la inteligencia artificial (IA) fuera una ciencia exacta, de ahí el uso del aparato matemática y la creación de laboratorios de IA.
En matemática se perfeccionaron los cálculos estadísticos, el análisis del razonamiento, el tratamiento de la incertidumbre, la lógica matemática y una de las líneas más promisorias: la lógica difusa de Zadeh. También se crearon nuevos lenguajes de programación siendo el Lisp (creado por MacCarthy, uno de los padres de la IA) y el Prolog. Pero como decía una ciencia no está completa sino cuenta con modelos experimentales y la IA creó sus propios laboratorios para modelar la inteligencia.

El mundo de bloques

El laboratorio consistía en un brazo mecanismo controlado por una computadora y una mesa sobre la que se colocaban varios bloques, para que la computadora realizara diferentes operaciones sobre los bloques, como cogerlo, ponerlo encima de otro, quitarlo, seleccionar entre diferentes figuras: triangulo, cuadrado, etc. Con este ingenioso método se podían simular varias acciones humanas, como el lenguaje natural, ya que la comunicación en muchos casos era por medio del lenguaje natural, permitía el estudio de la planificación de tareas y el uso de agentes inteligentes que cooperaban en la solución, el estudio de la visión por computadoras y la representación de patrones, etc. A pesar de que algunos de forma despectiva le llamaron mundo de juguetes y criticaron sus logros sin tener en cuenta el impacto que han tenido posteriormente, muchas de las investigaciones que allí nacieron.
Por supuesto ninguna ciencia escapa a sus crisis internas y la IA no podía ser una excepción (Crisis de la inteligencia artificial). Quizás el detonante fue el optimismo exagerado de sus desarrolladores que llegaron a predecir que en los años 80s la IA igualaría a la mente humana, la realidad fue otra, la IA continuaba atascada queriendo encontrar una solucionador general de problemas, que era capaz de resolver complejos problemas matemáticos pero fallaba estrepitosamente ante cualquier problema elemental que requería de un mínimo de sentido común, han sido famosos muchos de estos lapsos de las máquinas que después de profundos análisis a ignorado soluciones obvias que hasta un niño podía determinar a simple vista. El caso más reciente es el de Google con su servicio de Photos que clasificó como gorilas a dos afronorteamericanos.
La crisis de la IA llevó a un mayor estrechamiento de sus líneas de investigación al concentrarse en los llamados dominio de aplicación y abandonar la idea de encontrar soluciones generales para todos los casos y a buscar soluciones particulares que luego pudieran irse generalizando, esto condujo a los sistemas expertos. Y fueron muchos los que vieron no solo una línea de investigación sino un nuevo mercado que podría generar grandes ganancias. Lo sistemas expertos no cumplieron con las expectativas y sobre todo, su impacto comercial fue bastante pobre, uno de los problema radicaba en ¿Quién le daba mantenimiento a la base de conocimientos? Lo que llevaba a un compromiso de por vida, que los hacía poco rentables. Piensen en los sistemas de base de datos que solo hay que introducir datos numéricos y todos los problemas que se presentan, lo que dio lugar a unnuevo enfoque de la inteligencia artificial.

Nuevas tendencias en la IA

• Redes neuronales: Las investigaciones comienzan a concentrarse en el cerebro y sus conexiones en lugar de los algoritmos de la mente.
• Agentes inteligentes: Se concentran en la inteligencia distribuida en diferentes agentes (con conocimientos parciales) que al integrarse logran resolver problemas complejos en lugar de grandes bases de conocimientos cerradas.
• Máquinas superinteligentes: Se cifra la esperanza en el hardware, máquinas cada vez más potentes (ley de Moore), que con el tiempo llegaran a superar la potencia del cerebro, en lugar de aspirar a descifrar la mente por medio del software.
• Algoritmos genéticos: Se aceptan los avances de otras ciencias tales como la biología, en lugar de en lugar de atrincherarse en modelos exclusivamente informáticos.
• Robots reactivos, se desarrollan pequeños robots capaces de interactuar con en el medio y que vayan aprendiendo de los obstáculos, en lugar de los sistemas basados en el conocimiento, que están desligado de la realidad y hay que alimentarlos de forma manual, de ahí que recibieran el mote de sistemas autistas.

Qué es la inteligencia general artificial (IA general)

Según sus creadores la IA general tiene las siguientes características
• Hace hincapié en el carácter del uso general de la inteligencia
• Asume un punto de vista holístico o integral de la inteligencia
• Cree que ha llegado el tiempo para construir una IA que sea comparable a la inteligencia humana.
Lo que nos acerca a la idea original de la IA que debido a sus tropiezos se fue separando de esos objetivos. Y retoma la idea de una IA fuerte (ver artículo anterior).
La IA general al igual que la llamada IA estrecha, se propone convertise en una ciencia exacta y define su línea teorica en tres campos
• Una teoría de la inteligencia,
• Un modelo formal de la teoría,
• Una implementación computacional del modelo.
El último punto me recuerda los laboratorios de IA donde se experimentaba con el mundo de bloques.
Hasta el momento, las principales técnicas utilizadas en proyectos IA general incluyen las técnicas de la IA clásica:
• Lógica matemática
• Teoría de la probabilidad (tratamiento de la incertidumbre)
• Sistema de producción (estrategias para las reglas)
• Base de conocimientos (representación del conocimiento)
• Algoritmos de aprendizaje (ahora se ha puesto de moda el aprendizaje profundo)
• Robótica (sistemas de planificación)
• Redes neuronales
• Computación evolutiva (algoritmos genéticos)
• Sistema multi-agente (agentes inteligentes)
La IA general, levanta cierto escepticismo, algunos creen que es más de lo mismo y se preguntan ¿Por qué ahora si? ¿Quién sabe?, tal vez se pueda aprender de los errores anteriores o a lo mejor las condiciones tecnológicas han cambiado tanto, que ahora si es posible. De esto seguiremos hablando en próximos artículos.
Recomendaciones:

No hay comentarios: