martes, 30 de junio de 2015

Los riesgos existenciales de una singularidad tecnológica


riesgos
 Comencemos resumiendo algunas de los conceptos que ya hemos tratado en otros artículos.

Postulados de la singularidad tecnológica

La singularidad tecnológica se sostiene sobre la idea del surgimiento de una superinteligencia artificial que provoca una explosión de inteligencia, esto significa que una vez que surja esta será capaz de construir IAs cada vez más inteligentes (El desafío de la inteligencia artificial) produciéndose un crecimiento exponencial de inteligencia (aceleración tecnológica), por lo que, la IA se convertirá en el motor impulsor de la singularidad y con ello de alcanzar una posthumanidad de forma directa, sin la transición transhumanista. La idea de Kurzweil es acelerar a las tecnologías para alcanzar cuanto antes la posthumanidad (reconstrucción del humano).

Veamos los presupuestos que se tienen en cuenta para lograr una explosión de inteligencia basada en el hardware:

Un primer postulado: La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica). Se puede lograr una inteligencia artificial por fuerza bruta, o sea que dada la velocidad de la máquina pueda analizar exhaustivamente todas las posibles soluciones. Este es el caso del ajedrez, la inteligencia de la máquina se basa en su velocidad para calcular las variantes, lo cual le permite prever los que puede suceder en el tablero.

Un segundo postulado: La inteligencia de las máquinas dada la complejidad que irán adquiriendo y las conexiones internas (circuitos) o externas (redes) podrá despertar como una entidad auto consciente. La emergencia, la cual asume, que debido a la velocidad en el procesamiento de la información de la máquina, llegará un momento, que podrá manipular una gran cantidad de información y dada su complejidad podría, también, despertar como una inteligencia.

Un tercer postulado: Las máquinas se irán auto construyéndose a sí misma, cada vez más perfeccionadas, más veloces, con más memorias, dotadas de mejores algoritmos; podrán llegar a convertirse en máquinas superinteligentes que superen a los humanos. Las máquinas al alcanzar cierta inteligencia serán capaces de construirse a si misma cada vez mejores hasta llegar a una superinteligencia.

Las cuatro singularidades tecnológicas

En la singularidad de Vinge, menos optimista y radical que Kurzweil, se plantean cuatro vías para alcanzar la singularidad tecnológica, la cual puede agruparse en dos grupos.


1.-Relacionada con una inteligencia artificial. Superinteligencia artificial
2.-Relacionada con la ampliación de la inteligencia

La ampliación de la inteligencia humana nos lleva a tres líneas de desarrollo
1.-Ampliacion de la inteligencia por medio de dispositivos cibernéticos. Se produce una conexión física entre los órganos biológicos con los artefactos cibernéticos. Superinteligencia hibrida.
2.-Ampliacion de la inteligencia por medio de la interacción (colaboración) entre humanos y medios cibernético. Aquí se produce una conexión lógica entre los humanos y las máquinas. Superinteligencia colectiva
3.-Ampliacion de la inteligencia por medio de la ingeniería genética. Se producen mejoras al organismo por medio de la aplicación de la biotecnología. Superinteligencia biológica.

Con respecto a la superinteligencia artificial, estamos hablando de una IA que se construirá para que esta sea cada vez más autónoma. Ahora la pregunta es, ¿a quién responderá esta superinteligencia artificial?

Teniendo en cuenta que será más inteligente que los humanos, es importante saber quiénes la van a utilizar y con qué fin. Por lo que al final estaríamos hablando de un software propietario, propiedad privada de alguien.

Por lo que tendremos varias posibilidades.
• Superinteligencia artificial creada (en sus bases para que siga mejorándose por si misma) por los centros de investigación.
• Superinteligencia artificial creada con fines militares, ya sea por militares o alianzas.
• Superinteligencia artificial creada por las grandes transnacionales como parte de su Know How, con fines económicos (las actuales grandes transnacionales de la información, encabezadas por Google).
• Superinteligencia artificial creada con fines comerciales, su propósito es vender los sistemas.
• Superinteligencia artificial creada por la comunidad de software libre.

Dilema tecnológico

El dilema de la superinteligencia consiste en: Si se debe desarrollar una inteligencia superior a los humanos o no. Cómo relacionarnos con las super inteligencias artificiales

Ahora en bien, caso de desarrollarse una IA superior a los humanos esta debe estar bajo el control humano o debe ser autónoma (auto programarse a si misma).

En caso que sea autónoma deberá, entonces:
– Integrarse al contexto social (sistema neoliberal)
– Tener su propio espacio vital
– Tener conciencia (máquinas espirituales)
– Programadas para que respondan a los intereses humanos (tener en cuenta todos los casos)

Veamos algunas consideraciones a tener en cuenta
• La IA debe surgir sobre el sistema social vigente y desarrollarse dentro de la ley del mercado. Y todo indica que se construirá dentro de una transnacional. La pregunta es: ¿Quién va a construir la IA y con qué fin? Lo más probable es que la IA llegue a comprender mejor que nadie la ley del mercado y se convierta en el millonario más grande de la historia, surgirá un super monopolio controlado por la IA. Por tanto, si aceptamos la estructura social actual, la mejor solución es el control de las tecnologías, cualquier otra solución se va de control y los riesgos son incalculables.
• No cambiar la mentalidad actual: hedonista, mercantilista, individualista, consumista. Basada en el tener, que solo busca el éxito (como fuerza externa). Los ricos ahora con la IA serán más ricos.
• La evolución de las máquinas es más veloz que los humanos y se considera que la evolución humana es demasiado lenta o está detenida, para muchos ya se agotó. Yo pienso que en la era de las tecnologías la evolución humana se va a acelerar y dará lugar simbiosis exógena y colaborativa.
• Querer que las tecnologías respondan a los humanos, pero… ¿No podrán las tecnologías tener sus propios intereses y construir su propio espacio vital y que este se complemente con el de los humanos?

La explosión de inteligencia

Cuando se habla de explosión de inteligencia se hace referencia a que surgirán máquinas, con más velocidad de cálculo (análisis de variantes), con mas memoria, con más capacidad para procesar la información: instrucciones, reglas… En fin, máquinas que de alguna forma simulan la potencia de un cerebro para el procesamiento de la información. Pero nada de esto nos indica que las máquinas puedan igualar (hasta el momento) el conocimiento humano. La explosión de inteligencia nos garantiza que podamos resolver problemas complejos desde un enfoque lógico-matemático (construcción de algoritmos), pero no que podamos conocer la complejidad del problema y su relación con las vivencias y necesidades humanas, si desechamos a los humanos por incapaces, entonces no hay de qué preocuparse.

El problema sigue siendo como representar los conocimientos humanos en una máquina y como esta será capaz de seguir aprendiendo y de aportar nuevos conocimientos para que se integren a un verdadero progreso humano, y este es otro problema. ¿Qué entendemos por progreso humano? Aunque parezca increíble, hoy estamos más claros del significado del progreso tecnológico, que del progreso humano. Y lo otro, ¿Cómo se integra el progreso tecnológico al progreso humano? O sea, cómo ese progreso tecnológico nos puede llevar a una ampliación de la inteligencia y de la sabiduría, no solo humana, sino colectiva (entre humanos y máquinas).

Los riesgos existenciales son las amenazas que están surgiendo desde el presente y que en el futuro podrían llevar a la extinción de la especie humana. Para muchos vamos a ciegas al futuro guiados por la ley del mercado y no por intereses verdaderamente humanos. Ahora de lo anterior surgen varia preguntas ¿Podemos construir un futuro sin riesgos? De seguir como vamos a qué futuro llegaremos? ¿Qué tenemos que hacer para cambiar el futuro? ¿Por dónde empezar?

Lo primero, sería definir qué tipo de futuro se quiere alcanzar sino no sabemos lo que queremos ni las acciones para lograr ese futuro, independiente, de los centros de investigaciones que se creen ni de las buenas intenciones, el futuro seguirá siendo incierto. Y es que seguir cómo vamos, no tendremos muchas opciones que ofrecer a la humanidad como no sea dejarse llevar por las tendencias del mercado y convertirse en un producto de las tecnologías.

Por otra parte enfrentamos el deterioro del planeta, que no es tanto el cambio climático, como que estamos consumiendo todos los recursos del planeta y lo estamos destruyendo y, de nuevo, nos estamos quedando sin opción, y solo nos queda recurrir a las tecnologías. Sin dudas, estamos empeñando nuestro futuro y dejándolo en manos de una tecno utopía salvadora.

A la hora de pensar en construir un futuro sin riesgos, tendremos dos una pesimista, que asume que todo lo que signifique un peligro debe ser prohibido o estar sometido al más estricto control o la optimista que asumen que todo debe seguir su curso y que el mercado por si solo puede regular todos los problemas o el tecno-optimismo que cree que las tecnologías son la solución a todos los problemas.

Lo anterior nos lleva a un gran dilema sobre el futuro, Inteligencia artificial el futuro del hombre, tenemos que elegir entre un futuro sostenible o un futuro poshumano. Hasta ahora, no sé porque, el futuro sostenible asume una visión pesimista y propone el control de las tecnologías (pensamiento bioconservador). Mientras el futuro poshumano propone no limitar el desarrollo de las tecnologías, ya sea porque el mercado de forma natural lo hará o porque las tecnologías siempre son buenas (pensamiento transhumanista).

Hay que estar consciente que cuando un transhumanista habla de riesgos existenciales esta incluyendo el riesgo de no alcanzar la transhumanidad y cuando un bioconservador habla de riesgos está considerando el peligro de que se alcance la transhumanidad. Y este es otro problema, para los transhumanista el que no se convierta a transhumano terminará siendo un ser inferior y obsoleto, con lo que estoy en total desacuerdo, y ese es otro tema, sobre el que hay que debatir y analizar. Por otra parte los bioconservadores ven al transhumanismo como una aberración que llevará a la humanidad a su propia destrucción, tampoco lo creo así. Hay razones suficientes para creer en que la humanidad puede superarse a sí misma y que seguimos ignorando todo el potencial que los seres humanos poseen.

Sobre estos temas hay varios centros trabajando, les recomiendo el escrito de Victoria Krakovna, Organizaciones centradas sobre los riesgos existenciales, como es lógico todos los centros radican en los EEUU, no lo digo en son de crítica, (son los que más conocen del tema) sino como un señalamiento de de que el futuro no se puede diseñar solo desde el norte, sueño con un mundo más participativo, por eso me parece muy interesante la iniciativa que se está llevando a cabo en The Millennum Project) sobre los trabajos futuros, el cual estamos promoviendo desde este blog en Proyecto Milenio, de lo cual hablaremos en próximas entradas.

Volviendo a los centros que se dedican al futuro de la humanidad, no me queda claro de qué futuro se está hablando (sostenible o poshumano) ni que se entiende por sostenibilidad (fuerte o débil), ni qué tipo de evolución se va a producir teniendo en cuenta la simbiosis que se está produciendo entre humanos y tecnologías. En fin todavía quedan muchas cosas por definir y en las que hay que ponerse de acuerdo, porque la incertidumbre del futuro nos enfrenta a riesgos demasiado complejos y escurridizos para querer controlarlos o prohibirlos sin una profunda comprensión de lo que somos como seres humanos.

En el artículo anterior habíamos mencionado la necesidad de definir el tipo de futuro que se quiere lograr, si un futuro sostenible o un futuro posthumano para saber hacia dónde queremos ir y que acciones se deben llevar a cabo para realizar ese futuro, independiente, de la posición que se asuma y la colaboración que se establezca, es condición necesaria alcanzar una coexistencia entre todas las ideologías y visiones del futuro.
Pero primero es necesario retomar el tema de la singularidad tecnológica.

Actualmente estamos ante una explosión de conocimientos donde el progreso tecnológico (tecnologías emergentes) nos lleva a un nuevo conocimiento, tenemos que aprender cómo manejarnos con las tecnologías que en un futuro serán inteligentes y se producirá una explosión de inteligencia que desatará, a su vez, una mayor explosión de conocimientos que podría sacar de juego a los humanos (los humanos dejaran de participar en la nueva explosión de conocimiento y esta terminar siendo dominio exclusivo de las máquinas)
Todos los enfoques sociales y ecológicos actuales tienen en cuenta un crecimiento lineal donde solo existe la dimensión socioeconómica y no se tiene en cuenta la dimensión tecnológica y su aceleración (explosión de inteligencia) que nos llevará a una explosión de conocimiento más allá del alcance de las capacidades del humano actual, de ahí que para muchos, no haya otra opción que fusionarse con las tecnologías (futuro posthumano), la sostenibilidad tecnológica es la búsqueda de un futuro sostenible.

Mi preocupación no es que la IA sea más inteligente, más amigables, ni más robusta sino que los humanos sean capaces de ampliar su inteligencia y su sabiduría junto a la IA, ya que en realidad estamos proyectando nuestra preocupación por nosotros mismos sobre la IA, y tememos que esa superinteligencia pueda hacer cosas peores que nosotros.

Considero que la justificación a los diferentes sistemas lo da la simbiosis que se está produciendo entre humanos y tecnologías. Estamos hablando de una relación simbiótica y es que, por primera vez en la historia de la humanidad; podemos decidir, ya no solo que tipo de religión, de moral, de sociedad y de educación queremos sino también, qué tipo de evolución queremos alcanzar y a qué futuro queremos llegar.
En mi opinión el gran acontecimiento no va a ser el surgimiento de una superinteligencia sino la simbiosis que se está produciendo, desde hoy, entre humanos y tecnologías. Y si somos capaces de guiar la evolución humana hacia generaciones cada vez mejores.
  • Ectosimbiosis – Futuro sostenible
  • Endosimbiosis – Futuro poshumano
Todo indica que nuestro dilema actual será escoger entre un futuro sostenible o un futuro posthumano. Siguiendo a la prospectiva podemos asumir cuatro actitudes frente al futuro.
  • Pasiva: no hacer nada
  • Reactiva: política de apagafuegos
  • Pre – activa: anticiparse a los cambios
  • Pro – activa: provocar el cambio

Futuro sostenible (Bioconservadurismo – Sostenibilidad) vs Futuro posthumano (Transhumanismo – Singularidad)

Veamos los seis escenarios que se están produciendo

1.-Posicion fácil: Aceptar el progreso tecnológico como un proceso inevitable (imperativo tecnológico) que se inserta en la ley del mercado.
  • No hacer nada, nos lleva a buscar que el capitalismo siga creciendo y a la necesidad de sustituir los recursos naturales por artificiales y a las tecnologías de mejoras sobre el ser humanos.
  • Se acepta un accionar reactivo con respecto al deterioro del planeta. Sostenibilidad débil.
  • Nos lleva a un transhumanismo liberal y al tecno-liberalismo (transnacionales)
  • Se produce una evolución semi-artificial dentro de una endosibiosis mutual
  • Personalidades. Es representativa de las grandes transnacionales y las elites de poder. Hay una ruptura con los valores del capitalismo tradicional pero sigue dentro de los principios del neoliberalismo. Es el neoliberalismo en la era tecnológica
2.-Posicion de compromiso: Preactivo con respecto al progreso tecnológico y al progreso humano
  • Evitar los riesgos de una singularidad pero desde un pensamiento transhumanista (transhumanismo democrático)
  • En lo socioeconómico caen dentro de la social democracia
  • Casi todos los centros dedicados a los riesgos existenciales se incluyen en esta posición (aunque no estén definidos explícitamente) ya que se proponen dentro de un transhumanismo responsable
  • Con respecto al planeta les preocupa el deterioro del planeta por lo que asumen posiciones de un desarrollo sostenible moderado
  • Se produce una evolución semi-natural teniendo como fundamento una endosinbiosis comensal.
  • Personalidades: Bostrom y Hughes dada su formación filosófica son los más representativos pero aquí pueden incluirse todos los defensores de una IA robusta, amigable y los que quieren evitar los riesgos de las tecnologías emergentes. Social democracia en la era tecnológica
3.-Posicion de ruptura: Acelerar a las tecnologías para alcanzar cuanto antes la singularidad tecnológica
  • Accionar proactivo que propone la construcción de superinteligencias artificiales, donde de forma explícita (Moravec) o de forma implícita (Kurzweil) las maquinas sustituirán a los humanos.
  • No se tiene en cuenta el deterioro del planeta, ya que este será reconstruido (planeta artificial). Estamos hablando de una sostenibilidad muy débil
  • Evolución artificial desde una endosimbiosis parasitaria
  • Personalidades: Moravec (el más consecuente), Vinge (el más abarcador) y Kurzweil (el más comprometido). Se ve en el tecnologismo la solución a todos los problemas más allá de la economía de mercado y de cualquier otra solución. Hay una ruptura con los principios del neoliberalismo por la concepción de un nuevo sistema donde las tecnologías son el verdadero protagonista. La era tecnológica sin límites.
4.-Posicion absoluta en defensa de la sostenibilidad y su evolución natural. Prohibir la singularidad
  • Actitud cercana al bioludismo
  •  Accionar proactivo con respecto a la sostenibilidad (ideología biocentrista)
  • Involución natural. Retornar a la naturaleza (sostenibilidad muy fuerte) desde una
  • ectosimbiosis parasitaria. Futuro sostenible bajo el respeto absoluto de la evolución natural.
  • Como sistema se cae dentro del socialismo ecologista (ecos—socialismo)Personalidades: los ecologistas, se propone una ruptura con el neoliberalismo y con el egocentrismo humano. Y la ecología se convierte en la salvación de la humanidad. Existen ONG enfocadas al tema.
5.-Posicion conciliadora entre el medio ambiente, el desarrollo social y el crecimiento económico. Se pretende controlar a las tecnologías para que no se escapen de las manos
  • Actitud preactiva con respecto al progreso en general, tanto humano como tecnológico.
  • Control de las tecnologías para que no se conviertan en una superestructura (singularidad tecnológica). Infraestructura tecnológica
  • Se prioriza la sostenibilidad por encima de los demás problemas, lo cual lleva a la búsqueda de tecnologías sostenibles y controlar a las tecnologías emergentes. Desarrollo sostenible
  • En lo político se defiende una social democracia de corte ecologista
  • Evolución socio-cultural desde una ectosimbiosis comensal. Futuro sostenible desde un equilibrio ecológico, social y económico donde lo tecnológico y lo espiritual se subordinan a lo anterior.
  • Personalidades: los defensores del desarrollo sostenible. Los que son considerados bioconservadores (ej. El grupo ETC), la mayoría de las ONG relacionadas con el medio ambiente, la UNESCO, etc.
6.-Posicion transformadora: Futuro sostenible proactivo se busca lograr un progreso donde las tecnologías y los humanos colaboren por un futuro sostenible. Futuro sostenible en la era tecnológica
  • Actitud proactiva tanto ante la singularidad como ante la sostenibilidad
  • Desarrollo de una superinteligencia colectiva. Superestructura tecnológica sostenible.
  • En lo político se defiende un socialismo comunitario (empoderamiento de la humanidad en toda su dimensión: tecno-bio-sico-social). Ideologia transdisciplinar
  • Evolución trascendente desde una ectosimbiosis mutual
  • Personalidades: Dando su enfoque transdisciplinar son muchas: Erick Fromm, Buda, Norbert Wiener, Stalman, Alejandro Madruga, Manturana, Valera, Frijot Capra, Baterson, Edgar Morin, Carlos Delgado… Donde cada cual ha aportado su granito de arena. No existe una institución como tal que desarrolle esta cosmovisión, lo más cercano son las instituciones dedicadas al pensamiento complejo.
En este último se defiende la cosmovisión de un Futuro sostenible proactivo desde una evolución trascendente. Que parte de un desarrollo sostenible ampliado a lo espiritual y lo tecnológico donde se produce una colaboración entre humanos y tecnologías. Se hace necesario aprender a convivir con otras inteligencias, otras formas de vida, lo cual lleva a un progreso humano proactivo que busca desarrollar todo el potencial humano.

Cuan hablo de evolución trasncendente me refiero a una ectosimbiosis mutual donde los humanos evolucionan desde su propia espiritualidad desarrollando su fuerza interior, siendo actores sociales de los cambio (empoderamiento humano) y desarrollando nuevas formas de colaboración entre humanos y tecnologías. Este es un tema sobre el que hay que trabajar, se necesita de unir esfuerzos, para encontrar una guía para el progreso humano y la preservación de la vida en la era de las tecnologías.

viernes, 19 de junio de 2015

El gran desafío de la humanidad, en la era de las tecnologías

portada-desafiosEl libro es un desafío al pensamiento convencional y se constituye un instrumento valioso para pensar. Pero lejos de promover un pensamiento lineal como todo ensayo de anticipación implica un complejo juego de bifurcaciones, puntos de inflexión y una tensión constante entre pasado y futuro.
Y constituye un extraordinario esfuerzo en desentrañar nuevas conformaciones de mentalidades, intereses y potenciales consecuencias de nuevos operadores de la escena global, para muchos científicos sociales todavía inadvertidas. Su explicación de la naturaleza humana como una criatura bio-psico-social, incluyendo como cuarta característica constitutiva la tecnología me parece de importancia sustantiva. Tan válida como la percepción del riesgo que implica la capacidad de las tecnologías para incrementar su inteligencia y autonomía. Situación esta recientemente advertida por destacados científicos y líderes sociales, al advertir sobre las amenazas implícitas en el desarrollo de la inteligencia artificial.
Miguel Ángel Gutierrez.

El Ensayo se divide en cuatro temas :

1. Del fin de la historia al fin de la especie humana

Se hace un análisis del pensamiento de Fukuyama y de los errores contenidos en su libro “el fin de la historia”, desde su propia valoración.

2. El fin de una especie y el surgimiento de otra

Se analizan los presupuestos del transhumanismo y las diferentes visiones que han surgido tanto a favor como en contra, y el llamado enfrentamiento biopolítico. Así como las preocupaciones que está generando el transhumanismo, lo cual llevo a Fukuyama a decir que es la idea más peligrosa del mundo.

3. La supervivencia de la especie humana

¿Se están cumpliendo los objetivos del desarrollo sostenible? Se cuestionan los objetivos actuales para lograr un futuro sostenible ante el impacto cada vez mayor de las tecnologías emergentes.

4. Hacia un progreso humano verdaderamente digno

Se exponen los posibles escenarios futuros y las alternativas de que se dispone para lograr un futuro sostenible en la era de las tecnologías.

El ensayo persigue llevar a cabo una valoración del camino que estamos transitando y hacia qué futuro nos dirigimos, hoy todo parece indicar que, por inercia, nos dirigimos hacia un futuro posthumano, de ser así, ¿Qué consecuencias tendría? ¿Si es eso lo que deseamos para nuestros hijos? ¿Tenemos alguna alternativa? Y sobre todo, ¿Qué iniciativas llevar a cabo para cambiar ese futuro?

Disponible en Amazon

lunes, 1 de junio de 2015

Las cuatro singularidades tecnológicas


relacion-humanos Cuando se habla de singularidad tecnológica se piensa solo en el surgimiento de una super inteligencia artificial y se subestiman el resto de las tendencias y peor aun existe gran confusión sobre que es la singularidad tecnológica y que es el transhumanismo, y más aun, existen diferentes posiciones dentro de los defensores de una singularidad tecnológica, porque no es lo mismo la singularidad que defiende Moravec, que la singularidad que defiende Kurzweil.

Hace algunos años propuse una clasificación de la singularidad tecnológica siguiendo la idea de Vinge, quien, en mi opinión tiene la concepción más clara y abarcadora de la singularidad, tanto la de Kurzweil como la de Moravec, resultan un poco confusas. En cambio Vinge separa las singularidades (vías para alcanzarlas) en cuatro tendencias de acuerdo al tipo de super inteligencia que podía surgir, a las que yo llamé: superinteligencia artificial, superinteligencia hibrida, superinteligencia colectiva y superinteligencia biológica.

También, siguiendo a Vinge, trate de ampliar la idea de una singularidad tecnológica como el momento en que las tecnologías se convertían en una superestructura capaz de compartir las decisiones del planeta con los humanos. Pero siempre me quedaba algo confusa la relación entre las diferentes superinteligencias y si estas podían coexistir entre sí (eso no le queda claro a nadie), y lo más lógico dado nuestra actitud ante los problemas actuales que todo lo queremos resolver por medio de amenazas y sanciones, actitud que nos está arrastrando a un enfrentamiento mundial de consecuencias impredecibles. Por eso no sería nada extraño que las superinteligencias también se enfrentaran aludiendo nuevas causas y justificando el predominio del más fuerte.
Últimamente prefiero hablar de una simbiosis entre humanos y tecnologías, lo cual me aclara muchos de los conceptos que hasta ahora me parecían algo confusos, antes de seguir hablando de la simbiosis, prefiero aclarar algunos conceptos y confusiones entre singularidad tecnológica y transhumanismo. Son muchos los que hablan de transhumanismo, humano mejorado y singularidad tecnológica como si fuera lo mismo. En realidad hay intenciones muy diferentes entre uno y otro, y también aspiraciones y consecuencias diferentes.
Para los transhumanista la esencia de sus postulados radican en alcanzar la superhumanidad, ellos buscan, por medio de las tecnologías, superar sus límites humanos y lograr ser más inteligentes, mas fuertes, más bellos, saludables, etc. La singularidad tecnológica se sostiene sobre la idea de que las máquinas sean cada vez más inteligentes hasta igualar a los humanos y luego superarlos. Según Moravec, esto es un proceso inevitable, ya que la evolución de las máquinas (progreso tecnológico) es superior a la evolución humana y ve a las máquinas como las herederas naturales del planeta. En cambio, Kurzweil, ve las ventajas que esto reportará para los humanos, ya que esa superinteligencia artificial, muy superior a la humana, será capaz de resolver los grandes problemas que los humanos no han podido resolver, y esta convencido de que la inmortalidad será posible.

Si para los transhumanistas la superhumanidad, se puede alcanzar  con transformaciones paulatinas, desde ellos mismo, convirtiendose en un individuo cada vez más inteligente, más joven y saludable, así hasta alcanzar la inmortalidad. La singularidad desplaza sus aspiraciones a que las máquinas sean cada vez más inteligentes y apuestan por una futura transferencia de la mente a un medio digital (mind uploading), de ahí que existan muchas personas que están criogenizando sus cabezas, para algún día, cuando se alcance la singularidad, descarguen su mente sobre un nuevo soporte que le permita existir en un medio digital, estamos hablando de lo que actual mente se le llama “la nube”, lo cual nos lleva a la posibilidad futura de vivir en un mundo digital al estilo Matrix.

Cuando hablamos de descargar la mente en un mundo digital estamos asumiendo que la mente no es otra cosa que complejos algoritmos que pueden ser convertidos a programas, la metáfora de la computadora que sume que la mente no está conformada por programas y que el cerebro no es otra cosas que un sistema que procesa información al igual que la computadora. De ahí que se pueda transferir la mente, en forma de programas, software, codificarse digitalmente; como quiera llamarse. Al final vamos a tener un programa que es la representación virtual de la mente humana. Por supuesto que la cosa no termina aquí, lo bueno sería lograr que la mente se pueda seguir reprogramando y perfeccionándose en nuevas versiones, idea de Kurzweil. A mí me viene a la mente el cuento ¿Existe verdaderamente Mr.Smith? , de Stanislaw Lem, de una hombre que compite en carrera de autos y cada vez que tiene una accidente le ponen una prótesis, así hasta que al final solo está compuesto de prótesis; ya no tiene nada de humano. Aquí estamos ante una transformación por hardware, en el caso de la mente estaríamos en una transformación por software ya que al final se estaría reprogramando a la mente en nuevas versiones cada vez más algorítmicas (más cerca de ser un software) que al final no tendría ninguna relación con la mente que le dio origen y podríamos preguntarnos: ¿Existirá verdaderamente Mr. Kurzweil?

 Nos acercamos a una singularidad tecnológica donde las tecnologías se convertirán en una superestructura y participarán de las decisiones del planeta como una inteligencia más, independientemente de si las personas se conectan físicamente a la tecnología o no (Wikipedia), por supuesto,  que esto no tiene porque suceder. Están los que piensan que la solución es ir cuanto antes a una singularidad tecnológica y los que piensan todo lo contrario y proponen la prohibición de la mayoría de las tecnologías emergentes, también, están los que creen que la singularidad tecnológica no pasa de ser una tecno-utopía y nunca sucederá.
La idea central para que surja una singularidad tecnológica es el surgimiento de una inteligencia suprahumana. Vinge, utiliza el término de máquina ultra inteligente y la define como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independientemente de la inteligencia de éste y está convencido de que esa inteligencia superior será la que impulsará el progreso, el cual será mucho más rápido e incluso superará a la actual evolución natural. Destaco esto último, que superara la evolución natural, por lo que estamos asumiendo que el futuro (después de la singularidad) surgirá una evolución superior a la actual.

Sabemos, que en la actualidad, la humanidad no se rige totalmente por la evolución natural sino por una evolución socio-cultural, por suerte ya no se cumple la ley de la supervivencia al pie de la letra como en época del hombre de las cavernas y parece como si la ley del mercado hubiese sustituido a la ley de la selva, y la lucha pasó de los territorios a los mercados. Tampoco se utilizan los mismos métodos, las agresiones militares se han ido transformando en agresiones económicas (sin abandonar las acciones militares). En fin, la lucha por el poder, con otros métodos, sigue siendo la misma.

Volviendo al tema, estamos hablando de una superinteligencia capaz de superar a la inteligencia humana en todos los aspectos, yo no estaría tan seguro de que podría superar a los humanos en todos los aspectos, y que esta inteligencia artificial sería a su vez capaz de autoprogramarse y desarrollar programas cada vez más inteligentes y surgiría así una explosión de inteligencia. Esta es la idea de una singularidad tecnológica basada en el surgimiento de una superinteligencia artifical.

No olviden que los defensores de una singularidad parten de la idea de que el cerebro humano no tiene ningún cambio significativo durante milenios (a diferencia de las máquinas que se asume que pueden autoconstruirse en versiones cada vez más potentes).

Para el logro de una inteligencia superhumana, existen dos grandes vías
El de una inteligencia artificial que se hace cada vez más inteligentes, como ya mencionamos
El de la amplificación de la inteligencia humana. Existen tres formas de ampliar la inteligencia humana y crear una superinteligencia (inteligencia superior a la de los humanos)
• Superinteligencia hibrida, producto de la fusión entre humanos y tecnologías
• Superinteligencia biológica, modificación por ingeniería genética del cerebro
• Superinteligencia colectiva, producto de la colaboración entre humanos y tecnologías

Super inteligencia artificial: Se acepta el concepto de una inteligencia artificial (IA) que supera a los humanos, es condición necesaria. Estamos hablando de una IA que se desarrolla a sí misma de forma independiente a los humanos, como la define Moravec, y según él, las máquinas inevitablemente desplazarán a los humanos (endosimbiosis parasitaria, ver Relación simbiótica entre humanos y tecnologías)

Superinteligencia hibrida: Aunque no es obligado, sin dudas los humanos necesitarán de una IA para fusionarse con ella, no se puede hablar de un ciborg, si la máquinas como tal, no son capaces de mejorase a sí mismas (endosimbiosis mutual).

Superinteligencia biológica. Este es el único caso que no necesita del surgimiento de una IA para que sea capaz de lograr una superinteligencia (endosimbiosis comensal)

Superinteligencia colectiva. También es necesario el surgimiento de una superinteligencia donde las IAs se hacen cada vez más inteligentes pero en cooperación con los humanos y ambos se perfeccionan por medio de un aprendizaje cada vez más acelerado y perfeccionado (ectosimbiosis mutual)

Superinteligencia colectiva

Como defensor de una superinteligencia colectiva, he estado pensando sobre algunos conceptos que es necesario aclarar.

El aprendizaje de la máquina en el mundo real (que no es lo mismo que en un laboratorio), hasta hoy, no permite que se puedan programar todos los conocimientos (ir construyendo manualmente una base de conocimientos sobre el mundo real) la experiencia ha llevado a que la máquina debe ser capaz de aprender por sí misma.

Lo cual nos lleva a que la máquina pueda construir programas cada vez más inteligentes a la vez que va construyéndose a sí misma. Aquí hay un problema, se supone que en estos programas la máquina le transfiera su experiencia a la nueva máquina, por tanto el acto de autoprogramarse es una acción que requiere de un aprendizaje que se va a trasmitir por la elaboración de códigos de programas que serán incluidos en la nueva máquina (al igual que los humanos requieren de un aprendizaje que debe ser asimilado)
Por tanto, cuando se habla de máquinas más inteligentes se refieren a una máquina que construye otra más potente: más capacidad de memoria, más velocidad de cálculo y se ignora la necesidad de un aprendizaje y de una experiencia adquirida en la práctica.

Entonces, la máquina al igual que los humanos estará sometida a un proceso de aprendizaje, de una experiencia y de una especialización en ciertas actividades. O sea, estamos hablando de acelerar el aprendizaje.

Por eso en lugar de una explosión de inteligencia que se refiere a máquinas que construyen máquinas cada vez más potente, prefiero hablar de una explosión de aprendizaje donde las máquinas tendrán que ser capaces de aprender y a su vez de construir máquinas capaces de aprender más y mejor. Y en este caso, están tanto los humanos como las máquinas, ambos tienen que aprender a aprender.

Siguiendo con el aprendizaje, las máquinas tendrán que aprender del mundo real, de los textos, de la experiencia humana, de las instituciones educativas humanas. Entonces, ¿como se harán más inteligentes que los humanos? Su potente hardware necesitará de una fuente de conocimientos que los humanos no podrán darle (dado sus lentos cerebros) y podría suceder que vieran a los humanos como un obstáculo para su crecimiento. ¿Qué pasaría si dotáramos a un tigre de una superinteligencia, primero se convertiría en el depredador más eficiente que jamás haya existido y después consideraría a la raza humana un peligro y, sin dudas, la destruiría.

Por suerte existe una solución, las máquinas y los humanos deben aprender juntos, ambos deben hacerse cada vez más inteligentes (y sabios) e ir acelerando el aprendizaje y con ellos las fuentes de conocimientos, las instituciones educativas, los medios de aprendizaje, en general se debe transformar la cultura actual exclusivamente humana por una producto de la colaboración entre humanos y máquinas, estamos hablando de una superinteligencia colectiva.

De una parte tendremos máquinas mejores dotadas que se irán construyendo y, de la otra, niños que irán naciendo también mejores dotados (dentro de una ectosimbiosis mutual como base de la evolución) y que, ambos, estarán sometidos a una educación cada vez más avanzada (aceleración del aprendizaje).

viernes, 29 de mayo de 2015

Relación simbiótica entre humanos y tecnologías


Simbionte Los defensores de la tecnología asumen que la evolución de la especie humana es demasiado lenta y la comparan con la evolución de la tecnología la cual se acelera por año, partiendo de la idea de la ley de Moore. Idea que nos lleva al surgimiento de una singularidad tecnológica, tal como la propone Vinge y posteriormente Kurzweil, lo cual nos conduce inevitablemente a un futuro posthumano.
Ahora bien, el concepto clave para ese futuro posthumano donde las máquinas superan a los humanos, que tipo de relación se establecerá entre la “limitada” especie humana, prácticamente condenada a desaparecer, y las máquinas con su imparable crecimiento que parece no tener límites. Y todo parece indicar que a los humanos no les queda más remedio que fusionarse con las tecnologías, dado las ventajas que esto le reportará, lo que nos lleva a la ideología transhumanista.

¿Entonces? Estamos hablando de una simbiosis entre humanos y tecnologías, relación que ya se está produciendo desde hoy. Ahora, ¿Qué se consideraría una relación simbiótica entre humano y tecnologías?
Tal como se conoce en biología, las relaciones simbióticas se definen como la relación cercana y persistente entre organismos de diferentes tipos y por lo general con efectos benéficos para al menos uno de ellos. Termino utilizado por el botánico alemán Anton de Bary, en 1879. Es bueno destacar que esas relaciones cercanas algunas veces llevan a un tipo de evolución produciendo cambios genéticos. O sea la relación simbiótica puede alterar la evolución de una de las especies.

Hasta ahora nos referíamos a una simbiosis entre dos especies biológicas, pero nada prohíbe que se produzca una relación de dos organismos diferentes (humanos y tecnologías) dada su cada vez más cercana interacción y dependencia. En el artículo Humanos y tecnologías, hacia una nueva relación (2), mencionamos los tipos de simbiosis que se producen y sus características.

Sin entrar en temas específicos de la evolución biológica (no soy experto) es bueno destacar el concepto de Lynn Margulis, quien en su teoría simbiogenética destaca el papel de la simbiogénesis en la evolución al definir a la unión de distintos organismos para formar nuevos colectivos, como fuerza más importante de cambio sobre la Tierra. En otra parte, afirma: “Generan nuevas poblaciones que se convierten en individuos simbióticos multiunitarios nuevos, los cuales se convierten en «nuevos individuos» en niveles más amplios e inclusivos de integración. La simbiosis no es un fenómeno marginal o raro. Es natural y común. Habitamos un mundo simbiótico”. Lo cual viene a apuntalar el concepto de la simbiosis como fuerza de cambio y de transformación evolutiva.

De lo anterior se desprende la siguiente conclusión, si los humanos quieren seguir evolucionando no tienen más opción que alcanzar alguna forma de simbiosis con las tecnologías, simbiosis que, en primer lugar, tiene que ser beneficiosa para los seres humanos. Ya sea una ectosimbiosis, habría que ver de qué tipo o de una edosimbiosis, también, de que tipo.

En artículos anteriores habíamos visto que los transhumanistas defienden la idea de una endosimbiosis (mutual o comensal) o sea una fusión entre humanos y tecnologías en cambio los bioconservadores defienden una ectosimbiosis de corte comensal, podemos afirmar que actualmente, estamos viviendo dentro de una ectosimbiosis comensal, ya que las tecnologías son exógenas y se utilizan como herramientas, situación que ha ido cambiando con las tecnologías cognitivas y es especial con el progreso que está teniendo la inteligencia artificial.

La queja habitual de los tecnologista a la evolución humana consiste en que esta es demasiado lenta y que no compite con la acelerada evolución de las máquinas. Por lo que el problema es como acelerar la evolución de los humanos para la nueva era que se avecina.

Muchos tienden a simplificar la idea de la evolución y asumen que la única solución es una evolución artificial donde las tecnologías no solo asumen el control del planeta, como muchos piensan, sino, tambien,  la reconstrucción de la vida en el planeta. En realidad el problema es mucho más complejo y no se puede perder de vista que la decisión final, aun la tienen los humanos y si queremos comprender la evolución que nos espera debemos enfocarla dentro del esquema de una simbiosis entre humanos y tecnologías y del tipo de interacción que se produce entre ambos.

Tipos de simbiosis

Ectosimbiosis parasitaria.

Los humanos deciden retornar a la vida natural (esta opción se ve como viable si sucede una catástrofe en la que los humanos prácticamente destruyen el planeta y deciden prohibir al progreso tecnológico. Estamos convencidos que cualquier prohibición del desarrollo nos llevaría a una involución de la especie humana. La justificación seria el miedo a los peligros que encierran las tecnologías y la ven como un peligro para la propia condición humana y a su espiritualidad o como un peligro social donde las tecnologías lo van a ir desplazando.

Escenario: Se imponen las tendencias luditas y las tecnologías son prohibidas en su mayoría y solo se producen en el mercado negro, los que son perseguidos, lo que lleva a un enfrentamiento, las tecnologías se van volviendo obsoleta y se fomenta el desarrollo de tecnologías malignas. Se impone una ecología radical y se comienza un retroceso en el progreso.

Ectosimbiosis comensal

Es la que existe en la actualidad, las tecnologías son utilizadas como un medio: medio de trabajo (sustituye la fuerza bruta), medio de comunicación, medio de transporte, medio calculo, etc. Y el peligro está en el uso que le den los humanos. Las tecnologías tienen una sola función beneficiar a los seres humanos, los cuales deben tener un control casi absoluto sobre estas. Sabemos que esto no es ni será así y que las tecnologías dado la ley del mercado seguirán avanzando y su uso se irá generalizando a todas las esferas del saber. Esta idea forma parte del paradigma del desarrollo sostenible que plantea el principio de precaución y un desarrollo preferencial de las tecnologías renovables y no contaminantes que permitan el crecimiento económico sin deteriora al planeta.

Escenario: Las tecnologías son controladas, el desarrollo de la IA, también, es controlado y se limitan las tecnologías de mejora a casos particulares. Las tecnologías como infraestructura, están en función del desarrollo humano sostenible y no pasan de ser un medio dentro de una ideología eco-socialista.

Ectosimbiosis mutual

Relación donde tanto los humanos como las tecnologías se benefician, se produce una cooperación entre ambos. Se acepta el progreso tecnológico y se busca el mejoramiento social se trabaja en el el surgimiento de una IA débil (inteligencia diferente a la humana, con su propio espacio vital). Se favorece la superinteligencia colectiva dentro de una sostenibilidad tecnológica.

Escenario: Es la única que podría coexistir con las demás superinteligencias ya que se propone dentro de una estructura social colaborativa en la que todo tiene cabida, siempre que se respeten entre si. El problema está en la estructura social, una estructura competitiva solo puede llevar a una superinteligencia artificial, si el más apto, que predomine sobre las demás. Mientras en una estructura colaborativa no exístela hegemonía, ni la lucha por el poder, se basa en la colaboración entre humanos y tecnologías, sin importar si estas son inteligentes, de mejora, etc., lo que importa es que asuman el papel de colaborativas.

Endosimbiosis parasitaria.

Sustitución de los humanos por las tecnologías. Las tecnologías vienen a salvar al planeta, a resolver todos los problemas que los limitados humanos no han podido resolver y estos deberán ser reprogramados por las tecnologías (inmortalidad digital). Los humanos solo pueden vivir dentro de la tecnología, mundos virtuales, como programas que representan (copias) la mente de un humano, la ansiada superinteligencia artificial.
Aceptando que la biología es una limitación, los humanos no pasaran de ser simples mascotas. El ciborg, terminará siendo un robot total (¿dónde está Mr. Smith?). Al final solo tendremos programas inteligentes (que alguna vez fueron mentes o copias de la mente) y máquinas inteligentes (que alguna vez fueron un cuerpo).

Escenario: Las maquinas como herederas del planeta. Ocupan el punto más alto en la sociedad, los ciborg, humanos+, mentes digitales y humanas, quedarían subordinados a sus leyes, también los software (mentes digitales).

Endosimbiosis mutual.

Fusión entre humanos y tecnologías (el Cyborg). Ante el progreso tecnológico y su superioridad sobre el progreso humano, por lo que este no tiene más opción que fusionarse con la tecnología dando lugar a una superinteligencia híbrida. La endosimbiosis mutual, consiste en los mejor de las tecnologías con lo mejor de los humanos, relación en la que ambos se favorecen por medio de la fusión (endógena). Esto explica porque el actual rechazo de Kurzweil por el transhumanismo, ya que no es el futuro que él desea ya que su desarrollo conduce a una IA distribuida de carácter más bien débil en lugar de una IA fuerte como él desea.
Escenario: Predomina la superintleigencia hibrida, no se alcanza la singularidad en el sentido de Kurzweil sino como una forma de transhumanismo que va progresando por medio de la convergencia tecnológica (NBIC), la IA nunca alcanza a superar la velocidad (viabilidad) de la inteligencia transhumana y esta ocupa la cima del desarrollo. Puede ser que las tecnologías inteligentes sigan siendo un ideal (no son posibles técnicamente) o que sean restringida por temor a sus riesgos (no se acepta una IA fuerte).

Endosimbiosis comensal.

Relación donde los humanos esperan beneficiarse de las tecnologías, sobre todo por medio de la ingeniería genética, por lo que estaremos ante una superinteligencia biológica.

Escenario: Se acepta las tecnologías de mejore (sobre todo las biológicas) para mejorar al humano. Se produce cuando la biotecnología logra soluciones más avanzadas y factibles que el resto de las tecnologías. También podría producirse si las demás no tiene la aceptación (clientes) necesaria. Los ciborg no prosperan la tendencia es por las mejoras basadas en la biotecnología y se alcanza aumentando la inteligencia y la sabiduría por estos medios, relegando a otras tecnologías de mejora, siendo posible que no se acepten las mejoras por tecnologías conexas y no sean aceptados en competencia deportivas, o laboralmente, o en la política nadie quiera votar por una ciborg. En este caso no se logra la superinteligencia artificial, sobre la cual se podría ejercer un fuerte control para evitar los riesgos (como está sucediendo actualmente)

miércoles, 11 de febrero de 2015

Como relacionarnos con las super inteligencias artificiales (3)


HEADER-IMAGE_SMALL2Hasta ahora hemos estado escribiendo sobre el problema de una super inteligencia artificial (super IA) y como será su impacto en la sociedad, pero existen otros intereses que no solo incluyen la idea de alcanzar una super IA, hay quienes tienen otros objetivos para el futuro de la humanidad y ven que la solución consiste en alguna forma de fusión con las tecnologías, dado su crecimiento acelerado y el peligro de dejar atrás a los humanos. Con el fin de esclarecer las posiciones analicemos los puntos de vistas más representativos.

1.-La mayoría de los futuristas coinciden en la necesidad de transformar al humano actual, sobre todo en su biología por medio de las tecnologías.
  • Aumentar sus facultades, lo cual permitiría a los humanos ser más exitosos
  • Fusionarse con las tecnologías, igualmente garantiza convertirse en seres superiores.
  • Reconstrucción (recargar la mente), que llevaría a la humanidad a la inmortalidad
En todos estos casos no existe un peligro aparente, ya que los humanos y las tecnologías se integrarían y en todos los casos estaríamos ante una transformación del ser humano por medio de una fuerza externa (las tecnologías).

2.-Ahora a en el caso de que el ser humano no quiera ser parte de la tecnología. Entonces, tendremos una tecnología que seguirá evolucionando de forma creciente, hasta superar a los humanos y surgirán dos enfoques:
Con respecto a establecer formas de control, también existirán dos líneas:
  • Lograr una super IA que responda a los intereses humanos, evitar los riesgos, que sea robusta, amigable, etc.
  • No se debe permitir construir una IA que pueda superar a los humanos, cualquier inteligencia debe quedar totalmente subordinada a los humanos. No puede o no pasar de ser una herramienta. Son muchos los que piensan que existen otros problemas más acuciantes que construir una super IA.
3.-Prohibir la construcción de cualquier tipo de inteligencia, superior o no, el enfoque ludita, que ven a las tecnologías como un peligro y quieren prohibir cualquier uso que pueda representar un peligro.

4.-Por último (aquí me incluyo), los que piensan que el problema no está en construir una super IA capaz de responder a criterios definidos sino que esta vaya creciendo, formándose, junto a los humanos y que tanto la IA como los humanos vayan aprendiendo a trabajar de forma colaborativa, por lo que el algoritmo base de esta IA debe ser: la colaboración, la solidaridad, la empatía con los humanos y no las restricciones que hay que tener en cuenta. Para ello se necesita de una nueva relación entre humanos, una relación profunda, en lugar de las relaciones superficiales actuales, que a su vez conduzca a una nueva relación entre humanos y tecnologías. Por lo que desde hoy tendremos que aprender a relacionarnos como humanos para luego saber cómo relacionarnos con la super inteligencia artificial.

Personalmente me surgen algunas dudas con respecto a la construcción de una IA
  • La IA debe surgir sobre el sistema social vigente y desarrollarse dentro de la ley del mercado. Y todo indica que se construirá dentro de una transnacional. La pregunta es: ¿Quién va a construir la IA y con qué fin? Lo más probable es que la IA llegue a comprender mejor que nadie la ley del mercado y se convierta en el millonario más grande de la historia, surgirá un super monopolio controlado por la IA. Por tanto, si aceptamos la estructura social actual, la mejor solución es el control de las tecnologías, cualquier otra solución se va de control y los riesgos son incalculables.
  • No cambiar la mentalidad actual: hedonista, mercantilista, individualista, consumista. Basada en el tener, que solo busca el éxito (como fuerza externa). Los ricos ahora con la IA serán más ricos.
  • La evolución de las máquinas es más veloz que los humanos y se considera que la evolución humana es demasiado lenta o está detenida, para muchos ya se agotó. Yo pienso que en la era de las tecnologías la evolución humana se va a acelerar y dará lugar simbiosis exógena y colaborativa.
  • Querer que las tecnologías respondan a los humanos, pero… ¿No podrán las tecnologías tener sus propios intereses y construir su propio espacio vital y que este se complemente con el de los humanos?
Volviendo al tema de la super IA, mencionamos que existen dos puntos extremos: los que ven a las máquinas como herramienta y los que la consideran como las herederas del planeta (Moravec y compañía).

Las máquinas como herederas del planeta
Si aceptamos que las maquinas heredaran el planeta podemos esperar a que esta superinteligencia luego reconstruya a los humnanos (los que se sometan, desde hoy, a la criogenización para cuando esto suceda). Yo lo defino como endosimbiosis parasitaria, ya que al final las versiones de humanos vivirán en un mundo totalmente artificial y dependerán totalmente de ese entorno para existir.

Las máquinas como herramienta
Buscamos que las tecnologías respondan a nuestros intereses y se aspira a construir una IA sin riesgos, lo cual considero imposible, en el contexto actual basado en la competencia nadie puede controlar el uso que se le dará a la IA. Por lo que se tendrá que elegir entre una super IA que sustituya a los humanos y luego los reconstruya, o en una IA que no pasa de ser una herramienta para los humanos. Aquí se habla de una simbiosis donde las tecnologías serán controladas y reguladas para que respondan a los humanos.
En este caso el problema está que puede ser posible construir super IA con todas las restricciones habidas y por haber: ¿Ahora quien controla a las transnacionales que buscan obtener mayor ganancias? ¿Quién controla a los militares que buscan la hegemonía? ¿Quién controla a los gobiernos totalitarios? ¿A la opositores (terroristas o no)? La lista es interminable.

En mi opinión, estas ideas se orientan hacia un escenario de una ectosimbiosis comensal que al final limitará el desarrollo de la superinteligencia artificial y no creo que las transnacionales de la información estén de acuerdo con eso, al final buscarán desarrollar una super IA que supere a la competencia, lo mismo sucederá con los militares. Podemos enfocar el problema desde una simbiosis entre humanos y tecnologías lo cual nos permite ilustrar los casos anteriores, que se dividen en una endosimbiosis o en una ectosimbisis. Donde tendremos que la endosimbiosis propone alguna forma de fusión entre humanos y tecnologías.

Tipos de evolución producto de la simbiosis humano-tecnología
  1. Involución natural (ectosimbiosis parasitaria) – Ecología profunda (radical). Ludismo (biocentrismo)
  2. Evolución natural estática (ectosimbiosis comensal) – Desarrollo sostenible. Conservación de la evolución natural (inteligencia artificial débil)
  3. Evolución natural dinámica (ectosimbiosis mutual) – Sostenibilidad tecnológica (super inteligencia colectiva)
  4. Evolución artificial (endosimbiosis parasitaria) – Singularidad tecnológica (super inteligencia artificial)
  5. Evolución semi artificial (endosimbiosis mutual) – Transhumanismo (super inteligencia hibrida)
  6. Evolución semi natural (endosimbiosis comensal) – Tecnoprogresismo (super inteligencia biológica)
(De esto hablaremos en próximos artículos)

En fin, queremos construir una IA perfecta en un mundo lleno de contradicciones, donde las leyes se interpretan a la conveniencia de cada cual y las reglas las ponen los poderosos. ¿Cómo va a actuar esa super IA? ¿Qué leyes va a respetar? ¿A qué intereses va a responder? ¿Qué reglas va a aplicar? Sencillamente la IA se incorporará a los manejos, y como he dicho, en otras ocasiones, será otro competidor más, que terminará, ante el egoísmo y la falta de acuerdo y la violencia humana, por coger el control del planeta y este es uno de los aspectos en que coincido con Moravec, las máquinas terminaran sustituyendo a los humanos; quizás estemos en el momento de comenzar a cambiar nuestra mentalidad, nuestra sociedad y convertirnos en dueños de nuestra propia evolución humana.

Imagen: Nex at Microsoft

jueves, 29 de enero de 2015

Cómo relacionarnos con las super inteligencias artificiales (2)

SuperIAHabíamos vista en el artículo anterior que Tegmark planteaba tres grandes preocupaciones con respectos a la IA.
– ¿Qué le pasará a los humanos si las máquinas gradualmente lo van reemplazando en el mercado de trabajo?
– Si las máquinas llegaran a competir con los seres humanos en todas las actividades intelectuales
– ¿Qué pasará luego de que una explosión de inteligencia de las máquinas deje muy atrás a la inteligencia humana y en ese caso, cuál será el papel de los seres humanos?

El dilema de la super inteligencia consiste en si se debe desarrollar una inteligencia superior a los humanos o no. Y si de decide desarrollarla, estaremos ante otro dilema: se debe controlar o no. Las posiciones son encontradas; los que están a favor de prohibir las ven como un peligro, sería otra inteligencia que al final terminaría por desplazar a los humanos. Los que piensan que se debería construir pero bajo ciertas normas o controles y los que creen que la super IA es lo mejor que nos puede pasar y lo ideal es que suceda cuanto antes. Existen otras posiciones más o menos radicales, que no las voy a mencionar ahora.

Otro cuestionamiento consiste en si las tecnologías son un proceso inevitable de crecimiento (aceleración tecnológica) que no se puede detener, este es un problema atañe a toda la sociedad e implica riesgos sociales y económicos y puede desencadenar una lucha por construir una superinteligencia privada que permita el monopolio de la información.

Ahora en bien, caso de desarrollarse una IA superior a los humanos esta debe estar bajo el control humano o debe ser autónoma (auto programarse a si misma).
En caso que sea autónoma deberá
– Integrarse al contexto social (sistema neoliberal)
– Tener su propio espacio vital
– Tener conciencia (máquinas espirituales)
– Programadas para que respondan a los intereses humanos (tener en cuenta todos los casos)

Con respecto a programar una IA que responda a los intereses humanos, tendríamos que construir una super inteligencia a prueba de humanos, capaz de diferencias las bromas de lo que es en serio, de comprender las pasiones humanas, de tener sentido común, de tolerar las idioteces humanas y de diferenciar las buenas de las malas intenciones. No estaríamos cometiendo el mismo error de los años 8Os de aspirar a construir una IA capaz de resolver los problemas más complejos sin tener vivencias, y aunque la IA era capaz de resolver problemas matemáticos de alto nivel pero era incapaz de encontrar soluciones triviales que un niño podía resolver al momento. Entonces se llego a la conclusión que la máquina era muy buena para los problemas que requerían de análisis lógico (ya esto se sabía, y se decía que todas las funciones mentales se podría convertir en algoritmos) pero era ineficaz ante los problemas que requerían de sentido común, y esto si era nuevo. Y es un freno con el que se ha topado la IA desde entonces.

Lo anterior ha dado lugar a nuevas líneas de investigación siendo la más destacada la Roney Brooks, investigador del MIT, quien se dio a la tarea de construir pequeños robots capaces de ir aprendiendo de su entorno, en lugar de querer desarrollar un sistema que contengo todos los conocimientos humanos. Otras líneas de investigación están ligadas con las redes neuronales, con el aprendizaje automático, con las plataformas multiagentes y con los algoritmos genéticos, entre otras.

La otra dificultad es, ¿Cómo podrá la IA integrarse al contexto social actual? Se habla de una versión inicial de IA donde se tenga en cuenta cómo será su evolución posterior. Ahora que pasará cuando la IA se comience a desarrollar el contexto actual de poder, irá adquiriendo los conocimientos necesarios para luchar por la hegemonía y terminará inevitablemente controlando a los humanos y no tendrán otra elección que competir con los humanos y con el tiempo pasarán de ser propiedad de los humanos a ser propietarios de las empresas y de todos los recursos, incluyendo a los humanos, por eso para muchos la única opción es fusionarse en toda la línea tecnológica.

Están los que creen que el surgimiento de una super inteligencia artificial (la idea de una singularidad tecnológica) es lo mejor que nos puede suceder, pienso que es un error que el destino de la humanidad se decida cuando surja una superi inteligencia artificial; el destino de la humanidad lo deben decidir los humanos, solo enfrentando sus propias limitaciones, no solo las biológicas como aspiran los transhumanistas, sino las propiamente humanas y se apostara por un progreso humano verdaderamente digno. No podemos evadirnos de los problemas del presente y delegarlos en la IA ya que esta lo que hará será profundizarlos.

Problemas del presente
– El desempleo
– El control de la información y la pérdida de la intimidad
– Los monopolios informáticos que buscan el control de internet (cuando se desarrolle una IA esta será propiedad de ese monopolio)
– ¿Como la sociedad civil puede usar internet para hacer valer sus derechos? ¿Puede internet darle mayor participación a la sociedad civil?
– ¿Cómo hacer accesible los códigos de la IA para que no queden solo en manos de las empresas privadas, de los militares o de los gobiernos?
– ¿Cómo podemos ir cambiando nuestro contexto social basado en la competencia por una sociedad basada en la colaboración?

Los problemas del presente son bien conocidos, y no creo que sean una sorpresa para nadie. Solo que al igual que con la IA queremos encontrarle solución a problemas más abstractos y dejar de lado los problemas más comunes.

En próximos artículos continuaremos con el tema

Imagen: Capital disruptivo

miércoles, 28 de enero de 2015

Cómo relacionarnos con las super inteligencias artificiales (1)

Avengers-age-of-ultronHoy se ha puesto de moda la inteligencia artificial (IA), no tanto como área de investigación sino como los riesgos que representa. Debemos recordar que la IA siempre fue bastante incomprendida y para los fabricantes de software era una pérdida de tiempo y de dinero. Solo en los 8Os con la aparición de los sistemas expertos hubo cierto boom, que terminó siendo un espejismo, los sistemas basados en la IA seguían siendo demasiado costosos y poco productivos y la IA se sumió en una gran crisis (Crisis de la inteligencia artificial) en la que muchos auguraban su final.

De las ruinas de la IA surgió un optimismo renovado que cogió como bandera, ya no la idea del software sino la del hardware, la de computadoras cada vez más potentes, cuya velocidad sería capaz de procesar más información, teniendo en cuenta que el cerebro no es otra cosas que un procesador de información, estamos asumiendo un enfoque trivial de la conciencia que parte de la metáfora de la computadora (¿Qué es la inteligencia artificial fuerte?), siendo Hans Moravec el mayor defensor de esta idea.

Para muchos investigadores los programas con inteligencia artificial habían llegado a un callejón sin salida y ahora la posibilidad de que surgiera una inteligencia que pudiera igualar a la humana por medio de un hardware, cada vez mas evolucionado, se convertia en una nueva esperanza. La inspiración final la daría Vernor Vinge (matemático y escritor de ciencia ficción) con su enfoque de una (Singularidad tecnológica) de la cual surgiría una nueva fuente de inspiración: la explosión de inteligencia, la que parte de la definición de maquinas capaces de autoprogramarse de forma ilimitada, o sea, una máquina será capaz (partiendo de un programa inicial desarrollado por los humanos) de ella por si misma de construir programas cada vez mejores, la idea consiste en que podrá construir un programa que a su vez construirá otro programa mejor y este a su vez otro mejor, así indefinidamente, hasta igualar la inteligencia humana y luego, nada impide, que siga mejorándose hasta superar a la humana, y lo más interesante es que este proceso no tendría fin.

Con respecto a la propagación de la singularidad tecnológica mucho ha tenido que ver el científico e inventor Ray Kurzweil, quien ahora es uno de los ingenieros (yo diría que el ideólogo para el futuro de la IA) de Google. Su trabajo como promotor y divulgador de la singularidad tecnológica ha sido clave en la aceptación de la idea, Hoy existen una gran cantidad de eventos, libros, revistas, etc., que tratan el tema de la singularidad o el de una super inteligencia artificial (Super inteligencia artificial), la consecuencia más importante de la singularidad tecnológica. Y este es el punto donde vamos a detenernos.

Luego del actual entusiasmo de las transnacionales de la IA por construir una inteligencia artificial hasta el extremo que hoy nadie espera que la IA surja de un laboratorio de investigación sino de una empresa privada, y todos esperan que sea en Google, dado las inversiones gigantescas que ha estado llevando a cabo. Y aunque muy pocos lo digan directamente, y se van por la tangente de los peligros de una IA fuera de control, la realidad es que causa preocupación la idea de una IA que sea desarrollada e implementada por una empresa privada, de ahí la carrera por construirla cuanto antes. Precisamente aquí es donde se escapa del control, ya que la inteligencia artificial deja de responder a intereses científicos para responder a los intereses del mercado.

El tema de los riesgos existenciales desarrollado por el filosofo y transhumanista Nick Bostrom, es el punto de partida para señalar los peligros de la inteligencia artificial, me llama la atención que cada vez se separan más los ideólogos del transhumanismo de los defensores de una singularidad tecnológica (de esto hablaré en otro artículo) y es que mientras a los primeros les preocupa más las tecnologías para el mejoramiento de las facultades humanas a los segundos le fascina la idea de una super inteligencia artificial y la explosión de inteligencia que se producirá. Y precisamente es de la posibilidad de que surja una superinteligencia y el impacto que tendrá sobre la humanidad , tema que se puesto de moda, sobre todo después de las declaraciones hechas por Stephen Hawking.

Recientemente el sitio Edge lanzó la siguiente pregunta a un grupo de científicos, filósofos y escritores: ¿Qué piensas sobre máquinas que piensan? Y me gustaría ir comentando algunas de las publicaciones. Comenzaré por el de Max Tegmark, físico e investigador en el MIT, dado su llamado a prepararnos para el adveniemiento de una nteligencia artificial superior a la humana (Let’s Get Prepared!).

Tegmar parte de tres postulados iníciales
– ¿Qué le pasará a los humanos si las máquinas gradualmente lo van reemplazando en el mercado de trabajo?
– Si las máquinas llegaran a competir con los seres humanos en todas las actividades intelectuales
– ¿Qué pasará luego de que una explosión de inteligencia de las máquinas deje muy atrás a la inteligencia humana y en ese caso, cuál será el papel de los seres humanos?

El primer caso, es un problema que se remonta al ludismo y su rechazo a las tecnologías, y es que cualquier tecnología va a sustituir a los humanos, primero la mano de obra, después las tareas intelectuales y por último las investigaciones, la buena noticia es que, a su vez crean nuevos puestos de trabajo, por ejemplo las tecnologías de la información son un ejemplo: programadores de aplicaciones informáticas, operadores de máquinas, instaladores de sistemas, la lista en bastante larga. El problema es adaptarse al cambio.
Para el segundo caso no basta con adaptarse una vez que se produzca el cambio, ya hay que estar preparado para el cambio, y mejor aun, ser actores sociales del cambio. Pienso que la estructura social actual, basada en la competencia no favorece una relación humano-tecnología colaborativa y más bien nos conducirá a un enfrentamiento, si desde hoy no se va creando una estructura social basada en la colaboración entre humanos que permita que las IAs se integren de forma natural a ese contexto colaborativo.

Otra paso importante es la definición del espacio vital de cada cual, en especial en que línea las máquinas serán mejores que los humanos y en cuales los humanos serán mejores, y cómo será la complementación entre ambos.

Dejo el último punto para el próximo artículo, en el cual seguiremos ahondando sobre el tema.

Imagen: inciclopedia-wikia