martes, 21 de julio de 2015

Desafíos del futuro. ¿Se puede tener un plan?


Futuros-TurchinLa humanidad parece estar ante el dilema de escoger entre un futuro sostenible o un futuro posthumano, visto fríamente parece ser así, pero si tenemos en cuenta los tipos de simbiosis que se pueden producir entre humanos y tecnologías, la solución más inteligentes parece ser buscar una forma de convivencia entre todos los futuros posibles ante el acelerado progreso tecnológico.
Entonces, el gran desafío es como será en futuro en la era de las tecnologías. Podemos considerar que hemos pasado por dos grandes eras: la era natural y la era socio-cultural, en la que estamos inmersos. En la era actual, la evolución social predomina sobre la evolución natural, incluso la condiciona. La sociedad es la que fija las mutaciones más favorables al contexto social imperante, en lugar de los cambios climáticos como sucedía antes. Ahora nos acercamos a una nueva era condicionada, de alguna manera, por una forma de evolución artificial, para muchos, la singularidad tecnológica.

Desafíos del futuro

Detrás de cada desafío existe un paradigma que los sustenta y que de alguna forma representa una solución a los problemas existentes. Podemos agrupar los desafíos en cuatro, con sus respectivos sistemas opositores.
Desafío socio-económico: Capitalismo vs Socialismo
Desafío psico-religioso: Transhumanismo vs Bioconservadores
Desafío eco-sostenible: Sostenibilidad ecológica vs Neoliberalismo irresponsable
Desafío tecno-científico: Singularidad tecnológica vs Precaución tecnológica
No vamos a entrar en detalles, esto tema para un próximo libro, pero a grandes rasgos, podemos afirmar que no se pueden hacer planes sobre el futuro si no se tienen en cuenta los cuatros desafíos, los paradigmas que lo sustentan y a qué futuro nos conducen.
¿Puede el capitalismo con su ley del mercado y su consumismo desenfrenado, preservar a la vida y al planeta? ¿Puede el transhumanismo sustituir los grandes ideales de la religión de perfeccionamiento espiritual? ¿Es capaz la sostenibilidad ecológica de alentar la prosperidad y el progreso tecnológico? Y por ultimo. ¿Nos impondrá la singularidad tecnológica el precio de abandonar nuestra condición humana? Son preguntas que tenemos que comenzar a respondernos desde ahora o iremos a ciegas al futuro.
En este articulo nos proponemos hacer un análisis de la publicación de Alexei Turchin, Plan of Action to Prevent Human Extinction Risks, en el mismo afirma que sus planes siguen el enfoque de la singularidad tecnológica, por lo que quedan fuera el resto de los enfoques: socio-económico, pisico-religioso y eco-sostenible. Y aunque estos puntos se tocan, pero condicionados al enfoque tecno-científico. Veamos los planes de forma resumida pero solo teniendo en cuenta los primeros años 2015-2020.

Plan A1. Basado en un sistema de control internacional (2015-2020)

Parte de la idea de un sistema de control internacional dirigido por las naciones unidas. No sé en el futuro que pasará pero en el presente organizaciones mundiales están muy preocupadas con las crisis del presente para pensar en lo que va a suceder en el futuro. Si no miren los Objetivos de Desarrollo del Milenio de la ONU. Obviando las verdaderas preocupaciones de la ONU. Tuchin propone el siguiente plan a corto plazo.
• Propone comenzar con una investigación sobre los riesgos, la integración de los diferentes enfoques (¿Cuáles enfoques) así como una evaluación de las probabilidades y prevención ante los riesgos.
• Buscar apoyo social: Cooperación entre las comunidades científicas dirigidas por el Centro de Estudio para los Riesgos Existenciales (CSER, en ingles), la divulgación, el apoyo público, el apoyo político y lo que el llama atributos científico: wiki, foro, conferencias, etc.
• Transformación de valores: crecimiento del deseo público de extender la vida y de la seguridad mundial, reducción de los religiosos radicales y de los valores nacionalistas, popularidad del transhumanimo y cambio del modelo del futuro (¿Cuál modelo?).

Plan A2. Inteligencia artificial amistosa (2015-2020)

La idea de una Inteligencia Artificial (IA) amistosa es una abstracción tal como la de construir una IA dentro de un laboratorio siguiendo la idea de un mundo de juguetes. Al final repetimos el mismo error de querer definir los requerimientos de una IA programada, totalmente, para que sea amistosa con los humanos. Veamos la propuesta de Turchin a corto plazo.
Estudio y promoción
• Estudio de la teoría IA amistosa
• Promoción de la AI Amistosa (Bostrom y Yudkowsky)
• Recaudación de fondos, Instituto de Investigación de Máquinas Inteligentes (MIRI, en ingles)
• Racionalidad enseñanza (menos mala)
• Disminuir otros proyectos de IA (reclutamiento de científicos)
Aquí quedan algunas dudas, porque se disminuyen los proyectos y quien los disminuye, que persigue es educación menos mala. En fin, el futuro, incluso a corto plazo, sigue siendo incierto.

Plan A3. Robustez creciente (2015-2020)

A pesar de que Turchin lo pone como la tercera opción de plan realizable, en mi opinión es el más consecuente con la complejidad del futuro que se avecina. Al menos es el único que tiene en cuenta el problema de la sostenibilidad del planeta.
Mejorar sostenibilidad de civilización
• sistemas críticos de seguridad intrínseca
• La creciente diversidad de los seres humanos y hábitats
• métodos universales de prevención (estructura resistentes, medicina fuerte)
Importante, tener en cuenta la creciente diversidad de los seres humanos, es casi seguro que en el futuro convivan con los humanos, humanos mejorados genéticamente, ciborgs, humanos reconstruidos, entidades robóticas, etc., y sus posibles hábitats. Para mí aquí está la clave del problema, ¿cómo será la relación simbiótica que establecerán los humanos y las tecnologías? ¿Tendrá cada cual su propio espacio vital?

Plan A4. Colonización del espacio (2015-2020)

Las posiciones más duras de una singularidad tecnológica, defendida por Hans Moravec, lleva a la sustitución total de lo natural por lo artificial, estamos hablando de la desaparición de la especie humana y el surgimiento de una nueva especie artificial y como consecuencia de una vida y un planeta artificial. Siempre he dicho si la solución extrema es destruir el planeta natural por otro artificial, no es mejor desde el principio construir un planeta artificial fuera de la Tierra y los que lo deseen se van a vivir a ese planeta. En fin veamos las propuestas de Turchin a corto plazo
Asilos temporales en el espacio
• Estaciones espaciales como asilos temporales (ISS)
• Sistemas de lanzamiento baratos y seguros
• La creación de colonias espaciales en la Luna y Marte (Elon Musk)
Sin dudas, Elon Musk es uno de los grandes entusiasta y financista de la colonización del espacio.
Ahora si fallan todos estos planes, entonces Tuchin propone un plan B.

Plan B. Sobrevivir a la catástrofe (2015-2020)

Aunque parezca ilógico, muchos creen que la humanidad debe sufrir un colapso, que este a punto de la destrucción total para que entonces los sobrevivientes retomen la civilización evitando los errores y de esa forma construir una nueva era para la humanidad. Veamos lo que propone Tuchin.
Preparación
• Recaudación de fondos y promoción
• Libro de texto para reconstruir la civilización (Libro “Conocimiento” de Dartnell)
• Las acumulaciones con los conocimientos, las semillas y materias primas (bóveda del Juicio Final en Noruega)
• Comunidades sobrevivientes
Sin comentarios.
En su escrito Tuchin también propone un plan C y un plan D

Plan C. Deje copias de seguridad (2015-20)

Ya existen alguna personas criogenizando su cuerpo (los que pueden pagarlo todo) o sus cabezas.
Cápsulas del tiempo con información
• Almacenamiento subterráneo con la información y el ADN para futuras civilizaciones no humanas
• Discos Eternos que durarán para siempre (o “M-Disc”)

Plan D. Ideas improbables (2015-2020)

Ya esto es pura ciencia ficción
Salvados por una inteligencia no humana
• Tal vez extraterrestre nos encuentran y nos salvarán
• Tal vez vivimos en una simulación y los simuladores nos salvarán
• La Segunda Venida, un milagro, o la vida después de la muerte
• Enviar mensajes de radio en el espacio pedir ayuda en caso de una catástrofe inevitable
Y por último el plan malo

Plan malo (2015-2020)

El plan malo es el escenario donde por una parte se imponen los llamados bioluditas y sus ideas de prohibir las tecnologías que huelan a peligro, que son casi todas o no hacer nada, o sea, no tener un plan.
Prevenir la investigación de riesgos existenciales ya que sólo aumenta el riesgo
• Mantenga peligroso secreto información e ideas de terroristas
• No publicitar la idea de la catástrofe global hecha por el hombre
• No trate de controlar los riesgos ya que esto los aumentará
• Como no podemos medir la probabilidad de la catástrofe global tal vez sea irazonable tratar de cambiarla
• No hacer nada
Aquí Turchin también incluye las ideas extremas del ecologismo de la Creación de la civilización ecológica sin tecnología (“Mundo hecho a mano”, anarco-primitivismo), así como las teorías malthusianas y el control de la natalidad.
Hasta aquí los planes propuestas por Alexei Turchin entre el 2015 y 2020, repito, aunque su análisis llega hasta más allá del 2050, yo preferí solo tener en cuenta las acciones a corto plazo, que están más cerca de la realidad actual.
En mi libro El gran desafío de la humanidad en la era de las tecnologías, analizo los diferentes escenarios futuros más viables teniendo en cuenta las Tecnologías emergentes y su implicación sobre la humanidad. Ahora vamos a realizar cierta comparación con los planes de Turchin.
1.-Ecologismo, aquí se asume que predominan las ideas de una ecología radical, que lleva al crecimiento cero, lo que Turchin, en parte, llama el plan malo cuando hace referencia cuando habla de una civilización ecológica sin tecnología.
2.-Socialismo ecológico. Son los intentos de tratar de resolver la crisis ecológica actual dentro de un desarrollo sostenible, se busca un equilibrio entre lo económico, lo social y lo ambiental, apoyándose en las instituciones gubernamentales (sistema de control internacional) pero orientado al deterioro del planeta, a la justicia social, a la pobreza extrema, el consumismo, etc. A diferencia de Turchin que aspira a un plan A1 donde la ONU se dedica a los problemas del futuro.
3.-Socialismo colaborativo. Se establece relaciones profundas entre los humanos y estos con las tecnologías se busca alcanzar un futuro sostenible sin detener el progreso tecnológico. Tiene cierta coincidencia con el plan A3 de Turchin.
4.-Tecnologismo. Consiste en la aceptación de que las máquinas superarán a los humanos y este no tiene otra opción que fusionarse con ellas. Incluso, se considera que es lo mejor que le puede pasar. Tiene grandes semejanzas con el plan A4 con respecto a construir un planeta artificial.
5.-Capitalismo postmoderno. Es el momento en que la ideología transhumanista alcanza todo su esplendor dentro del sistema neoliberal. Al cual solo le preocupa el surgimiento de una superinteligencia artificial que pueda poner en peligro el propio desarrollo transhumanista. Coincide con la preocupación del plan A2 y la necesidad de construir una IA amistosa.
6.-Es consecuencia del anterior lleva a un transhumanismo responsable más preocupado por los riegos existenciales en general. Dado su carácter conciliador se mueve entre el plan A1, A2 y A3.
Opino que los planes elaborados por Alexei Turchi pueden ser un buen punto de partida, pero, teniendo en cuenta que se sustenta sobre el paradigma de una singularidad tecnológica.
Como decía al principio nuestra época esta influenciada por cuatro paradigmas predominantes que, por separados, parecen movilizar todos los esfuerzos hacia un futuro mejor (o peor).
• Neloliberalismo (en lo social)
• Transhumanismo (en lo individual)
• Sostenibilidad (en lo ecológico)
• Singularidad (en lo tecnológico)
Del enfoque transdisciplinar de estos paradigmas y las soluciones (éticas, educativas, evolutivas, espirituales, tecnológicas…) que se den, dependerá el futuro de la humanidad.

Recomendación: El gran desafío de la humanidad, en la era de las tecnologías

sábado, 18 de julio de 2015

Alejandro Madruga te ha enviado una invitación

 
 

Alejandro Madruga te ha invitado a acceder a Blasting News

Inscríbete a Blasting News, a primera revista libre e independiente donde puedes escribir tú mismo las noticias. Gracias a 60.000 reporteros en todo el mundo.

Has recibido una invitación para conectarte de Alejandro Madruga a través de la función "Personas que puedes conocer" (PYMK). Si no deseas recibir invitaciones de PYMK, haz clic aquí.
Blasting Sagl © 2013-2022 The Blasting News | Privacy Policy

martes, 7 de julio de 2015

El desafío humano ante el transhumanismo

meditacion-taringaSabemos que el mundo es injusto, unos nacen pudientes, gozan de todos los privilegios, mientras la mayoría solo sufre vicisitudes y carencias. Los que tienen todo pueden desde su tranquilidad y su opulencia concebir un mundo mejor (casi siempre para unos pocos) tienen toda la información y tiempo del mundo para hacerlo.

Una de las mayores injusticias es que no todos puedan acceder por igual a las tecnologías, que no tengan tiempo para reflexionar sobre sí mismos y sobre el destino de la humanidad, que en fin de cuentas es el futuro de sus hijos. Pero como pensar en el futuro, si en el presente el dinero no le alcanza y está lleno de preocupaciones existenciales. Los pudientes no pueden comprender las verdaderas limitaciones humanas y solo les preocupa sus limitaciones biológicas y aspiran a convertirse en superhumanos, mientras los que llevan vidas infrahumanas solo aspiran a que sus vidas sean menos dolorosas.

La carencia es mala, no te deja pensar y poco a poco vas perdiendo la capacidad de soñar y te vas convirtiendo en un subhumano y transitas por el mundo aferrado al suelo, sin saber porque llueve, porque el cielo es azul, ni que existen las mareas. Solo estas pensando que tienes que trabajar para ganar un salario y que tienen que estirarlo para llegar a fin de mes. Esta es la injusticia social silenciosa que afecta a muchos.

¿Qué pasa cuando una mente brillante tiende a marchitarse en una vida cargada de obligaciones que le va condicionando al no ser y le va robando lentamente sus potencialidades hasta convertirlo en un ser sin aspiraciones sin aspiraciones, o los quijotes que siguen insistiendo y terminan en la locura.

Ahora concentrándonos en el ideario transhumanista y las expectativas que esta despierta.
El transhumanismo nos lleva a la conclusión que la evolución natural ya terminó y se necesita de otra evolución artificial, de ahí la frase de que el transhumano no es fin de la evolución sino el comienzo de una nueva evolución. Ahora, ¿están los humanos en realidad agotados? En ese caso estamos en un callejón sin salida cuya única opción es fusionarnos con la tecnología. Esto parece una locura: renunciar a nuestra condición humana para convertirse en un ciborg:
Hay que definir qué se entiende por progreso humano verdaderamente digno y lograr una
cosmovisión del mundo, más a tono con los problemas más acuciantes, sería una cosmovisión no excluyente donde todos tendrían su propio espacio humano, nadie quedaría excluido y todas las voces tendrían su eco. Y sobre todo tendríamos una mayor comprensión de los problemas actuales.
Nos preocupa que las mejoras tecnológicas se consideren como la solución a los problemas de la humanidad (a la minoría que pueda comprar su mejoramiento). ¿Cuáles son esas modificaciones (presupuestos tecnológicos) a que aspiran los transhumanistas? ¿Y cuáles sus dilemas?

El uso de las tecnologías para el mejoramiento humano, nos conduce al siguiente dilema: conservar la naturaleza humana vs transformar la naturaleza humana. O sea:
• Preservar los atributos individuales que definen al ser humano y respetar la vida teniendo en cuenta las consecuencias globales. Conservar al individuo como especie y su evolución natural (posición bioconservadora)
• Potenciar los atributos individuales por medio de las tecnologías y manipular la vida con el fin de mejorarla.

Transformar al individuo como especie y alcanzar una nueva forma de evolución artificial (posición transhumanista).

En general, los transhumanistas, aceptan la estructura social actual basada en la competencia y la desigualdad, y asumen que con las tecnologías de mejora (las que en algún momento llegarán a estar al alcance de todos) se podrá alcanzar un mundo mejor.

Por una parte los transhumanista condicionan el mundo mejor a las tecnologías de mejora y a su aplicación sobre el individuo y peor aun consideran que todo aquel que no mejore su condición biológica, se convertirá en una subespecie, que no tendrá oportunidad en la nueva era de las tecnologías.

Hasta hoy solo se ven a los dilemas como un enfrentamiento entre dos posiciones (bioconservadores y transhumanistas) y en mejor de los casos como la búsqueda de una tercera posición que tome lo mejor de ambas parte, una tercera línea que no es ni lo uno ni lo otro, ya que no erradica el enfrentamiento. ¿Cómo lograr convivir desde puntos de vista diferentes? No es buscar una tercera línea entre transhumanos y bioconservadores sino lograr que ambos convivan y se desarrollen juntos.

Para los transhumanistas el progreso humano se agotó y solo ven limitaciones biológicas sin comprender el verdadero potencial humano y sueñan con aumentar sus capacidades desde una fuerza externa. Podemos aumentar la inteligencia de un lobo y por eso dejaría de seguir siendo lobo. Entonces tendremos mejores soldados, mejores tiranos, mejores empresarios, mejores consumidores mejores terroristas, mejores alcohólicos (bastaría cambiarse el hígado cada vez que deseen), la lista sería interminable. Sin dudas, muchos se aprovecharan de esta tecnología de mejoramiento.

Ahora quedan las grandes mentes humanas: Gandhi, Einstein, Fromm, Potter (el bioeticista), Descartes, la lista también es interminable, y sus sueños siguen inconclusos, sus ideales parecen olvidados, perdidos en la conciencia colectiva que quiere olvidarse de que es humana y una vez desprovistos de nuestra humanidad en que nos convertiremos.

Creo en un progreso humano verdaderamente digno que pueda trascender sus límites socio-culturales y seguir evolucionando en generaciones cada vez mejores, espiritualmente, en sensibilidad, en empatía.

Los pobres no pueden comprar la felicidad por tanto han aprendido a alcanzar (las cosas) su objetivos con su propio esfuerzo. Los pudientes lo quieren comprar todo sin esforzarse. Los ricos no nacieron ricos en algún momento de su vida tuvieron que esforzarse pero una vez que llegan a cierto estatus se acomodan al confort, al facilismo y dejan de sacrificarse y se olvidan de lo que una vez fueron.

Quizás en un futuro podamos mejorar nuestro cerebro y comprar más memoria, más velocidad de cálculo y hasta nuevos sentimientos. Y, así, de forma rápida lograr la inteligencia que otras le llevará años de estudio. Y esa es precisamente la desventaja que tiene el transhumanismo, yo lo veo como una selección natural: los que seguirán siendo humanos desarrollaran todo su potencial desde su propia fuerza interior y los que, carente de voluntad, escogerán la vía mas fácil. Los primeros darán lugar a generaciones cada vez mejores de seres humanos mientras los segundos iniciaran el camino de fusionarse con las tecnologías, hasta llegar al punto de no poder distinguirse ¿Quién es quién?

Al contrario de los futuristas, que siempre que comparan a los humanos modificados (versiones de humanos), hablan de forma despectiva o con lastima de los humanos que no se modifiquen, yo pienso todo lo contrario y albergo la esperanza que, tal vez, en un futuro, las mentes “obtusas” modificadas, puedan igualarse a las mentes “brillantes” sin modificar.

Recomendacion: El gran desafío de la humanidad, en la era de las tecnologías


jueves, 2 de julio de 2015

Desafíos de la humanidad

riesgos-existencialesEstamos hundiéndonos en una edad de hierro planetaria. Los bárbaros enemigos de la humanidad, están hoy en plena actividad eruptiva cuando se oponen entre sí, su antagonismo contribuye a acrecentar un maniqueísmo ciego y henchido de odio. El capitalismo desenfrenado de hoy no es la única amenaza a la humanidad: hay fanatismos desenfrenados, dictaduras implacables; existe la posibilidad de que aparezcan nuevos totalitarismos y hasta de que comiencen guerras de exterminio.
Edgar Morin

Todo indica que estamos en un punto en el que cambiamos o perecemos, y es que nunca la humanidad ha enfrentado tantos riesgos como ahora. Nick Bostrom los defines como riesgos existenciales, en Los riesgos del futuro, menciono los siguientes:
1. Mal uso de las tecnologías.
2. Guerras nucleares.
3. Pandemias.
4. Aristocracia posthumana.
5. Mala programación de una superinteligencia.
6. Superintenligencia autónoma que asume los valores de poder.
7. Criogenización y superpoblación.
8. Control del estado, de instituciones, ONG, movimientos religiosos, etc. Que no permitan ciertas aplicaciones para el mejoramiento humano (transhumanidad).
9. Dificultades tecnológicas. Que la transhumanidad no se pueda llevar a la practica
10. Agotamiento de los recursos naturales antes de que puedan ser creados artificialmente.

Nos referimos a los riesgos que son provocados por la acción humana y son riegos que se acrecientan según nos acercamos al futuro: el planeta se sigue deteriorando, las tecnologías cada vez son más inteligentes y autónomas, las pandemias se incrementan, la paz cada vez se ve más amenazada, las tecnologías son más potentes y fáciles de adquirir. Y las amenazas no terminan aquí, siguen surgiendo nuevas y nuevas amenazas. Como dice Godet, los problemas siguen siendo los mismos, solo que en otro contexto. En el fondo la base es la misma: la competencia y la lucha por el poder.

Estamos en un momento en que el progreso tecnológico parece representar un peligro para la humanidad, cuando en realidad no es un enfrentamiento entre progreso tecnológico y progreso humano sino entre el progreso tal como lo hemos concebido hasta ahora y nos conduce a un futuro posthumano, y el progreso alternativo (colaboración, relaciones profundas, empatía, fuerza interior, perfección espiritual, amor a la naturaleza, etc.) el cual ha sido subordinado al anterior, este progreso alternativo sería el que nos permitiría alcanzar un progreso humano trascendente y es la vía para un futuro sostenible. Y es que históricamente se ha vista separado el progreso humano del progreso tecnológico, al igual que ha visto separado el desarrollo social (crecimiento económico) de la evolución natural (ecosistema). Hoy comenzamos a entender la relación que existe entre ambos y la simbiosis que se está produciendo entre humanos y tecnologías. El ser humano de forma inconsciente apostó por un futuro posthumano (al igual que apostó por el crecimiento económico a expensa del deterioro del planeta) y es necesario que se tome consciencia sobre los pro y los contra así como de las alternativas que tiene.

El progreso tecnológico está muy bien definido en los trabajos de Kurzweil sobre la singularidad tecnológica (Inteligencia aritificial, el futuro del hombre) en cambio a pesar de las corrientes filosóficas, que han existido durante siglos y de las investigaciones en psicología y sociología; el concepto de progreso humano se encuentra desactualizado y desfasado con respecto a los acontecimientos del mundo actual y su creciente complejidad, y demás está decir que el futuro a penas se toca y siempre se le ha dejado a la ciencia ficción, y esto se debe a que se pensaba que el mundo siempre sería igual, hoy sabemos que el planeta se está deteriorando y cada vez son más las especies que desaparecen y de seguir así, la extinción de la especie humana es cuestión de tiempo, tampoco se conocía el poder que alcanzarían las tecnologías y que hoy se ven como la sucesora de la raza humana. En este nuevo contexto hay que repensar, urgentemente, el concepto de progreso humano, se necesita de un nuevo enfoque que nos diga hacia qué futuro vamos, que no necesariamente es el de una posthumanidad, sino que, más bien, vamos a ciegas al futuro y nos acercamos a una crisis tecnológica (Crisis en el siglo XXI).

Hoy, aunque muchos no lo quieran aceptar, estamos bajo el predominio de la ideología tecnológica, incluso el economicismo imperante cada vez se subordina más a las tecnologías, incluso, y de seguir como vamos, el escenario más probable será el de un tecno-liberalismo.

La solución no está en negar el progreso tecnológico, incluso en aplicar la prudencia ante una investigación determinada, pienso que el problema está en saber manejarnos con las tecnologías, como dijo Potter, en saber manejarnos con los nuevos conocimientos, y es tiempo de aceptar nuestra dimensión tecnológica, en realidad somos seres tecno-bio-psico-sociales. El problema está en que entendemos por progreso humano y como pueden las tecnologías emergentes (como superinteligencias) integrarse de forma colaborativa (y no como un competidor más) en los objetivos del progreso humano y no al revés, como asumen los transhumanistas.

Hay que estar consciente que nuestra importancia real está en la formación de las nuevas generaciones basado en un verdadero humanismo y contrariamente a cómo piensan muchos, nosotros no somos los que tenemos la solución final a los problemas del mundo, el status actual basado en el poder y la filosofía del tener, no podemos cambiarlo de un día para otro, es una arrogancia querer imponer soluciones e ideologías sin tener en cuenta las necesidades futuras. Es necesario saber que nos toca a nosotros y hasta donde podemos llegar, porque en verdad nuestra función más importante es preparar a las próximas generaciones para que sepan tomar las decisiones correctas, que nos conduzca a generaciones cada vez mejores (evolución espiritual) y a un mundo, cada vez mejor.

Por lo que es necesario dotar a las nuevas generaciones no solo de herramientas sino también de alternativas (escenarios alternos) para que puedan decidir un futuro mejor. En nuestros días se hace cada vez más difícil la toma de decisiones, sobre todo elegir aquellas que son correctas, esta es una época de crisis, donde los valores espirituales, son sólo un adorno más, que se usa según convenga. Una época en la que el hombre parece haber perdido toda esperanza de ser y solo aspira a tener, a coleccionar cada vez más objetos.

Nos acercamos a un punto en que la tecnología dejará de ser una estructura (tecno-socio-económica) para pasar a ser una superestructura, capaz de participar en las decisiones del planeta y formar parte de una nueva consciencia colectiva, llámese social, cósmica, planetaria, etc. En mi opinión, este es uno de los problemas más importantes que enfrentaremos en el transcurso de este siglo: ¿Cómo relacionarnos con las tecnologías según estas se vayan haciendo cada vez más independientes, mientras, paradójicamente, el hombre se hará más dependiente?

La tecnología nos obligará a repensar nuestra condición humana, obligándonos a conocer nuestras posibilidades de crecer como seres creadores desde una nueva visión del mundo donde dejamos de ser los amos de la naturaleza para convertirnos en los protectores de la naturaleza en alianza con la tecnología. Hay que buscar alternativas viables para un desarrollo tecnológico que se integre al progreso social y espiritual del ser humano desde un enfoque cooperativo que nos permite alcanzar un futuro verdaderamente sostenible.

Los desafíos

Desafío 1: Llevar a cabo una valoración del camino que estamos transitando y hacia qué futuro nos dirigimos de seguir así y que consecuencia tendría de no hacer nada. Saber hacia dónde vamos y si eso es lo que queremos (hoy nos encaminamos hacia un futuro posthumano)

Desafío 2: Formación de las nuevas generaciones en los valores humanos para que sepan tomar las decisiones correctas en la era de las tecnologías y formen a su vez generaciones mejores.

Desafío 3: Empezar por cambiar nuestra propia mentalidad y alcanzar la manifestación plena del ser por medio del desarrollo de la fuerza interior.

Desafío 4: Cambiar la actual estructura social competitiva y desarrollar una estructura social colaborativa basada en relaciones profundas que busca el bien de todos.

Desafío 5: Aprender a manejarse con los nuevos conocimientos dado el acelerado crecimiento de las tecnologías emergentes (superinteligencias) y lograr una relación entre humanos y tecnologías que permita ampliar la inteligencia y la sabiduría humana.

Desafío 6: Actitud proactiva para lograr una sinergia entre humanos y tecnologías que favorezca una evolución trascendente donde los humanos no pierdan su propia condición humana (ectosimbiosis mutual). Definir un futuro sostenible donde la vida siga progresando (evolucionando) en la era de las tecnologías.

Desafío 7: Construir una supererestructura tecnológica sostenible y colaborativa. Necesidad de un enfoque transdisciplinar que abarque al ser humano en toda su dimensión tecno-bio-psico-social que nos proporcione una visión del futuro acorde con los verdaderos ideales humanos (los ideales con lo que han soñado los grandes humanistas).

En realidad estamos ante un único desafío: enfrentar los desafíos.

Recomendado: El gran desafío de la humanidad, en la era de las tecnologías

martes, 30 de junio de 2015

Los riesgos existenciales de una singularidad tecnológica


riesgos
 Comencemos resumiendo algunas de los conceptos que ya hemos tratado en otros artículos.

Postulados de la singularidad tecnológica

La singularidad tecnológica se sostiene sobre la idea del surgimiento de una superinteligencia artificial que provoca una explosión de inteligencia, esto significa que una vez que surja esta será capaz de construir IAs cada vez más inteligentes (El desafío de la inteligencia artificial) produciéndose un crecimiento exponencial de inteligencia (aceleración tecnológica), por lo que, la IA se convertirá en el motor impulsor de la singularidad y con ello de alcanzar una posthumanidad de forma directa, sin la transición transhumanista. La idea de Kurzweil es acelerar a las tecnologías para alcanzar cuanto antes la posthumanidad (reconstrucción del humano).

Veamos los presupuestos que se tienen en cuenta para lograr una explosión de inteligencia basada en el hardware:

Un primer postulado: La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica). Se puede lograr una inteligencia artificial por fuerza bruta, o sea que dada la velocidad de la máquina pueda analizar exhaustivamente todas las posibles soluciones. Este es el caso del ajedrez, la inteligencia de la máquina se basa en su velocidad para calcular las variantes, lo cual le permite prever los que puede suceder en el tablero.

Un segundo postulado: La inteligencia de las máquinas dada la complejidad que irán adquiriendo y las conexiones internas (circuitos) o externas (redes) podrá despertar como una entidad auto consciente. La emergencia, la cual asume, que debido a la velocidad en el procesamiento de la información de la máquina, llegará un momento, que podrá manipular una gran cantidad de información y dada su complejidad podría, también, despertar como una inteligencia.

Un tercer postulado: Las máquinas se irán auto construyéndose a sí misma, cada vez más perfeccionadas, más veloces, con más memorias, dotadas de mejores algoritmos; podrán llegar a convertirse en máquinas superinteligentes que superen a los humanos. Las máquinas al alcanzar cierta inteligencia serán capaces de construirse a si misma cada vez mejores hasta llegar a una superinteligencia.

Las cuatro singularidades tecnológicas

En la singularidad de Vinge, menos optimista y radical que Kurzweil, se plantean cuatro vías para alcanzar la singularidad tecnológica, la cual puede agruparse en dos grupos.


1.-Relacionada con una inteligencia artificial. Superinteligencia artificial
2.-Relacionada con la ampliación de la inteligencia

La ampliación de la inteligencia humana nos lleva a tres líneas de desarrollo
1.-Ampliacion de la inteligencia por medio de dispositivos cibernéticos. Se produce una conexión física entre los órganos biológicos con los artefactos cibernéticos. Superinteligencia hibrida.
2.-Ampliacion de la inteligencia por medio de la interacción (colaboración) entre humanos y medios cibernético. Aquí se produce una conexión lógica entre los humanos y las máquinas. Superinteligencia colectiva
3.-Ampliacion de la inteligencia por medio de la ingeniería genética. Se producen mejoras al organismo por medio de la aplicación de la biotecnología. Superinteligencia biológica.

Con respecto a la superinteligencia artificial, estamos hablando de una IA que se construirá para que esta sea cada vez más autónoma. Ahora la pregunta es, ¿a quién responderá esta superinteligencia artificial?

Teniendo en cuenta que será más inteligente que los humanos, es importante saber quiénes la van a utilizar y con qué fin. Por lo que al final estaríamos hablando de un software propietario, propiedad privada de alguien.

Por lo que tendremos varias posibilidades.
• Superinteligencia artificial creada (en sus bases para que siga mejorándose por si misma) por los centros de investigación.
• Superinteligencia artificial creada con fines militares, ya sea por militares o alianzas.
• Superinteligencia artificial creada por las grandes transnacionales como parte de su Know How, con fines económicos (las actuales grandes transnacionales de la información, encabezadas por Google).
• Superinteligencia artificial creada con fines comerciales, su propósito es vender los sistemas.
• Superinteligencia artificial creada por la comunidad de software libre.

Dilema tecnológico

El dilema de la superinteligencia consiste en: Si se debe desarrollar una inteligencia superior a los humanos o no. Cómo relacionarnos con las super inteligencias artificiales

Ahora en bien, caso de desarrollarse una IA superior a los humanos esta debe estar bajo el control humano o debe ser autónoma (auto programarse a si misma).

En caso que sea autónoma deberá, entonces:
– Integrarse al contexto social (sistema neoliberal)
– Tener su propio espacio vital
– Tener conciencia (máquinas espirituales)
– Programadas para que respondan a los intereses humanos (tener en cuenta todos los casos)

Veamos algunas consideraciones a tener en cuenta
• La IA debe surgir sobre el sistema social vigente y desarrollarse dentro de la ley del mercado. Y todo indica que se construirá dentro de una transnacional. La pregunta es: ¿Quién va a construir la IA y con qué fin? Lo más probable es que la IA llegue a comprender mejor que nadie la ley del mercado y se convierta en el millonario más grande de la historia, surgirá un super monopolio controlado por la IA. Por tanto, si aceptamos la estructura social actual, la mejor solución es el control de las tecnologías, cualquier otra solución se va de control y los riesgos son incalculables.
• No cambiar la mentalidad actual: hedonista, mercantilista, individualista, consumista. Basada en el tener, que solo busca el éxito (como fuerza externa). Los ricos ahora con la IA serán más ricos.
• La evolución de las máquinas es más veloz que los humanos y se considera que la evolución humana es demasiado lenta o está detenida, para muchos ya se agotó. Yo pienso que en la era de las tecnologías la evolución humana se va a acelerar y dará lugar simbiosis exógena y colaborativa.
• Querer que las tecnologías respondan a los humanos, pero… ¿No podrán las tecnologías tener sus propios intereses y construir su propio espacio vital y que este se complemente con el de los humanos?

La explosión de inteligencia

Cuando se habla de explosión de inteligencia se hace referencia a que surgirán máquinas, con más velocidad de cálculo (análisis de variantes), con mas memoria, con más capacidad para procesar la información: instrucciones, reglas… En fin, máquinas que de alguna forma simulan la potencia de un cerebro para el procesamiento de la información. Pero nada de esto nos indica que las máquinas puedan igualar (hasta el momento) el conocimiento humano. La explosión de inteligencia nos garantiza que podamos resolver problemas complejos desde un enfoque lógico-matemático (construcción de algoritmos), pero no que podamos conocer la complejidad del problema y su relación con las vivencias y necesidades humanas, si desechamos a los humanos por incapaces, entonces no hay de qué preocuparse.

El problema sigue siendo como representar los conocimientos humanos en una máquina y como esta será capaz de seguir aprendiendo y de aportar nuevos conocimientos para que se integren a un verdadero progreso humano, y este es otro problema. ¿Qué entendemos por progreso humano? Aunque parezca increíble, hoy estamos más claros del significado del progreso tecnológico, que del progreso humano. Y lo otro, ¿Cómo se integra el progreso tecnológico al progreso humano? O sea, cómo ese progreso tecnológico nos puede llevar a una ampliación de la inteligencia y de la sabiduría, no solo humana, sino colectiva (entre humanos y máquinas).

Los riesgos existenciales son las amenazas que están surgiendo desde el presente y que en el futuro podrían llevar a la extinción de la especie humana. Para muchos vamos a ciegas al futuro guiados por la ley del mercado y no por intereses verdaderamente humanos. Ahora de lo anterior surgen varia preguntas ¿Podemos construir un futuro sin riesgos? De seguir como vamos a qué futuro llegaremos? ¿Qué tenemos que hacer para cambiar el futuro? ¿Por dónde empezar?

Lo primero, sería definir qué tipo de futuro se quiere alcanzar sino no sabemos lo que queremos ni las acciones para lograr ese futuro, independiente, de los centros de investigaciones que se creen ni de las buenas intenciones, el futuro seguirá siendo incierto. Y es que seguir cómo vamos, no tendremos muchas opciones que ofrecer a la humanidad como no sea dejarse llevar por las tendencias del mercado y convertirse en un producto de las tecnologías.

Por otra parte enfrentamos el deterioro del planeta, que no es tanto el cambio climático, como que estamos consumiendo todos los recursos del planeta y lo estamos destruyendo y, de nuevo, nos estamos quedando sin opción, y solo nos queda recurrir a las tecnologías. Sin dudas, estamos empeñando nuestro futuro y dejándolo en manos de una tecno utopía salvadora.

A la hora de pensar en construir un futuro sin riesgos, tendremos dos una pesimista, que asume que todo lo que signifique un peligro debe ser prohibido o estar sometido al más estricto control o la optimista que asumen que todo debe seguir su curso y que el mercado por si solo puede regular todos los problemas o el tecno-optimismo que cree que las tecnologías son la solución a todos los problemas.

Lo anterior nos lleva a un gran dilema sobre el futuro, Inteligencia artificial el futuro del hombre, tenemos que elegir entre un futuro sostenible o un futuro poshumano. Hasta ahora, no sé porque, el futuro sostenible asume una visión pesimista y propone el control de las tecnologías (pensamiento bioconservador). Mientras el futuro poshumano propone no limitar el desarrollo de las tecnologías, ya sea porque el mercado de forma natural lo hará o porque las tecnologías siempre son buenas (pensamiento transhumanista).

Hay que estar consciente que cuando un transhumanista habla de riesgos existenciales esta incluyendo el riesgo de no alcanzar la transhumanidad y cuando un bioconservador habla de riesgos está considerando el peligro de que se alcance la transhumanidad. Y este es otro problema, para los transhumanista el que no se convierta a transhumano terminará siendo un ser inferior y obsoleto, con lo que estoy en total desacuerdo, y ese es otro tema, sobre el que hay que debatir y analizar. Por otra parte los bioconservadores ven al transhumanismo como una aberración que llevará a la humanidad a su propia destrucción, tampoco lo creo así. Hay razones suficientes para creer en que la humanidad puede superarse a sí misma y que seguimos ignorando todo el potencial que los seres humanos poseen.

Sobre estos temas hay varios centros trabajando, les recomiendo el escrito de Victoria Krakovna, Organizaciones centradas sobre los riesgos existenciales, como es lógico todos los centros radican en los EEUU, no lo digo en son de crítica, (son los que más conocen del tema) sino como un señalamiento de de que el futuro no se puede diseñar solo desde el norte, sueño con un mundo más participativo, por eso me parece muy interesante la iniciativa que se está llevando a cabo en The Millennum Project) sobre los trabajos futuros, el cual estamos promoviendo desde este blog en Proyecto Milenio, de lo cual hablaremos en próximas entradas.

Volviendo a los centros que se dedican al futuro de la humanidad, no me queda claro de qué futuro se está hablando (sostenible o poshumano) ni que se entiende por sostenibilidad (fuerte o débil), ni qué tipo de evolución se va a producir teniendo en cuenta la simbiosis que se está produciendo entre humanos y tecnologías. En fin todavía quedan muchas cosas por definir y en las que hay que ponerse de acuerdo, porque la incertidumbre del futuro nos enfrenta a riesgos demasiado complejos y escurridizos para querer controlarlos o prohibirlos sin una profunda comprensión de lo que somos como seres humanos.

En el artículo anterior habíamos mencionado la necesidad de definir el tipo de futuro que se quiere lograr, si un futuro sostenible o un futuro posthumano para saber hacia dónde queremos ir y que acciones se deben llevar a cabo para realizar ese futuro, independiente, de la posición que se asuma y la colaboración que se establezca, es condición necesaria alcanzar una coexistencia entre todas las ideologías y visiones del futuro.
Pero primero es necesario retomar el tema de la singularidad tecnológica.

Actualmente estamos ante una explosión de conocimientos donde el progreso tecnológico (tecnologías emergentes) nos lleva a un nuevo conocimiento, tenemos que aprender cómo manejarnos con las tecnologías que en un futuro serán inteligentes y se producirá una explosión de inteligencia que desatará, a su vez, una mayor explosión de conocimientos que podría sacar de juego a los humanos (los humanos dejaran de participar en la nueva explosión de conocimiento y esta terminar siendo dominio exclusivo de las máquinas)
Todos los enfoques sociales y ecológicos actuales tienen en cuenta un crecimiento lineal donde solo existe la dimensión socioeconómica y no se tiene en cuenta la dimensión tecnológica y su aceleración (explosión de inteligencia) que nos llevará a una explosión de conocimiento más allá del alcance de las capacidades del humano actual, de ahí que para muchos, no haya otra opción que fusionarse con las tecnologías (futuro posthumano), la sostenibilidad tecnológica es la búsqueda de un futuro sostenible.

Mi preocupación no es que la IA sea más inteligente, más amigables, ni más robusta sino que los humanos sean capaces de ampliar su inteligencia y su sabiduría junto a la IA, ya que en realidad estamos proyectando nuestra preocupación por nosotros mismos sobre la IA, y tememos que esa superinteligencia pueda hacer cosas peores que nosotros.

Considero que la justificación a los diferentes sistemas lo da la simbiosis que se está produciendo entre humanos y tecnologías. Estamos hablando de una relación simbiótica y es que, por primera vez en la historia de la humanidad; podemos decidir, ya no solo que tipo de religión, de moral, de sociedad y de educación queremos sino también, qué tipo de evolución queremos alcanzar y a qué futuro queremos llegar.
En mi opinión el gran acontecimiento no va a ser el surgimiento de una superinteligencia sino la simbiosis que se está produciendo, desde hoy, entre humanos y tecnologías. Y si somos capaces de guiar la evolución humana hacia generaciones cada vez mejores.
  • Ectosimbiosis – Futuro sostenible
  • Endosimbiosis – Futuro poshumano
Todo indica que nuestro dilema actual será escoger entre un futuro sostenible o un futuro posthumano. Siguiendo a la prospectiva podemos asumir cuatro actitudes frente al futuro.
  • Pasiva: no hacer nada
  • Reactiva: política de apagafuegos
  • Pre – activa: anticiparse a los cambios
  • Pro – activa: provocar el cambio

Futuro sostenible (Bioconservadurismo – Sostenibilidad) vs Futuro posthumano (Transhumanismo – Singularidad)

Veamos los seis escenarios que se están produciendo

1.-Posicion fácil: Aceptar el progreso tecnológico como un proceso inevitable (imperativo tecnológico) que se inserta en la ley del mercado.
  • No hacer nada, nos lleva a buscar que el capitalismo siga creciendo y a la necesidad de sustituir los recursos naturales por artificiales y a las tecnologías de mejoras sobre el ser humanos.
  • Se acepta un accionar reactivo con respecto al deterioro del planeta. Sostenibilidad débil.
  • Nos lleva a un transhumanismo liberal y al tecno-liberalismo (transnacionales)
  • Se produce una evolución semi-artificial dentro de una endosibiosis mutual
  • Personalidades. Es representativa de las grandes transnacionales y las elites de poder. Hay una ruptura con los valores del capitalismo tradicional pero sigue dentro de los principios del neoliberalismo. Es el neoliberalismo en la era tecnológica
2.-Posicion de compromiso: Preactivo con respecto al progreso tecnológico y al progreso humano
  • Evitar los riesgos de una singularidad pero desde un pensamiento transhumanista (transhumanismo democrático)
  • En lo socioeconómico caen dentro de la social democracia
  • Casi todos los centros dedicados a los riesgos existenciales se incluyen en esta posición (aunque no estén definidos explícitamente) ya que se proponen dentro de un transhumanismo responsable
  • Con respecto al planeta les preocupa el deterioro del planeta por lo que asumen posiciones de un desarrollo sostenible moderado
  • Se produce una evolución semi-natural teniendo como fundamento una endosinbiosis comensal.
  • Personalidades: Bostrom y Hughes dada su formación filosófica son los más representativos pero aquí pueden incluirse todos los defensores de una IA robusta, amigable y los que quieren evitar los riesgos de las tecnologías emergentes. Social democracia en la era tecnológica
3.-Posicion de ruptura: Acelerar a las tecnologías para alcanzar cuanto antes la singularidad tecnológica
  • Accionar proactivo que propone la construcción de superinteligencias artificiales, donde de forma explícita (Moravec) o de forma implícita (Kurzweil) las maquinas sustituirán a los humanos.
  • No se tiene en cuenta el deterioro del planeta, ya que este será reconstruido (planeta artificial). Estamos hablando de una sostenibilidad muy débil
  • Evolución artificial desde una endosimbiosis parasitaria
  • Personalidades: Moravec (el más consecuente), Vinge (el más abarcador) y Kurzweil (el más comprometido). Se ve en el tecnologismo la solución a todos los problemas más allá de la economía de mercado y de cualquier otra solución. Hay una ruptura con los principios del neoliberalismo por la concepción de un nuevo sistema donde las tecnologías son el verdadero protagonista. La era tecnológica sin límites.
4.-Posicion absoluta en defensa de la sostenibilidad y su evolución natural. Prohibir la singularidad
  • Actitud cercana al bioludismo
  •  Accionar proactivo con respecto a la sostenibilidad (ideología biocentrista)
  • Involución natural. Retornar a la naturaleza (sostenibilidad muy fuerte) desde una
  • ectosimbiosis parasitaria. Futuro sostenible bajo el respeto absoluto de la evolución natural.
  • Como sistema se cae dentro del socialismo ecologista (ecos—socialismo)Personalidades: los ecologistas, se propone una ruptura con el neoliberalismo y con el egocentrismo humano. Y la ecología se convierte en la salvación de la humanidad. Existen ONG enfocadas al tema.
5.-Posicion conciliadora entre el medio ambiente, el desarrollo social y el crecimiento económico. Se pretende controlar a las tecnologías para que no se escapen de las manos
  • Actitud preactiva con respecto al progreso en general, tanto humano como tecnológico.
  • Control de las tecnologías para que no se conviertan en una superestructura (singularidad tecnológica). Infraestructura tecnológica
  • Se prioriza la sostenibilidad por encima de los demás problemas, lo cual lleva a la búsqueda de tecnologías sostenibles y controlar a las tecnologías emergentes. Desarrollo sostenible
  • En lo político se defiende una social democracia de corte ecologista
  • Evolución socio-cultural desde una ectosimbiosis comensal. Futuro sostenible desde un equilibrio ecológico, social y económico donde lo tecnológico y lo espiritual se subordinan a lo anterior.
  • Personalidades: los defensores del desarrollo sostenible. Los que son considerados bioconservadores (ej. El grupo ETC), la mayoría de las ONG relacionadas con el medio ambiente, la UNESCO, etc.
6.-Posicion transformadora: Futuro sostenible proactivo se busca lograr un progreso donde las tecnologías y los humanos colaboren por un futuro sostenible. Futuro sostenible en la era tecnológica
  • Actitud proactiva tanto ante la singularidad como ante la sostenibilidad
  • Desarrollo de una superinteligencia colectiva. Superestructura tecnológica sostenible.
  • En lo político se defiende un socialismo comunitario (empoderamiento de la humanidad en toda su dimensión: tecno-bio-sico-social). Ideologia transdisciplinar
  • Evolución trascendente desde una ectosimbiosis mutual
  • Personalidades: Dando su enfoque transdisciplinar son muchas: Erick Fromm, Buda, Norbert Wiener, Stalman, Alejandro Madruga, Manturana, Valera, Frijot Capra, Baterson, Edgar Morin, Carlos Delgado… Donde cada cual ha aportado su granito de arena. No existe una institución como tal que desarrolle esta cosmovisión, lo más cercano son las instituciones dedicadas al pensamiento complejo.
En este último se defiende la cosmovisión de un Futuro sostenible proactivo desde una evolución trascendente. Que parte de un desarrollo sostenible ampliado a lo espiritual y lo tecnológico donde se produce una colaboración entre humanos y tecnologías. Se hace necesario aprender a convivir con otras inteligencias, otras formas de vida, lo cual lleva a un progreso humano proactivo que busca desarrollar todo el potencial humano.

Cuan hablo de evolución trasncendente me refiero a una ectosimbiosis mutual donde los humanos evolucionan desde su propia espiritualidad desarrollando su fuerza interior, siendo actores sociales de los cambio (empoderamiento humano) y desarrollando nuevas formas de colaboración entre humanos y tecnologías. Este es un tema sobre el que hay que trabajar, se necesita de unir esfuerzos, para encontrar una guía para el progreso humano y la preservación de la vida en la era de las tecnologías.

viernes, 19 de junio de 2015

El gran desafío de la humanidad, en la era de las tecnologías

portada-desafiosEl libro es un desafío al pensamiento convencional y se constituye un instrumento valioso para pensar. Pero lejos de promover un pensamiento lineal como todo ensayo de anticipación implica un complejo juego de bifurcaciones, puntos de inflexión y una tensión constante entre pasado y futuro.
Y constituye un extraordinario esfuerzo en desentrañar nuevas conformaciones de mentalidades, intereses y potenciales consecuencias de nuevos operadores de la escena global, para muchos científicos sociales todavía inadvertidas. Su explicación de la naturaleza humana como una criatura bio-psico-social, incluyendo como cuarta característica constitutiva la tecnología me parece de importancia sustantiva. Tan válida como la percepción del riesgo que implica la capacidad de las tecnologías para incrementar su inteligencia y autonomía. Situación esta recientemente advertida por destacados científicos y líderes sociales, al advertir sobre las amenazas implícitas en el desarrollo de la inteligencia artificial.
Miguel Ángel Gutierrez.

El Ensayo se divide en cuatro temas :

1. Del fin de la historia al fin de la especie humana

Se hace un análisis del pensamiento de Fukuyama y de los errores contenidos en su libro “el fin de la historia”, desde su propia valoración.

2. El fin de una especie y el surgimiento de otra

Se analizan los presupuestos del transhumanismo y las diferentes visiones que han surgido tanto a favor como en contra, y el llamado enfrentamiento biopolítico. Así como las preocupaciones que está generando el transhumanismo, lo cual llevo a Fukuyama a decir que es la idea más peligrosa del mundo.

3. La supervivencia de la especie humana

¿Se están cumpliendo los objetivos del desarrollo sostenible? Se cuestionan los objetivos actuales para lograr un futuro sostenible ante el impacto cada vez mayor de las tecnologías emergentes.

4. Hacia un progreso humano verdaderamente digno

Se exponen los posibles escenarios futuros y las alternativas de que se dispone para lograr un futuro sostenible en la era de las tecnologías.

El ensayo persigue llevar a cabo una valoración del camino que estamos transitando y hacia qué futuro nos dirigimos, hoy todo parece indicar que, por inercia, nos dirigimos hacia un futuro posthumano, de ser así, ¿Qué consecuencias tendría? ¿Si es eso lo que deseamos para nuestros hijos? ¿Tenemos alguna alternativa? Y sobre todo, ¿Qué iniciativas llevar a cabo para cambiar ese futuro?

Disponible en Amazon

lunes, 1 de junio de 2015

Las cuatro singularidades tecnológicas


relacion-humanos Cuando se habla de singularidad tecnológica se piensa solo en el surgimiento de una super inteligencia artificial y se subestiman el resto de las tendencias y peor aun existe gran confusión sobre que es la singularidad tecnológica y que es el transhumanismo, y más aun, existen diferentes posiciones dentro de los defensores de una singularidad tecnológica, porque no es lo mismo la singularidad que defiende Moravec, que la singularidad que defiende Kurzweil.

Hace algunos años propuse una clasificación de la singularidad tecnológica siguiendo la idea de Vinge, quien, en mi opinión tiene la concepción más clara y abarcadora de la singularidad, tanto la de Kurzweil como la de Moravec, resultan un poco confusas. En cambio Vinge separa las singularidades (vías para alcanzarlas) en cuatro tendencias de acuerdo al tipo de super inteligencia que podía surgir, a las que yo llamé: superinteligencia artificial, superinteligencia hibrida, superinteligencia colectiva y superinteligencia biológica.

También, siguiendo a Vinge, trate de ampliar la idea de una singularidad tecnológica como el momento en que las tecnologías se convertían en una superestructura capaz de compartir las decisiones del planeta con los humanos. Pero siempre me quedaba algo confusa la relación entre las diferentes superinteligencias y si estas podían coexistir entre sí (eso no le queda claro a nadie), y lo más lógico dado nuestra actitud ante los problemas actuales que todo lo queremos resolver por medio de amenazas y sanciones, actitud que nos está arrastrando a un enfrentamiento mundial de consecuencias impredecibles. Por eso no sería nada extraño que las superinteligencias también se enfrentaran aludiendo nuevas causas y justificando el predominio del más fuerte.
Últimamente prefiero hablar de una simbiosis entre humanos y tecnologías, lo cual me aclara muchos de los conceptos que hasta ahora me parecían algo confusos, antes de seguir hablando de la simbiosis, prefiero aclarar algunos conceptos y confusiones entre singularidad tecnológica y transhumanismo. Son muchos los que hablan de transhumanismo, humano mejorado y singularidad tecnológica como si fuera lo mismo. En realidad hay intenciones muy diferentes entre uno y otro, y también aspiraciones y consecuencias diferentes.
Para los transhumanista la esencia de sus postulados radican en alcanzar la superhumanidad, ellos buscan, por medio de las tecnologías, superar sus límites humanos y lograr ser más inteligentes, mas fuertes, más bellos, saludables, etc. La singularidad tecnológica se sostiene sobre la idea de que las máquinas sean cada vez más inteligentes hasta igualar a los humanos y luego superarlos. Según Moravec, esto es un proceso inevitable, ya que la evolución de las máquinas (progreso tecnológico) es superior a la evolución humana y ve a las máquinas como las herederas naturales del planeta. En cambio, Kurzweil, ve las ventajas que esto reportará para los humanos, ya que esa superinteligencia artificial, muy superior a la humana, será capaz de resolver los grandes problemas que los humanos no han podido resolver, y esta convencido de que la inmortalidad será posible.

Si para los transhumanistas la superhumanidad, se puede alcanzar  con transformaciones paulatinas, desde ellos mismo, convirtiendose en un individuo cada vez más inteligente, más joven y saludable, así hasta alcanzar la inmortalidad. La singularidad desplaza sus aspiraciones a que las máquinas sean cada vez más inteligentes y apuestan por una futura transferencia de la mente a un medio digital (mind uploading), de ahí que existan muchas personas que están criogenizando sus cabezas, para algún día, cuando se alcance la singularidad, descarguen su mente sobre un nuevo soporte que le permita existir en un medio digital, estamos hablando de lo que actual mente se le llama “la nube”, lo cual nos lleva a la posibilidad futura de vivir en un mundo digital al estilo Matrix.

Cuando hablamos de descargar la mente en un mundo digital estamos asumiendo que la mente no es otra cosa que complejos algoritmos que pueden ser convertidos a programas, la metáfora de la computadora que sume que la mente no está conformada por programas y que el cerebro no es otra cosas que un sistema que procesa información al igual que la computadora. De ahí que se pueda transferir la mente, en forma de programas, software, codificarse digitalmente; como quiera llamarse. Al final vamos a tener un programa que es la representación virtual de la mente humana. Por supuesto que la cosa no termina aquí, lo bueno sería lograr que la mente se pueda seguir reprogramando y perfeccionándose en nuevas versiones, idea de Kurzweil. A mí me viene a la mente el cuento ¿Existe verdaderamente Mr.Smith? , de Stanislaw Lem, de una hombre que compite en carrera de autos y cada vez que tiene una accidente le ponen una prótesis, así hasta que al final solo está compuesto de prótesis; ya no tiene nada de humano. Aquí estamos ante una transformación por hardware, en el caso de la mente estaríamos en una transformación por software ya que al final se estaría reprogramando a la mente en nuevas versiones cada vez más algorítmicas (más cerca de ser un software) que al final no tendría ninguna relación con la mente que le dio origen y podríamos preguntarnos: ¿Existirá verdaderamente Mr. Kurzweil?

 Nos acercamos a una singularidad tecnológica donde las tecnologías se convertirán en una superestructura y participarán de las decisiones del planeta como una inteligencia más, independientemente de si las personas se conectan físicamente a la tecnología o no (Wikipedia), por supuesto,  que esto no tiene porque suceder. Están los que piensan que la solución es ir cuanto antes a una singularidad tecnológica y los que piensan todo lo contrario y proponen la prohibición de la mayoría de las tecnologías emergentes, también, están los que creen que la singularidad tecnológica no pasa de ser una tecno-utopía y nunca sucederá.
La idea central para que surja una singularidad tecnológica es el surgimiento de una inteligencia suprahumana. Vinge, utiliza el término de máquina ultra inteligente y la define como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independientemente de la inteligencia de éste y está convencido de que esa inteligencia superior será la que impulsará el progreso, el cual será mucho más rápido e incluso superará a la actual evolución natural. Destaco esto último, que superara la evolución natural, por lo que estamos asumiendo que el futuro (después de la singularidad) surgirá una evolución superior a la actual.

Sabemos, que en la actualidad, la humanidad no se rige totalmente por la evolución natural sino por una evolución socio-cultural, por suerte ya no se cumple la ley de la supervivencia al pie de la letra como en época del hombre de las cavernas y parece como si la ley del mercado hubiese sustituido a la ley de la selva, y la lucha pasó de los territorios a los mercados. Tampoco se utilizan los mismos métodos, las agresiones militares se han ido transformando en agresiones económicas (sin abandonar las acciones militares). En fin, la lucha por el poder, con otros métodos, sigue siendo la misma.

Volviendo al tema, estamos hablando de una superinteligencia capaz de superar a la inteligencia humana en todos los aspectos, yo no estaría tan seguro de que podría superar a los humanos en todos los aspectos, y que esta inteligencia artificial sería a su vez capaz de autoprogramarse y desarrollar programas cada vez más inteligentes y surgiría así una explosión de inteligencia. Esta es la idea de una singularidad tecnológica basada en el surgimiento de una superinteligencia artifical.

No olviden que los defensores de una singularidad parten de la idea de que el cerebro humano no tiene ningún cambio significativo durante milenios (a diferencia de las máquinas que se asume que pueden autoconstruirse en versiones cada vez más potentes).

Para el logro de una inteligencia superhumana, existen dos grandes vías
El de una inteligencia artificial que se hace cada vez más inteligentes, como ya mencionamos
El de la amplificación de la inteligencia humana. Existen tres formas de ampliar la inteligencia humana y crear una superinteligencia (inteligencia superior a la de los humanos)
• Superinteligencia hibrida, producto de la fusión entre humanos y tecnologías
• Superinteligencia biológica, modificación por ingeniería genética del cerebro
• Superinteligencia colectiva, producto de la colaboración entre humanos y tecnologías

Super inteligencia artificial: Se acepta el concepto de una inteligencia artificial (IA) que supera a los humanos, es condición necesaria. Estamos hablando de una IA que se desarrolla a sí misma de forma independiente a los humanos, como la define Moravec, y según él, las máquinas inevitablemente desplazarán a los humanos (endosimbiosis parasitaria, ver Relación simbiótica entre humanos y tecnologías)

Superinteligencia hibrida: Aunque no es obligado, sin dudas los humanos necesitarán de una IA para fusionarse con ella, no se puede hablar de un ciborg, si la máquinas como tal, no son capaces de mejorase a sí mismas (endosimbiosis mutual).

Superinteligencia biológica. Este es el único caso que no necesita del surgimiento de una IA para que sea capaz de lograr una superinteligencia (endosimbiosis comensal)

Superinteligencia colectiva. También es necesario el surgimiento de una superinteligencia donde las IAs se hacen cada vez más inteligentes pero en cooperación con los humanos y ambos se perfeccionan por medio de un aprendizaje cada vez más acelerado y perfeccionado (ectosimbiosis mutual)

Superinteligencia colectiva

Como defensor de una superinteligencia colectiva, he estado pensando sobre algunos conceptos que es necesario aclarar.

El aprendizaje de la máquina en el mundo real (que no es lo mismo que en un laboratorio), hasta hoy, no permite que se puedan programar todos los conocimientos (ir construyendo manualmente una base de conocimientos sobre el mundo real) la experiencia ha llevado a que la máquina debe ser capaz de aprender por sí misma.

Lo cual nos lleva a que la máquina pueda construir programas cada vez más inteligentes a la vez que va construyéndose a sí misma. Aquí hay un problema, se supone que en estos programas la máquina le transfiera su experiencia a la nueva máquina, por tanto el acto de autoprogramarse es una acción que requiere de un aprendizaje que se va a trasmitir por la elaboración de códigos de programas que serán incluidos en la nueva máquina (al igual que los humanos requieren de un aprendizaje que debe ser asimilado)
Por tanto, cuando se habla de máquinas más inteligentes se refieren a una máquina que construye otra más potente: más capacidad de memoria, más velocidad de cálculo y se ignora la necesidad de un aprendizaje y de una experiencia adquirida en la práctica.

Entonces, la máquina al igual que los humanos estará sometida a un proceso de aprendizaje, de una experiencia y de una especialización en ciertas actividades. O sea, estamos hablando de acelerar el aprendizaje.

Por eso en lugar de una explosión de inteligencia que se refiere a máquinas que construyen máquinas cada vez más potente, prefiero hablar de una explosión de aprendizaje donde las máquinas tendrán que ser capaces de aprender y a su vez de construir máquinas capaces de aprender más y mejor. Y en este caso, están tanto los humanos como las máquinas, ambos tienen que aprender a aprender.

Siguiendo con el aprendizaje, las máquinas tendrán que aprender del mundo real, de los textos, de la experiencia humana, de las instituciones educativas humanas. Entonces, ¿como se harán más inteligentes que los humanos? Su potente hardware necesitará de una fuente de conocimientos que los humanos no podrán darle (dado sus lentos cerebros) y podría suceder que vieran a los humanos como un obstáculo para su crecimiento. ¿Qué pasaría si dotáramos a un tigre de una superinteligencia, primero se convertiría en el depredador más eficiente que jamás haya existido y después consideraría a la raza humana un peligro y, sin dudas, la destruiría.

Por suerte existe una solución, las máquinas y los humanos deben aprender juntos, ambos deben hacerse cada vez más inteligentes (y sabios) e ir acelerando el aprendizaje y con ellos las fuentes de conocimientos, las instituciones educativas, los medios de aprendizaje, en general se debe transformar la cultura actual exclusivamente humana por una producto de la colaboración entre humanos y máquinas, estamos hablando de una superinteligencia colectiva.

De una parte tendremos máquinas mejores dotadas que se irán construyendo y, de la otra, niños que irán naciendo también mejores dotados (dentro de una ectosimbiosis mutual como base de la evolución) y que, ambos, estarán sometidos a una educación cada vez más avanzada (aceleración del aprendizaje).