martes, 21 de julio de 2015

Desafíos del futuro. ¿Se puede tener un plan?


Futuros-TurchinLa humanidad parece estar ante el dilema de escoger entre un futuro sostenible o un futuro posthumano, visto fríamente parece ser así, pero si tenemos en cuenta los tipos de simbiosis que se pueden producir entre humanos y tecnologías, la solución más inteligentes parece ser buscar una forma de convivencia entre todos los futuros posibles ante el acelerado progreso tecnológico.
Entonces, el gran desafío es como será en futuro en la era de las tecnologías. Podemos considerar que hemos pasado por dos grandes eras: la era natural y la era socio-cultural, en la que estamos inmersos. En la era actual, la evolución social predomina sobre la evolución natural, incluso la condiciona. La sociedad es la que fija las mutaciones más favorables al contexto social imperante, en lugar de los cambios climáticos como sucedía antes. Ahora nos acercamos a una nueva era condicionada, de alguna manera, por una forma de evolución artificial, para muchos, la singularidad tecnológica.

Desafíos del futuro

Detrás de cada desafío existe un paradigma que los sustenta y que de alguna forma representa una solución a los problemas existentes. Podemos agrupar los desafíos en cuatro, con sus respectivos sistemas opositores.
Desafío socio-económico: Capitalismo vs Socialismo
Desafío psico-religioso: Transhumanismo vs Bioconservadores
Desafío eco-sostenible: Sostenibilidad ecológica vs Neoliberalismo irresponsable
Desafío tecno-científico: Singularidad tecnológica vs Precaución tecnológica
No vamos a entrar en detalles, esto tema para un próximo libro, pero a grandes rasgos, podemos afirmar que no se pueden hacer planes sobre el futuro si no se tienen en cuenta los cuatros desafíos, los paradigmas que lo sustentan y a qué futuro nos conducen.
¿Puede el capitalismo con su ley del mercado y su consumismo desenfrenado, preservar a la vida y al planeta? ¿Puede el transhumanismo sustituir los grandes ideales de la religión de perfeccionamiento espiritual? ¿Es capaz la sostenibilidad ecológica de alentar la prosperidad y el progreso tecnológico? Y por ultimo. ¿Nos impondrá la singularidad tecnológica el precio de abandonar nuestra condición humana? Son preguntas que tenemos que comenzar a respondernos desde ahora o iremos a ciegas al futuro.
En este articulo nos proponemos hacer un análisis de la publicación de Alexei Turchin, Plan of Action to Prevent Human Extinction Risks, en el mismo afirma que sus planes siguen el enfoque de la singularidad tecnológica, por lo que quedan fuera el resto de los enfoques: socio-económico, pisico-religioso y eco-sostenible. Y aunque estos puntos se tocan, pero condicionados al enfoque tecno-científico. Veamos los planes de forma resumida pero solo teniendo en cuenta los primeros años 2015-2020.

Plan A1. Basado en un sistema de control internacional (2015-2020)

Parte de la idea de un sistema de control internacional dirigido por las naciones unidas. No sé en el futuro que pasará pero en el presente organizaciones mundiales están muy preocupadas con las crisis del presente para pensar en lo que va a suceder en el futuro. Si no miren los Objetivos de Desarrollo del Milenio de la ONU. Obviando las verdaderas preocupaciones de la ONU. Tuchin propone el siguiente plan a corto plazo.
• Propone comenzar con una investigación sobre los riesgos, la integración de los diferentes enfoques (¿Cuáles enfoques) así como una evaluación de las probabilidades y prevención ante los riesgos.
• Buscar apoyo social: Cooperación entre las comunidades científicas dirigidas por el Centro de Estudio para los Riesgos Existenciales (CSER, en ingles), la divulgación, el apoyo público, el apoyo político y lo que el llama atributos científico: wiki, foro, conferencias, etc.
• Transformación de valores: crecimiento del deseo público de extender la vida y de la seguridad mundial, reducción de los religiosos radicales y de los valores nacionalistas, popularidad del transhumanimo y cambio del modelo del futuro (¿Cuál modelo?).

Plan A2. Inteligencia artificial amistosa (2015-2020)

La idea de una Inteligencia Artificial (IA) amistosa es una abstracción tal como la de construir una IA dentro de un laboratorio siguiendo la idea de un mundo de juguetes. Al final repetimos el mismo error de querer definir los requerimientos de una IA programada, totalmente, para que sea amistosa con los humanos. Veamos la propuesta de Turchin a corto plazo.
Estudio y promoción
• Estudio de la teoría IA amistosa
• Promoción de la AI Amistosa (Bostrom y Yudkowsky)
• Recaudación de fondos, Instituto de Investigación de Máquinas Inteligentes (MIRI, en ingles)
• Racionalidad enseñanza (menos mala)
• Disminuir otros proyectos de IA (reclutamiento de científicos)
Aquí quedan algunas dudas, porque se disminuyen los proyectos y quien los disminuye, que persigue es educación menos mala. En fin, el futuro, incluso a corto plazo, sigue siendo incierto.

Plan A3. Robustez creciente (2015-2020)

A pesar de que Turchin lo pone como la tercera opción de plan realizable, en mi opinión es el más consecuente con la complejidad del futuro que se avecina. Al menos es el único que tiene en cuenta el problema de la sostenibilidad del planeta.
Mejorar sostenibilidad de civilización
• sistemas críticos de seguridad intrínseca
• La creciente diversidad de los seres humanos y hábitats
• métodos universales de prevención (estructura resistentes, medicina fuerte)
Importante, tener en cuenta la creciente diversidad de los seres humanos, es casi seguro que en el futuro convivan con los humanos, humanos mejorados genéticamente, ciborgs, humanos reconstruidos, entidades robóticas, etc., y sus posibles hábitats. Para mí aquí está la clave del problema, ¿cómo será la relación simbiótica que establecerán los humanos y las tecnologías? ¿Tendrá cada cual su propio espacio vital?

Plan A4. Colonización del espacio (2015-2020)

Las posiciones más duras de una singularidad tecnológica, defendida por Hans Moravec, lleva a la sustitución total de lo natural por lo artificial, estamos hablando de la desaparición de la especie humana y el surgimiento de una nueva especie artificial y como consecuencia de una vida y un planeta artificial. Siempre he dicho si la solución extrema es destruir el planeta natural por otro artificial, no es mejor desde el principio construir un planeta artificial fuera de la Tierra y los que lo deseen se van a vivir a ese planeta. En fin veamos las propuestas de Turchin a corto plazo
Asilos temporales en el espacio
• Estaciones espaciales como asilos temporales (ISS)
• Sistemas de lanzamiento baratos y seguros
• La creación de colonias espaciales en la Luna y Marte (Elon Musk)
Sin dudas, Elon Musk es uno de los grandes entusiasta y financista de la colonización del espacio.
Ahora si fallan todos estos planes, entonces Tuchin propone un plan B.

Plan B. Sobrevivir a la catástrofe (2015-2020)

Aunque parezca ilógico, muchos creen que la humanidad debe sufrir un colapso, que este a punto de la destrucción total para que entonces los sobrevivientes retomen la civilización evitando los errores y de esa forma construir una nueva era para la humanidad. Veamos lo que propone Tuchin.
Preparación
• Recaudación de fondos y promoción
• Libro de texto para reconstruir la civilización (Libro “Conocimiento” de Dartnell)
• Las acumulaciones con los conocimientos, las semillas y materias primas (bóveda del Juicio Final en Noruega)
• Comunidades sobrevivientes
Sin comentarios.
En su escrito Tuchin también propone un plan C y un plan D

Plan C. Deje copias de seguridad (2015-20)

Ya existen alguna personas criogenizando su cuerpo (los que pueden pagarlo todo) o sus cabezas.
Cápsulas del tiempo con información
• Almacenamiento subterráneo con la información y el ADN para futuras civilizaciones no humanas
• Discos Eternos que durarán para siempre (o “M-Disc”)

Plan D. Ideas improbables (2015-2020)

Ya esto es pura ciencia ficción
Salvados por una inteligencia no humana
• Tal vez extraterrestre nos encuentran y nos salvarán
• Tal vez vivimos en una simulación y los simuladores nos salvarán
• La Segunda Venida, un milagro, o la vida después de la muerte
• Enviar mensajes de radio en el espacio pedir ayuda en caso de una catástrofe inevitable
Y por último el plan malo

Plan malo (2015-2020)

El plan malo es el escenario donde por una parte se imponen los llamados bioluditas y sus ideas de prohibir las tecnologías que huelan a peligro, que son casi todas o no hacer nada, o sea, no tener un plan.
Prevenir la investigación de riesgos existenciales ya que sólo aumenta el riesgo
• Mantenga peligroso secreto información e ideas de terroristas
• No publicitar la idea de la catástrofe global hecha por el hombre
• No trate de controlar los riesgos ya que esto los aumentará
• Como no podemos medir la probabilidad de la catástrofe global tal vez sea irazonable tratar de cambiarla
• No hacer nada
Aquí Turchin también incluye las ideas extremas del ecologismo de la Creación de la civilización ecológica sin tecnología (“Mundo hecho a mano”, anarco-primitivismo), así como las teorías malthusianas y el control de la natalidad.
Hasta aquí los planes propuestas por Alexei Turchin entre el 2015 y 2020, repito, aunque su análisis llega hasta más allá del 2050, yo preferí solo tener en cuenta las acciones a corto plazo, que están más cerca de la realidad actual.
En mi libro El gran desafío de la humanidad en la era de las tecnologías, analizo los diferentes escenarios futuros más viables teniendo en cuenta las Tecnologías emergentes y su implicación sobre la humanidad. Ahora vamos a realizar cierta comparación con los planes de Turchin.
1.-Ecologismo, aquí se asume que predominan las ideas de una ecología radical, que lleva al crecimiento cero, lo que Turchin, en parte, llama el plan malo cuando hace referencia cuando habla de una civilización ecológica sin tecnología.
2.-Socialismo ecológico. Son los intentos de tratar de resolver la crisis ecológica actual dentro de un desarrollo sostenible, se busca un equilibrio entre lo económico, lo social y lo ambiental, apoyándose en las instituciones gubernamentales (sistema de control internacional) pero orientado al deterioro del planeta, a la justicia social, a la pobreza extrema, el consumismo, etc. A diferencia de Turchin que aspira a un plan A1 donde la ONU se dedica a los problemas del futuro.
3.-Socialismo colaborativo. Se establece relaciones profundas entre los humanos y estos con las tecnologías se busca alcanzar un futuro sostenible sin detener el progreso tecnológico. Tiene cierta coincidencia con el plan A3 de Turchin.
4.-Tecnologismo. Consiste en la aceptación de que las máquinas superarán a los humanos y este no tiene otra opción que fusionarse con ellas. Incluso, se considera que es lo mejor que le puede pasar. Tiene grandes semejanzas con el plan A4 con respecto a construir un planeta artificial.
5.-Capitalismo postmoderno. Es el momento en que la ideología transhumanista alcanza todo su esplendor dentro del sistema neoliberal. Al cual solo le preocupa el surgimiento de una superinteligencia artificial que pueda poner en peligro el propio desarrollo transhumanista. Coincide con la preocupación del plan A2 y la necesidad de construir una IA amistosa.
6.-Es consecuencia del anterior lleva a un transhumanismo responsable más preocupado por los riegos existenciales en general. Dado su carácter conciliador se mueve entre el plan A1, A2 y A3.
Opino que los planes elaborados por Alexei Turchi pueden ser un buen punto de partida, pero, teniendo en cuenta que se sustenta sobre el paradigma de una singularidad tecnológica.
Como decía al principio nuestra época esta influenciada por cuatro paradigmas predominantes que, por separados, parecen movilizar todos los esfuerzos hacia un futuro mejor (o peor).
• Neloliberalismo (en lo social)
• Transhumanismo (en lo individual)
• Sostenibilidad (en lo ecológico)
• Singularidad (en lo tecnológico)
Del enfoque transdisciplinar de estos paradigmas y las soluciones (éticas, educativas, evolutivas, espirituales, tecnológicas…) que se den, dependerá el futuro de la humanidad.

Recomendación: El gran desafío de la humanidad, en la era de las tecnologías

No hay comentarios: