Cuando el renombrado físico Stephen Hawking falleció recientemente en marzo, no fue antes de escribir un nuevo libro, en el cual se detallan sus temores sobre el futuro de la humanidad. En el predice que una raza de superhumanos tomará el control, habiendo utilizado la ingeniería genética para superar a sus semejantes.

En Brief Answers to the Big Questions, que se publicará el 16 de octubre, sin embargo algunos ensayos fueron extraídos  hoy en el Sunday Times del Reino Unido, que hablan de los posibles peligros de la inteligencia artificial (IA) y de cómo se podría abusar de la edición de genes.

Principalmente Hawking emite una grave advertencia sobre la importancia de regular la Inteligencia Artificial (IA), señalando que “en el futuro, IA podría desarrollar una voluntad propia, una voluntad que esté en conflicto con la nuestra”. Antes de que se produzca una posible carrera de armamentos sobre armas autónomas puede comenzar, escribe, preguntando qué pasaría si se produjera  con las armas un choque similar al del mercado de valores de 2010,  Flash Crash.

Hawking habló sobre el potencial de la IA para ayudar a deshacer el daño causado al mundo natural, o para erradicar la pobreza y las enfermedades, y cada aspecto de la sociedad se “transforma”. Pero admitió que el futuro era incierto.

“A menos que aprendamos cómo prepararnos y evitar los riesgos potenciales, la IA podría ser el peor evento en la historia de nuestra civilización. Trae peligros, como poderosas armas autónomas, o nuevas formas para que unos pocos opriman a muchos. Podría traer una gran interrupción a nuestra economía”.

El científico destacó algunos de los trabajos legislativos que se están llevando a cabo en Europa, en particular las propuestas presentadas por los legisladores a principios de este año para establecer nuevas reglas sobre la inteligencia artificial y la robótica. Los miembros del Parlamento Europeo dijeron que las reglas a nivel de la Unión Europea eran necesarias sobre el tema.

Tales desarrollos le están dando esperanza a Hawking.

“Soy optimista y creo que podemos crear inteligencia artificial para el bien del mundo. Que puede funcionar en armonía con nosotros. Simplemente necesitamos ser conscientes de los peligros, identificarlos, emplear la mejor práctica y gestión posibles, y prepárese para sus consecuencias con mucha antelación”, expresó Hawking.

En resumen, el advenimiento de la inteligencia artificial súper inteligente sería lo mejor o lo peor que le haya ocurrido a la humanidad. El verdadero riesgo con la IA no es la malicia, sino la competencia. Una IA súper inteligente será extremadamente buena para lograr sus objetivos, y si esos objetivos no están alineados con los nuestros, estamos en problemas. Probablemente no seas un malvado que odia a las hormigas y pisa a las hormigas por malicia, pero si estás a cargo de un proyecto hidroeléctrico de energía verde y hay un hormiguero en la región que será inundado, demasiado malo para las hormigas. No pongamos a la humanidad en la posición de esas hormigas.

Edición de genes y “superhumanos”


La mala noticia: en algún momento de los próximos 1.000 años, la guerra nuclear o la calamidad ambiental “paralizarán la Tierra”. Sin embargo, para entonces, “nuestra ingeniosa raza habrá encontrado una manera de deslizar los vínculos malvados de la Tierra y, por lo tanto, sobrevivirá a la desastre”. Sin embargo, las otras especies de la Tierra probablemente no lo lograrán.

Los humanos que escapan de la Tierra probablemente serán nuevos “superhumanos” que han usado tecnología de edición de genes como CRISPR para superar a otros. Lo harán desafiando las leyes contra la ingeniería genética, mejorando sus recuerdos, la resistencia a las enfermedades y la esperanza de vida, dice.

Hawking parece curiosamente entusiasmado con este punto final, escribiendo: “No hay tiempo para esperar a que la evolución darwiniana nos haga más inteligentes y de mejor carácter”.

Crispr, o Crispr-Cas9, como se le conoce científicamente, es un proceso existente que permite a los científicos identificar y editar con precisión piezas del genoma. Funciona como un escalpelo a nivel molecular, lo que nos permite cortar y empalmar partes del código genético como mejor nos parezca.

La edición de genes puede ser una herramienta increíblemente útil, especialmente si se considera que se puede usar para eliminar enfermedades hereditarias y defectos de nacimiento en los embriones. Aun esto no es un servicio disponible ya que se encuentra en las etapas experimentales, sin embargo los científicos consideran que solo es una cuestión de tiempo.

En este momento, los científicos lo están utilizando para hacer todo, desde crear nuevas y abundantes variedades de arroz, revertir los signos del envejecimiento, hasta hacer que nuestros astronautas puedan atravesar las profundidades del espacio, e incluso permitir que las parejas del mismo sexo conciban.

No obstante, Hawking señala que el problema es que la tecnología es increíblemente cara, y probablemente seguirá siéndolo durante décadas. Por ello, solo aquellos con una buena capacidad económica podrán pagarlo, ofreciéndoles otra ventaja “injusta” sobre los sectores más pobres de la sociedad.

Una vez que aparezcan tales superhumanos, habrá problemas políticos importantes con los humanos no mejorados, que no podrán competir. Presumiblemente, morirán o dejarán de ser importantes. En cambio, habrá una raza de seres que se diseñan a sí mismos que se están mejorando a sí mismos a un ritmo cada vez mayor. Si la raza humana logra rediseñarse, probablemente se extenderá y colonizará otros planetas y estrellas.

Es relevante destacar que aún esto se trata de un tema controvertido porque ningún país en el mundo ha establecido regulaciones con respecto a cuánta edición de un ser humano está moralmente bien.

“Las leyes probablemente se promulguen contra la ingeniería genética con humanos”, agrega Hawking, “pero algunas personas no podrán resistir la tentación de mejorar las características humanas, como la memoria, la resistencia a las enfermedades y la duración de la vida”.

Vida inteligente en el espacio


Un dato curioso es que Hawking reconoce que hay varias explicaciones de por qué la vida inteligente no se ha encontrado o no ha visitado la Tierra. Sus predicciones aquí no son tan audaces, pero su explicación preferida es que los humanos han “pasado por alto” formas de vida inteligente que están ahí fuera.

Otras amenazas relevantes para la Tierra


La amenaza número uno es una colisión de asteroides, como la que mató a los dinosaurios. Sin embargo, “no tenemos defensa” contra eso, escribe Hawking. Más inmediatamente: el cambio climático. “Un aumento en la temperatura del océano derretiría las capas de hielo y causaría la liberación de grandes cantidades de dióxido de carbono”, escribe Hawking. “Ambos efectos podrían hacer que nuestro clima sea como el de Venus con una temperatura de 250 ° C”.

Por ultimo afirma que la mejor idea que la humanidad podría implementar es el poder de fusión nuclear, de acuerdo al científico esos nos daría energía limpia sin contaminación o calentamiento global.

Dejar respuesta

Please enter your comment!
Please enter your name here

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.