Si aceptamos la premisa que dice que es posible la creación de un ordenador superior a nuestro cerebro, entonces sólo es cuestión de tiempo la desaparición de nuestra especie tal y como la conocemos.
A continuación me extenderé un poco sobre este idea, pero si buscas un buen resumen, ahí lo tienes.
Os preguntareis por qué la creación de una maquina más inteligente que el cerebro humano significaría la desaparición de nuestra idea de humanidad. Y no, no es porque se volvería mala e intentaría destruirnos. En realidad se debería a un proceso muy sencillo de entender.
Una máquina de inteligencia superior a la nuestra, con la capacidad de rediseñarse, sería capaz de crear una versión superior de si misma en menos tiempo. Y la siguiente, haría lo propio y así sucesivamente. Este crecimiento exponencial o explosión de inteligencia es lo que se conoce como singularidad tecnológica.
Se puede observar que al principio los avances serían comedidos (años probablemente) pero en poco tiempo, pasaríamos a tener la inteligencia de un insecto, en comparación.
Las predicciones más optimistas sitúan la singularidad sobre 2030, y las más pesimistas sobre 2050. En cualquier caso, es muy posible que vivamos la mayor "grúa" en la historia de la evolución humana, y de cualquier especie.
Ahora veamos la única manera de que esto no suceda; que sea imposible copiar o crear la conciencia. Aún no sabemos muy bien lo que es la conciencia, pero podemos inferir algunas cosas.
1. Si la conciencia es un sistema de reconocimiento de patrones (es decir que surge al poseer cierta cantidad de potencia "bruta") entonces podemos crearla.
2. Si la conciencia necesita de una base física pero de alguna manera trasciende la materia convirtiéndose en algo más que la suma de sus partes, entonces es probable que podamos crearla en cuanto los avances en física cuántica lo permitan (véase ordenadores cuánticos) A no ser que sea cosa de Dios (improbable).
3. Si la conciencia es un elemento inherente e inseparable de nuestra materia, entonces no podremos recrearla en ambientes distintos. Aunque opino que no existe ninguna razón para pensar que es así sin invocar a Dios nuevamente.
Así pues la mayoría pensamos que no es cuestión de como si no de cuando: «
prácticamente todo el mundo en el campo de la IA cree» que las máquinas algún día superarán a los humanos y «en cierto nivel, la única diferencia real entre los entusiastas y los escépticos es un marco de tiempo».
Ahora la pregunta más importante.
¿Será la singularidad algo bueno o algo malo?
Sólo hay una respuesta posible, será sin duda algo bueno. Estos nuevos seres serán nuestros descendientes directos, así pues en vez de como amenazas hay que verlos como a hijos, hijos inteligentes que expandirán la voluntad humana por el universo. Y aunque hable de "ellos" lo más probable es que durante el proceso, nosotros mismos nos mejoremos tanto que al final la línea divisoria será inexistente.
¿Qué pensáis? ¿Es posible crear una máquina que supere al cerebro humano? Y en caso de ser posible ¿Es algo bueno?