Alrededor del 2030, la parte no biológica de nuestra inteligencia predominará
-- Ray Kurzweil

Un buen día de estos sin que siquiera lo notes llegará la Singularidad. Entonces, como si no fuese suficiente el acelerado proceso de creación de conocimiento en el que nos encontramos inmersos, entraremos a ese punto de no retorno, al bucle infinito fuera de nuestra compresión, al Apocalipsis inexplicable que sólo Nietzsche, Kafka y Asimov podrían imaginar juntos en una noche de juerga.

La llamada Singuralidad es un hipotético evento que sucederá cuando la inteligencia humana sea rebasada por la propia tecnología. Dicho con otras palabras, marca el hito técnico cuando los cerebros artificiales superen a los humanos en capacidad de inteligencia. Sus profetas, basados en la por-increíble-que-parezca-aún-vigente-Ley de Moore, predicen que llegará a mediados de este siglo.

Pero el asunto va más allá de la Ley de Moore. Quiero decir que no se trata de un problema cuantitativo, de sólo aumentar de manera exponencial la velocidad de los procesadores. El quid del tema es lo que acusamos como Inteligencia, que, estamos de acuerdo, no emerge así nada más por acumular transistores en un chip.

El asunto tampoco es biológico-evolutivo. Sabemos que la inteligencia del ser humano seguirá su curso normal, con leves mejoras de generación en generación. Sí. Pero de ninguna forma nuestro cerebro aumentará exponencialmente sus capacidades cognitivas tan sólo por ingerir cantidades industriales de Omega-3.

Como he dicho, la Singularidad llegará con la inteligencia asociada a la tecnología: con la Inteligencia Artificial. Por supuesto, tener los más poderosos equipos de cómputo ayuda, pero supercomputadoras como la Watson de IBM que ganó Jeopardy! hace unos meses son apenas una sombra de lo que, insisto, no llegaremos a comprender. Son las técnicas cada vez más sofisticadas, perfeccionadas, autónomas, de Inteligencia Artificial quienes nos conducirán hacia el punto de quiebre.

Cuando la Singularidad suceda, lo que viene, la Historia de la Humanidad, escapará de nuestra comprensión. La causa es el principio de construcción de esa nueva realidad. Porque llegado el punto en el que podamos concebir y fabricar máquinas más inteligentes que nosotros mismos, éstas también lo harán con respecto a sí mismas: serán máquinas más listas que sus creadoras capaces de repetir el proceso ad infinitum y a una tasa insospechada.

Leamos lo que Vernor Vinge escribió cuando acuñó el concepto en 1983:

Pronto crearemos inteligencias mayores a la nuestra [...] Cuando esto suceda, la historia de la humananidad alcanzará una especie de singularidad, una transición intelectual tan impenetrable como el complejo espacio-tiempo en el centro de un agujero negro, y el mundo se irá más allá de nuestro entendimiento.

Las matemáticas llaman singularidad al punto donde uno de sus objetos alcanza la indefinición. Por ejemplo, cuando ocurre una división entre cero. La Física asocia la palabra a los objetos de volumen cero y masa infinita: singularidad gravitacional. En términos de mecánica, es la configuración de una máquina a partir de la cual su conducta es impredecible. Por su parte, la Singularidad tecnológica es la mil veces soñada por la ciencia ficción, la Inteligencia Artificial Fractal, la impenetrable por el ser humano que brotará de algún laboratorio de investigación como el Singularity Institute o en el garage de un buen hacker.

El pensamiento humano está mezclándose con el mundo de la inteligencia de máquina que la especie humana creó inicialmente [...] La ingeniería inversa del cerebro humano parece haberse completado.

Ray Kurzweil -- The Age of Spiritual Machines, Cap. 12 "2099"

Así que cuando la Singularidad nos alcance, a juzgar por las infinitas posibilidades que supone la Ley de rendimientos acelerados, eventualmente se volverán a escribir "La Biblioteca de Babel" de Borges, las casi 600 palabras de este post y el comentario que ahora mismo piensas hacer.

Imagen: monkeyc.net