La singularidad tecnológica: Utopía o fin de la humanidad

…para mí, ser humano significa ser parte de una civilización que busca extender sus límites. Ya hemos traspasado nuestra biología incorporando rápidamente las herramientas para reprogramarla y aumentarla. Si consideramos a un ser humano modificado por la tecnología mas como un no humano, ¿dónde trazamos la línea definitoria?¿Es un hombre con un corazón biónico todavía humano? ¿Qué pasa con alguien con un implante neurológico? ¿Y qué si son dos implantes neurológicos? ¿Y alguien con diez nanobots en su cerebro? ¿Qué tal 500 millones de nanobots? ¿Debemos establecer un límite en 650 millones de nanobots debajo del cual eres todavía humano y por encima del cual eres ya posthumano? (p. 374)”

Ray Kurzweil
The Singularity is near

Mapa de internet

Muchas religiones comparten la creencia en que en algún momento en el futuro va a llegar un fin de los tiempos. Desde el punto de vista de la religión, éste suele referirse a un apocalipsis o al menos al fin del mundo tal como lo conocemos. La filosofía, en cambio, ha concebido la idea de que es la condición del hombre lo que puede desaparecer en el futuro y darle paso a formas más evolucionadas de lo humano. El posthumanismo, por ejemplo, piensa que el hombre se convertirá en una especie que evoluciona de un modo teleológico, dirigido a un fin. En esto se desmarca esta idea de la concepción actual de evolución que subyace a la Teoría Sintética Moderna, que supone una evolución ciega, dirigida sólo por el azar y la necesidad. Conclusión consistente con aquella temprana idea formulada por el filósofo presocrático Demócrito de Abdera (460 a.C.-370 a.C) cuando dijo que: “Todo lo que existe en el Universo es el producto del azar y la necesidad). Quizás una de las defensas más elaboradas que se hizo en los tiempos modernos de esta idea la hizo el biólogo francés y ganador del Premio Nóbel en 1965, Jacques Monod, en su ensayo El azar y la necesidad. Fue en este libro donde Monod propone el concepto de teleonomía, que opone a la teleología y que sostiene que es un rasgo escencial de los seres vivios: producir complejidad de un modo ciego guiados solo por el azar. Pero como dije antes, las ideas del posthumanismo suponen que el hombre es solo un camino hacia algo superior o más avanzado; que el hombre es un ser que está sujeto a un proceso evolutivo teleológico que conduce a un punto Omega final, de máxima conciencia, tal como creía el filósofo, paleontólogo y religioso francés Pierre Teilhard de Chardin (1881-1955) que actuaba la evolución en el Universo.De modo que en esta oposición entre teleología y teleonomía, el posthumanismo se desmarca de uno delos suspuestos fundamentales de la ciencia contemporánea.

    Posthumanismo, Houellebecq
    Una versión de la idea del transhumanismo ha sido expuesta en la novela Las partículas elementales (1999), del escritor francés Michel Houellebecq, en cuyas páginas finales se narra cómo la humanidad, luego de realizar radicales descubrimientos sobre los efectos que tenía la forma molecular en la estabilidad indefinida del proceso de duplicación del ADN (no más mutaciones, o al menos no más mutaciones no controladas), alcanza una fase superior, de seres humanos asexuados e inmortales con el potencial de disfrutar de un placer muy superior al actual. La novela concluye con esta declaración: La humanidad debía sentirse orgullosa de «ser la primera especie animal del universo conocido que había organizado por sí misma las condiciones de su propio relevo» (p. 319). Es inevitable sentirnos melancólicos cuando leemos en las páginas finales de esa novela cómo el número cada vez menor de seres humanos no modificados genéticamente (y por tanto inferiores en su potencial para ser eternos) se reduce gradualmente con los años hasta que sólo quedan escasos representantes de lo que hoy conocemos como humanidad. La melancolía que nos produce la lectura de Las Partículas elementales, se troca en preocupación metafísica, moral y existencial cuando profundizamos en las consecuencias inexorables que puede tener en un futuro relativamente cercano el proceso de aceleración (crecimiento exponencial) del cambio técnico hasta que nos encontremos con lo que el futurólogo e inventor Ray Kurzweil y otros han llamado la singularidad tecnológica, ese momento en el futuro en el que la historia del hombre deje de ser lo que ha sido hasta el momento, y cambie radicalmente su trayectoria.

La hipótesis

El término singularidad tecnológica se inspira en el concepto de singularidad en astrofísica, que se refiere a aquello que es el resultado de la creación de un agujero negro. En el límite, cuando el radio de una estrella en proceso de colapso gradual se aproxima a cero y la masa a infinito, la fuerza de gravedad ha crecido tanto que ni siquiera la luz puede escapar del agujero negro. Por tanto, no es posible tener información sobre lo que ocurre en el interior del agujero negro. En este momento, la curvatura del espacio-tiempo que produce el agujero negro es máxima en la vecindad del horizonte de eventos y se produce la singularidad. Este término hace referencia a una ignorancia esencial en lo que respecta a ese fenómeno. Es esta ignorancia la idea que se quiere conservar al realizar la extensión del concepto para describir la aceleración exponencial del cambio tecnológico que ya estamos experimentando y que algunos futurólogos predicen va a crear una Singularidad Tecnológica. En el momento en que ésta surja, la historia de la humanidad sufrirá un cambio tan radical en su magnitud y alcance, que representará un corte absoluto (se puede leer una clasificación de los tres enfoques sobre la singularidad en este link).

Kurzweil, basado en el análisis del comportamiento, durante las últimas décadas, de diversos indicadores de desarrollo en áreas como: computación, comunicaciones y biotecnología, así como en la Ley de Moore para los microprocesadores (que establece que el desempeño de éstos crece a una tasa exponencial, con un tiempo de duplicación de alrededor de 18 meses), predice que hacia el año 2045 la humanidad alcanzará una Singularidad Tecnológica. Siguiendo con la lógica del concepto de singularidad física, Kurzweil quiere transmitir que nada de lo que conocemos sobre la historia de la humanidad nos prepara para describir o predecir lo que va a ocurrir con la humanidad luego de esa fecha. Sin embargo, él mismo afirma que con cierta imaginación se puede (no obstante) predecir cómo será nuestro mundo después de la singularidad.

Kurzweil escribe en The singularity is near (2005): La idea clave que subyace a la inminente Singularidad es que la tasa de cambio de nuestra tecnología se está acelerando y sus poderes se expanden a una tasa exponencial. (…) Éste comienza casi imperceptiblemente y luego explota con furia inesperada—inesperada si uno no se preocupa de seguir su trayectoria (p.8). Kurzweil, que es un optimista radical, convencido de las capacidades de la ciencia y la tecnología para contribuir con nuestra felicidad, cree que la singularidad nos va a permitir superar las limitaciones que nos imponen nuestra mente y cuerpos humanos y biológicos. Vamos a ganar poder sobre nuestros destinos. Nuestra mortalidad va a estar en nuestras manos. Seremos capaces de vivir tanto tiempo como queramos. De modo que, se cree que antes del final del primer siglo del Tercer Milenio, una vez que sepamos cómo trascender los límites que nos han impuesto genética y físicamente nuestros cuerpos e información genética, seremos capaces de superar la barrera biológica y expandirnos, mediante métodos biológicos, y luego mediante métodos no-biológicos —como la nanotecnología molecular—, hasta que la porción no-biológica de nuestra inteligencia sea trillones de trillones de veces más poderosa que nuestra humilde inteligencia biológica.

    Dos tendencias a contracorriente
    Kurzweil y otros investigadores de la Singularidad Tecnológica sostienen que el mundo experimenta una aceleración de su dinámica y sus procesos, y que sus eventos se suceden cada vez más rápido. Por otra parte, si continúa la tendencia de aumento de nuestra inteligencia mediada por una fusión cada vez más íntima entre nuestros cerebros y máquinas cada vez más complejas e inteligentes, nuestra experiencia del tiempo se acelerará (porque lo hará la velocidad a la que procesamos información) y llegaremos a ser capaces de vivir un año en cuestión de semanas, días, minutos o segundos. Eso define dos tendencias contrarias. ¿Si el cambio técnico nos conduce a un mundo ya acelerado exponencialmente en su velocidad en el que los seres humanos tienen una percepción comprimida de la realidad (incluidas las categorías de espacio y tiempo) cómo llenaremos de emoción, vértigo, alegría y felicidad cada segundo de una vida infinitamente larga en la que vivamos siglos como si fuesen minutos? A no ser que diseñemos mundos abrumadoramente estimulantes, que se renueven en su extraordinaria riqueza cada segundo, tendremos el riesgo de morirnos de aburrimiento y sentir que lo hemos vivido todo al cabo de solo horas de haber nacido (y sido conectados a una máquina superinteligente). La verdad es que en el caso de estar dotados con una superinteligencia, podríamos vivir segundos y experimentar lo que un ser menos inteligente experimenta en una vida normal de 100 años. ¿Para qué quisiéramos vivir mil años o diez mil? ¿Cómo evitará el tedio el hombre del futuro?

Antecedentes

Uno de los primeros antecedentes a la idea de la Singularidad Tecnológica se deriva de una conversación que tuvo en 1958, Stanislaw Ulam, un matemático norteamericano nacido en Polonia, quien al referirse a un encuentro con el también matemático John Von Neumann, escribió que su conversación se centró sobre: el progreso acelerado de la tecnología y los cambios en el modo de vida humano, así como sobre la posible aproximación a cierta singularidad esencial en la historia, más allá de la cual los asuntos humanos, tal como los conocemos, no podrían continuar. Es probable que esta conversación haya inspirado la formulación de la idea de una singularidad tecnológica asociada a la inteligencia artificial, tal como la expresa el estadístico I.J. Good en 1965: Si se define una máquina ultrainteligente como aquella que puede ser mejor (lograr un desempeño superior) en todas las actividades intelectuales que realice el ser humano más inteligente,y como el diseño de máquinas inteligentes es una de estas actividades, una de estas máquinas podría diseñar incluso mejores máquinas. Eso podría dar lugar a una explosión de inteligencia, y la inteligencia del hombre podría así quedar rezagada. La primera máquina ultrainteligente sería la última invención que el ser humano tendría que hacer. Elaborando sobre esta idea, el escritor de ciencia ficción y matemático Vernon Vinge, en un ensayo que escribió en 1993, The Coming Technological Singularity, ajustó la predicción de Good: Dentro de treinta años, tendremos los recursos para crear una inteligencia superhumana. Poco después, la era humana habrá finalizado.

De modo que la singularidad no es, ni aparente ni necesariamente, una utopía, un mundo idealizado. O al menos no lo es si no nos dedicamos desde el momento presente a pensar y trabajar para que cuando este evento inexorable e inminente tenga lugar, sepamos cómo cubrirnos contra todos los riesgos que puede presentarnos. En el caso hipotético de que seamos capaces de anticipar los nuevos riesgos que la Singularidad Tecnológica cree, y desarrollemos estrategias que nos protejan contra ellos, sí podremos afirmar que la singularidad es una utopía que promete felicidad, no sólo porque en varios de sus escenarios se contempla la idea de que el ser humano habrá superado la muerte, sino porque durante nuestra vida, larga o corta según lo decidamos, tendremos acceso a todo tipo de herramientas reales y virtuales para eliminar los dolores: físico, moral y psicológico, así como para incrementar ilimitadamente nuestro potencial para el placer y la felicidad. En este sentido, el filósofo David Pearce, por ejemplo, promueve la idea extrema de abolición total del sufrimiento humano, por un camino alternativo —pero, él dice—, no enfrentado con el Camino Octuple tal como lo describió el budismo.

Riesgos existenciales

El riesgo más previsible asociado con la llegada de la Singularidad es que aparezca una inteligencia artificial (no-biológica) superior a la nuestra —que hayamos diseñado o que haya sido diseñada por una máquina con capacidades superiores—, que no sea capaz de comprender las razones por las que nuestra especie (o la vida sobre la Tierra) debe sobrevivir en este planeta o en cualquier otro. La Singularidad crea entonces un riesgo existencial, cosa que define el filósofo británico y Director del Instituto para el Futuro de la Humanidad, Nick Bostrom como el riesgo “de que un resultado adverso aniquile la vida inteligente de origen terrestre o reduzca drástica o permanentemente su potencial”. Los dos riesgos existenciales más frecuentemente analizados por los autores que analizan la Singularidad son: la inteligencia artificial, y la nanotecnología molecular.

Stephen Omohundro, físico y experto en computación, sostiene que todos los sistemas avanzados de Inteligencia Artificial (tanto los que muestran una IA fuerte como los que muestran una IA débil, hablando en términos de la hipótesis de John Searle) van a mostrar un número de propensiones básicas (deseos, intenciones, etc.) que, si no se toman precauciones especiales, pudieran afectar negativamente la calidad o la existencia de la vida en la Tierra. Para impedir que esto ocurra, Eliezer Yudkowsky, del Singularity Institute for Artificial Intelligence, ha propuesto el concepto de Inteligencia Artificial Amigable (IA Amigable). Yudkowsky alega que no importa cómo se formulen las restricciones para limitar el impacto negativo de sistemas avanzados de IA—como las concebidas por Isaac Asimov en sus Tres Leyes de la Robótica—, una máquina superinteligente y creativa podría encontrar múltiples maneras de ignorarlas. Más bien, Yudkowsky propone la teoría de la IA amigable, con base en principios de biología y psicología, y que buscaría garantizar que máquinas con una IA superior se sientan motivadas a no hacerle daño a otras mentes inteligentes (en cualquier sentido del término daño) y, por el contrario, se esfuercen para mantenerlas a salvo de cualquier peligro. Pero una IA amigable haría algo más; se aseguraría de que ninguna mejora o modificación que se le haga a ella misma, ni a máquinas inteligentes que ésta pudiese diseñar, pueda ser fuente de algún daño para seres humanos o la vida en general.

IA fuerte, IA débil, conciencia de la internet

    El filósofo norteamericano John Searle ha distinguido entre dos clases de IA: la IA fuerte, en la que la máquina realmente piensa y tiene una mente: y la IA débil, en la que la máquina parece como si pensara y tuviese una mente. La hipótesis de que puede ocurrir una singularidad depende en gran parte de diseñar una máquina que parezca que piensa. Cosa que, por otra parte, no es lo mismo que razonar, dice David Gelernter, profesor de Ciencias de la Computación en Yale. De hecho, una de las ideas arriesgadas sobre la IA que plantea Gelernter es que, donde pudiera aparecer una IA fuerte con una inimaginable capacidad para pensar (en el sentido en el que lo hacen los humanos) y para razonar, es en la internet. Tomada como un todo, la red es una colección impresionante de computadores (como neuronas) que están densamente interconectados (como las neuronas). Y la red crece a una tasa de muchos millones de puntos simultáneamente, como un organismo vivo (¿o más que vivo?). Sería perfectamente natural preguntarnos si la internet no va a comenzar un día de éstos a pensar por sí misma.

Otra fuente de riesgo existencial para los humanos asociada con el advenimiento de la Singularidad Tecnológica es la existencia eventual de robots nanomecánicos con capacidad para la autoreplicación utilizando para ello materiales de su entorno. El ingeniero en computación Eric Drexler (los interesados pueden revisar su blog metamodern sobre tópicos recientes en nanotecnología) ha acuñado el término grey goo (mugre gris) para describir un escenario apocalíptico en el que nanobots con capacidad para la autoreplicación se salen de control y, en el proceso de búsqueda de insumos para crear nuevas copias de ellos mismos, van dejando el planeta devastado, eliminando la totalidad de la vida y de los seres humanos que lo pueblan. Análisis recientes realizados por Drexler sugieren que este riesgo no es tan grande como él supuso originalmente, principalmente porque no hay necesidad alguna de crear nanobots autoreplicantes.

Hay otra línea de desarrollo de un mecanismo preventivo para reducir los riesgos existenciales y es el programa de IA (Intelligence Augmentation), o Aumento de la Inteligencia (humana); éste contempla la posibilidad de que el ser humano, con el progreso tecnológico, desarrolle medios cada vez más eficaces y eficientes para incrementar en decenas, cientos, miles o millones de veces su capacidad intelectual. Por ejemplo, Kurzweil predice que cuando los nanobots interactúen con neuronas biológicas podrán extender de una manera inimaginable la experiencia humana mediante la creación de una realidad virtual desde dentro del sistema nervioso. De modo semejante, millones de nanobots introducidos en el sistema de capilares cerebrales podrán extender de una manera vasta la capacidad de nuestro cerebro. Sin embargo, la predicción más inquietante que hace Kurzweil es cuando afirma que, una vez que la inteligencia no-biológica ingrese y se fusione de un modo íntimo con el cerebro humano (proceso que ya ha comenzado con los implantes neurales), ésta comenzara a crecer de modo exponencial, con lo que su capacidad se duplicará cada año; a diferencia de la porción biológica, que desde hace varios cientos de miles de años se ha quedado estancada. Este proceso determinará que la porción no-biológica de la inteligencia predomine pronto de un modo radical sobre la porción biológica (p. 28).

Mind uploading

Por otra parte, esa fusión íntima entre el hombre y la máquina para configurar una inteligencia híbrida (o un cyborg), con elementos de la máquina y elementos del ser humano, podría ser más homogénea si en lugar de proceder mediante una gradual fusión hombre-máquina se realiza un uploading total de la mente de un individuo (whole mind emulation), lo que implicaría cargar un computador con la memoria, procesos y arquitectura neuronal fina de la mente de una persona con el fin de construir un modelo computacional de su cerebro que sea tan semejante a ella que su conducta sería esencialmente idéntica a la del cerebro biológico de esa persona e indistinguible de éste para todos los propósitos prácticos. [El cerebro humano tiene alrededor de 10 a la 11 neuronas, conectadas en una red de aproximadamente 10 a la 14 conexiones sinápticas. Este grado de complejidad puede darnos una idea de lo difícil que puede ser esta tarea].

No es fácil imaginar el impacto que tendría en nuestro modo de pensar y percibir el mundo si en lugar de que nuestros impulsos nerviosos se produzcan mediante potenciales de acción disparados por mecanismos electro-químicos (a una velocidad de 150 mts/seg), se produjesen dentro de un supercomputador a la velocidad de la luz (300 millones de mts/seg), aproximadamente dos millones de veces más rápido. Las neuronas pueden generar un máximo de entre 200 y 1.000 potenciales de acción /seg, en tanto que en los modernos chips, el número de señales por segundo está en el orden de 2 gigahertz (dos millones de veces mayor) y se espera que éstas crezcan en un factor de 100. Por tanto—según cálculos de Eliezer Yudkowsky—, una red neural que emule perfectamente a un cerebro humano podría operar cerca de un millón de veces más rápido que éste. Una consecuencia de ésto sería que se podría experimentar un año de tiempo subjetivo en sólo 31 segundos de tiempo real y un milenio en ocho horas y media. Vinge llama a ésta superinteligencia artificial débil, porque no piensa mejor que un ser humano promedio pero lo hace a una velocidad miles de veces mayor. Por otra parte, Martine Rothblatt, especialista en counicaciones satelitales, ha señalado que podrían plantearse problemas éticos como consecuencia de la creación de clones de seres humanos creados (subidos) y almacenados en una futura máquina superinteligente. En un ensayo reciente Rothblatt analiza tres posibles puntos de vista para responder a esta consideración.

    Mind uploading: consecuencias
    Me pregunto cómo podríamos llenar de experiencias interesantes una vida con esta capacidad vertiginosa para percibir el tiempo, una que supere en varios órdenes de magnitud nuestra ya muy acelerada y dopaminérgica percepción del tiempo. Contar con la posibilidad de tener un doble en un computador, que pudiese ser actualizado a voluntad con nuestras experiencias más recientes, tiene todo tipo de implicaciones. Por ejemplo, podríamos tener un doble portátil o en la nube con la capacidad para vivir miles de veces más rápido que nosotros. Pudiese existir además un mundo virtual que simule nuestro mundo a la perfección; de modo que nuestro doble digital podría vivir dentro de ese mundo y tomar decisiones cuyas consecuencias pudiéramos sopesar y decidir luego tomarlas o no tomarlas en el mundo real. Esto dispararía también un debate sobre la ética de hacer que nuestro doble virtual viva y sufra nuestras malas decisiones. Pero todo esto sólo es consecuencia de creer que podemos emular con IA a un ser humano. Porque también nos queda la consecuencia, millones de veces peor, de que realmente podamos hacerlo y desencadenar así una serie de operaciones brevísima (si la vemos desde nuestro lentísimo tiempo humano) con terribles e irreversibles consecuencias para la humanidad. Pogamos el caso de que seamos capaces de crear, por pura mala suerte, una IA no amigable dotada con capacidad para la nanotecnología molecular (o alguna otra infraestructura muy rápida). Esta podría modificar el patrón de toda la materia en nuestro Sistema Solar de acuerdo con su función de optimización. Y sería fatal para nosotros si la IA no decide de acuerdo con el criterio de cómo esta transformación pudiera afectar la vida o la gente. La IA no te odia ni te ama. Tu estás ahí, hecho con átomos que pueden ser utilizados eficientemennte para el logro de sus objetivos. Además que la IA funciona a una velocidad distinta de la tuya. En el momento en que piensas: Debo hacer algo al respecto, ya has perdido.” (Bostrom y Cirkovic, Eds., 2006)

Kurzweil estima que un uploading total de la mente ocurrirá hacia fines del 2030. (Hay quienes piensan que esto no ocurrirá nunca). Predice también que poco después, los humanos y las máquinas no-biológicas se van a fusionar tan eficazmente que las diferencias entre ellos no van a ser significativas. Y luego de eso, la inteligencia humana, potenciada, amplificada por las máquinas inteligentes, se comenzaría a expandir por el Universo alrededor del 2045. Esta sería la mejor y más concreta descripción de cómo alcanzar el Punto Omega soñado por Teilhard de Chardin. La inteligencia—afirma Kurzweil—va a saturar la materia y la energía y esparcirse centrífugamente desde su origen en la Tierra. El único límite a la velocidad de esta expansión, dice Kurzweil, es la velocidad de la luz. Si la superinteligencia del futuro descubre un modo de transgredir este límite, no cabe duda que muy pronto la totalidad del Universo estará saturado con nuestra inteligencia. Este es el destino del Universo (…). Nosotros vamos a determinar nuestro propio destino en lugar de que éste sea determinado por simples fuerzas mecanísticas tales como las que rigen el movimiento de los cuerpos celestes (p. 29).

Singularidad y transhumanismo

Una de las consecuencias de una Singularidad Tecnológica es la evolución del hombre hacia un ser con una inteligencia superhumana, transhumana,posthumana. Aún cuando se han contemplado múltiples métodos para producir el incremento de la inteligencia humana (biónica, ingeniería genética, drogas neotrópicas, asistentes con IA, interfaces directas cerebro-computador, y uploading total de la mente), la inteligencia artificial no-humana luce hasta la fecha como un camino más fácil para producir una superinteligencia. La convicción en la certeza del advenimiento de la Singularidad Tecnológica le confiere entonces una nueva vigencia a la idea del Superhombre.

El transhumanismo es el programa que ha formulado los términos filosóficos de la transición entre el hombre y su fase futura y más evolucionada, aquélla que lo supera en los diversos ámbitos. Sus promotores han propuesto dos definiciones: Una, como un movimiento cultural e intelectual que afirma la posibilidad y deseabilidad de mejorar fundamentalmente la condición humana mediante la razón aplicada, especialmente desarrollando y haciendo ampliamente asequibles tecnologías para eliminar el envejecimiento, y para potenciar radialmente las capacidades intelectuales, físicas, y psicológicas del hombre. El transhumanismo es también la disciplina que estudia las ramificaciones, promesas y peligros potenciales de las tecnologías que nos van a permitir superar nuestras limitaciones humanas; y el estudio relacionado de los aspectos éticos implicados en el desarrollo y uso de tales tecnologías. El filósofo británico David Pearce, en The hedonistic imperative (http://www.hedweb.com/) extiende el programa transhumanista para agregar la felicidad.

Una visión crítica

Ni trataré de hacer una crítica de la hipótesis de la singularidad tecnológica en alguna de sus tres versiones. Pero quisiera mencionar algunas consideraciones críticas que se han formulado sobre esa idea (en alguna de sus tres versiones).

1. Test de Turing, pensar versus razonar
No es claro que un computador que emule totalmente el cerebro de un ser humano tenga conciencia. Aún si responde como lo haría un ser humano no podría decirse con certeza que el computador comprende lo que dice del mismo modo que un ser humano comprende algo. Incluso si el computador es capaz de pasar una Prueba de Turing (Según ésta, un juez debe identificar cuál es la máquina y cuáles los humanos cuando, puestos todos en un diseño experimental en que no los puede ver, sostiene una conversación en lenguaje natural con una serie de humanos entre los que se ha infiltrado una máquina. La máquina pasa el Test de Turing si el juez no es capaz de identificarla como no humana). Aún si en el futuro cercano se diseña una máquina capaz de pasar esta prueba, una de las críticas más consistentes sostiene que ésta no distingue entre comportamiento humano y comportamiento inteligente. Puesto que hay conductas humanas no inteligentes y conductas inteligentes que no son humanas. Lo más probable entonces es que se diseñe una máquina que parece que razona.

2. Reedición de la Ilustración
La hipótesis de la Singularidad, contemplada todavía desde nuestra era de máquinas dotadas con una inteligencia que no alcanza la de un ratón, nos produce a la vez: perplejidad, angustia, vértigo y chorros de adrenalina. No me cabe duda de que nuestros modelos de IA serán cada vez mejores y que llegarán a emular ciertas funciones superiores de los seres humanos. Que incluso las capacidades de análisis y síntesis de esos modelos de IA podrán ser millones de veces mejores o más veloces que las nuestras. Pero creo que lo que excita a muchos científicos, tecnólogos, tecnófilos y filósfos es que la Singularidad y sus consecuencias es una idea que se basa en la creencia en que es posible construir finalmente (luego de que fracasará el proyecto de la Ilustración) un mundo (un universo) hiperracionalizado en el que predomine finalmente la Razón (la Hiperrazón) liberada para siempre de la oscuridad, las pasiones, los instintos y todo lo que introduce irracionalidad, caos e impredecibilidad en el corazón del hombre. El proyecto de la Ilustración fracasó por múltiples razones que exceden el alcance de este texto. Pero si los singularitarios y los transhumanistas tratan de reeditar tecnológicamente aquel proyecto, se pueden encontrar con una reacción cientos de veces más peligrosa y con efectos más terribles que los que tuvo el Romanticismo y las corrientes que antagonizaron la Razón durante finales del siglo XIX y comienzos del XX; y que luego alimentaron la base emocional de las dos guerras mundiales del siglo XX. Porque no debemos olvidar que hay una porción esencial de nosotros que reside fuera de nosotros, por llamarlo así. Una porción no diseñable con la que no podemos cargar una computadora superinteligente. Podemos pensar en varios candidatos a conformar la escencia de esa porción. Pero tenemos la certeza de que no es (no somos) un complejo de algoritmos que se convierta en un modelo de nosotros. Roger Penrose dice que no podremos nunca construir un modelo de un cerebro humano, y sostiene que esto es así por razones que implican el Teorema de Gödel y la idea de incompletitud.

3.La lógica de los sueños, el inconsciente
Gelernter, dice que para construir una IA fuerte deberíamos comprender la lógica de los sueños. Y en un trabajo sobre este tema, él esboza un modelo de la conciencia que integra las ideas que tenemos y no expresamos en un momento dado, así como los recuerdos y su capacidad para hacernos vivir de nuevo, o ver de nuevo, lo que vivimos en el pasado. Este autor también integra las emociones, aunque nos recuerda que al no tener cuerpos difícilmente las pueden tener las máquinas. El psicólogo Carl Gustav Jung, el gran explorador del inconsciente, agrega que éste está compuesto (además) por las ideas que expresamos, más todo lo que percibo sin darme cuenta de que lo hago, más todo lo que pienso, siento, recuerdo, quiero y hago sin atención o intención. Más lo que se prepara en mi y aún no conozco pero conoceré en el futuro.

Además habría otros ámbitos más profundos del inconciente. Jung sugirió que las capas más profundas pudieran ser una metáfora de Dios. Aunque al tratar de ser más preciso, Jung dice que el inconsciente es algo más parecido al Tao de la filosofía china, en tanto que no es una cosa sino un proceso (Lo inconsciente es un proceso (…), la relación del yo con los contenidos del inconsciente motiva una transformación o evolución de la psiquis, dice Jung). Todo esto nos sugiere que modelar a un ser humano implicaría comprender esa estructura de múltiples capas llena de ideas, intenciones, emociones. Si algo parece sugerir el psicoanálisis jungiano es la idea de que nuestra conciencia tal como la conocemos (a la que consideramos entre otras cosas como un marcador o condición de la individualidad) no existe sin el inconsciente: Esa parte oscura, inefable, indiferenciada, llena de energías y voliciones de todo tipo; esa parte estructurada en múltiples capas, algunas de ellas individuales y otras colectivas y transpersonales, algunas de ellas cercanas y otras remotas y ancestrales, que nos remiten a los reptiles o a los pájaros, con la que debemos aprender a conectarnos, escucharla y aprender de ella. ¿Será que la web (como lo sugiere Gelernter) es mejor modelo del cerebro humano que cualquier computador considerado individualmente y que un dia de esa red (y no del corazón de un supercomputador) emergerá la conciencia, una conciencia con una capacidad inimaginable?

4. Sueñan los robots?, el alma de las máquinas
¿Con qué sueñan los androides? se preguntaba Philip K. Dick, el autor de ciencia ficción nortamericano cuya obra ¿Sueñan los androides con ovejas eléctricas? inspiró la mejor película de Ridley Scott, Blade Runner. ¿Con que soñarían las máquinas dotadas con una superinteligencia y, en caso de que lo hicieran, con qué propósito le dedicarían tales máquinas tiempo a soñar? ¿De qué manera podrían las máquinas superinteligentes emprender actos de creación artística, literaria, musical?¿Podremos prescindir, me pregunto, —una vez que hayamos sido reconfigurados como seres cuasi-cibernéticos, cuando nuestros cerebros se hayan fusionado con millones de nanobots como lo sugiere Kurzweil—, de esa actividad que nos distrae del mundo consciente y que nos sume en ese estado que no sabemos con precisión en qué se distingue de la muerte? ¿Será que parte de la respuesta a estas preguntas es que deberemos conservar siempre una porción biológica en las superinteligencias no-biológicas, para preservar su humanidad, porque sólo lo biológico está dotado de alma, y sólo ésta es (para verlo de este modo) un portal a la comunicación con lo divino, con Dios, palabra que también podemos usar para designar lo inefable e ilimitado, aquello que ninguna superinteligencia logrará conocer de otro modo? ¿Será que la posibilidad de poseer en lo profundo de nuestra psique ese portal a Dios es lo que salvaría a los humanos de ser borrados de la faz de la Tierra por un grupo de máquinas superinteligentes que no hayan sido diseñadas de acuerdo con principios de amigabilidad cibernética?

Se puede contraargumentar que nada permite creer que las máquinas superinteligentes valorarían un elemento inasible, subjetivo cuya existencia es imposible de demostrar. Que ellas podrían decidir crear simulaciones de experencias extáticas o místicas que les hagan creer que logran una comunión con Dios. Podemos sin embargo pensar también que una superinteligencia tendría modos de identificar rápido las diferencias entre los humanos y ellas, y concluir que hay allgo que ellos (nosotros, los humanos) tienen (tenemos) que ellas no pueden crear (ni siular) no importa en cuánto incrementen su capacidad y complejidad. En ese caso, pudiera ser que nuestra supervivencia (salvación de la eliminación) dependiera de nuestro acceso al alma, cosa que le estaría vedado a las máquinas. ¿Crearía esta situación una simbiosis forzada entre el hombre y la máquina? ¿Qué tipo de vida sería ése para los seres humanos, uno de libertad o uno de esclavitud o restricción de libertad? Estas ideas deberían ser exploradas por los ideólogos de la singularidad y el posthumanismo.

Referencias
Gelernter, David (2010), “Dream-Logic, the internet and artificial thought”
(http://www.edge.org/3rd_culture/gelernter10.1/gelernter10.1_index.html)
Jung, Carl G., (1996), Recuerdos, sueños, pensamientos, Barcelona: Seix Barral
Kurzweil, Ray (2005), The singularity is near, NY: The Viking Press, Penguin

Quién es quién en singularidad y transhumanismo
Ray Kurzweil, inventor, futurólogo, empresario, escritor, predica la Singularidad y la inmortalidad.
Nick Bostrom, filósofo, cofundador de la Asociación Transhumanista Mundial, conocido por sus trabajos sobre el Principio Antrópico
Michael Anissimov, futurólogo, Director de Medios en el Singularity Institute y co-Organizador de la Cumbre de la Singularidad
Eric Drexler, Ingeniero con PhD de MIT experto en nanotecnología, autor de numerosos artículos y libros sobre el tema.
David Pearce, filósofo británico, promotor del transhumanismo, y de la abolición del sufrimiento. Conocido por su libro el El imperativo hedonista (www.hedweb.com)

6 comentarios en “La singularidad tecnológica: Utopía o fin de la humanidad

  1. … Lo dejé a la mitad, cualquier lector incidencial (como yo) se sentiría abrumado de leer todo eso, más aún, si es un lector que desconoce lo que se habla y esta interesado, podría llegar a asustarse de la cantidad de información que tiene que digerir.
    Fácilmente puedes poner esto en varios bloques (posts), para hacer la lectura más amena.
    Igual esta muy bien redactado y muy limpio además, pequeños detalles los que molestan a la vista (el tipo de letra en cursiva sobre un fondo blanco, por ejemplo).
    Otro momento lo leo completo.
    Saludos!

    • Gracias Diego, voy a seguir tu consejo. Pasa que en ocasiones utilizo este blog como incubador de ideas. No son textos acabados o finales. Y tampoco son textos dirigidos a un lector en especial sino como grandes borradores o listas largas de notas. Pero si ceo que el tema merece la pena cortarlo en trocitos que lo hagan mas legible y digerible. Saludos. Lorenzo

  2. Pingback: La posibilidad de una isla, Un diálogo entre clones | caracas 10N, 67W

  3. Estupendo esfuerzo. Por una parte se vale de una selección de fuentes particularmente emblemáticas y confiables. Por la otra -y esto es lo más valioso- genera una síntesis tal que le agrega mucho valor a estas reflexiones. Por último, y no menos destacable, es el impecable uso del lenguaje con que se teje una trama tan densa. Debo expresar que lo disfruté enormemente y lo seguiré haciendo aún después de terminar cabalmente su lectura. Recibe, Lorenzo, todo mi agradecimiento como lector de tu excelente contribución a la creación de conciencia sobre el Transhumanismo.

    • Estimado Pablo,

      Me alegro de que hayas disfrutado el artículo. Luego de publicarlo me di cuenta, tal como lo señaló otro de los lectores, que era más largo de lo deseable y recomendable para un blog. Desafortunadamente no he tenido tiempo de ditarlo para poder publicarlo en dos o tres entregas de menor extensión. Sigo pensando en este tema apasionante y, por que no decirlo, aterrador por la magnitud cualitativa del cambio que implica y de los retos y riesgos que pudiera crear. Sin embargo, estoy convencido de que antes de que lleguemos a estar siquiera cerca de alcanzar ese límite teórico que Kurzweil llama Singularidad Tecnológica, experimentaremos como humanidad un número creciente de riesgos, tensiones sociales, étnicas, culturales, económicas, amenazas en general a la supervivencia de la especie que deberemos superar exitosamente, so pena de extinguirnos malthusianamente (más que apocalípticamente). Por otra parte, también creo que la escencia de la psique no es completamente física, tal como lo sugiere Jung en varias de sus obras tardías; sino trascendental. No si ello significa espiritual o simplemente que ésta (la psique) está hecha de una materia o estructura que todavía no hhemos alcanzado a comprender. Saludos cordiales.

      Lorenzo

  4. Pingback: World War Z, Sobre los zombies, el zeitgeist y la tecnología | caracas 10N, 67W

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s