Este post es parte de la serie Guerras Semánticas

Otros posts en esta serie:

  1. Una Visión Borrosa de la Inteligencia
  2. El Valle de lo Extraño
  3. La Naturaleza del Buda (El que estás leyendo)
  4. Hemos estado dialogando con el futuro

Guerras semánticas, construcción del logos y territorialidad del internet (decimoctava parte)

Este artículo fue publicado originalmente en la revista mexicana “etcétera” en enero del 2017.

Quizás reconocernos en la máquina haya sido siempre un anhelo humano. Quizás la primer figura de barro o el primer muñeco de paja no hayan sido sino un momento de reconocimiento, una carrera figurativa hacia el entendimiento de nuestra presencia en el mundo. Quizás el más sofisticado de nuestros robots no sea sino una forma sublimada de la efigie o, si se quiere, de la torre de Babel.

La creación de Inteligencia Artificial es, probablemente, el único paradigma en la historia de la humanidad que nos recuerda al mismo tiempo la posibilidad de un “diseño inteligente” en la naturaleza y sus cosas (paradigma en el que se basan una buena parte de los defensores del creacionismo para sustentar la idea de la existencia de dios) y la naturaleza fortuita, casi irónica, de nuestra propia existencia: la casualidad que representamos en el universo como criaturas inteligentes y, por lo tanto, como seres culturales (paradigma en el que, por lo menos desde el existencialismo de mediados del siglo XX, se basa la negación de toda idea de dios).

Somos intrínsecamente seres culturales, en tanto la inteligencia conlleva no únicamente habitus y una estructura resultante sino, primordialmente, una narrativa per se: el relato de lo existente, el relato del universo atestiguado por la psique y el relato de la inteligencia misma, que se afana en sus laberintos porque no están en su naturaleza ni la inmovilidad ni la contemplación. La historia misma de la cultura, sin embargo, nos advierte que en la abstracción y en la quietud, en la contemplación y en la espera inerte se encierran posibilidades de comprensión y de belleza inabarcables, de inteligencia innegable y que, por cada impulso inevitable, por cada premisa imperativa e impostergable, existen un mar de posibilidades en la postergación, en la mesura y en la quietud.

No olvidemos que la inteligencia en casi todas las tradiciones humanas que la analizan (sea desde una perspectiva antropológica, sea desde una perspectiva metafísica o sea desde una perspectiva taxidérmica (como el psicoanálisis, por ejemplo) tienden a debatirse entre el hacer como sentido del ser y el no hacer como abstracción del ser. Si tuviéramos que explicarlo en un sentido ético (que es usual y principalmente para lo que se apuntala este debate) podríamos decir que la energía volitiva del ser humano adquiere sentido pragmático en todo lo que transforma, piensa, imagina, construye; pero adquiere un sentido moral en todo lo que deja intacto, en lo que evita pensar o imaginar, en lo que no hace o en lo que evita hacer. Esta tensión entre el hacer y el no hacer es tan profunda como cotidiana –o eso quisiéramos pensar– y nos remonta a lo más profundo que poseemos: esa abstracción siempre inacabada, siempre inasible y a veces absurda a la que llamamos “la naturaleza humana”.

Masahiro Mori, pionero de la robótica a quien mencionábamos en nuestro apartado anterior, afirma desde hace tiempo que los robots contienen dentro de sí la “naturaleza del Buda”, concepto del Budismo que, sin pretender agotarlo, podemos traducir como “lo que es esencial en el ser humano”. Es decir, que cada entidad robótica capaz de abstraer y, por lo tanto, capaz de reconocerse como entidad existente (conceptos ambos que ya hemos explorado como sine qua non a cualquier idea de IA) contiene dentro de sí las mismas posibilidades de autoconciencia y de reconocimiento del otro que forman parte intrínseca de la naturaleza humana y, por lo tanto, sería propio de la naturaleza humana el reconocerlo y aceptarlo.

Más allá de si Mori logra convencernos de esta cualidad metafísica –que él afirma física y reconocible– de los robots, lo cierto es que ya en las necesidades que la robótica y la IA comienzan a atender y a generar en la vida de los seres humanos hay un nivel de gravedad y de irrupción en la naturaleza humana que no pueden mirarse de soslayo.

Y eso conlleva una serie casi inabarcable de problemas éticos con los que nunca habíamos tenido que lidiar.

Por ejemplo, no resulta en absoluto descabellado anticipar, como ya muchos lo han hecho, que el primer estadio del desarrollo de la robótica culminará con la desaparición de una parte considerable de los trabajos que aún hoy recaen en los miembros más pauperizados de la clase trabajadora: los obreros de maquila. Este proceso de hecho ya está bastante avanzado en una buena parte de los países industrializados y sólo se detiene en los países donde todavía es más rentable mantener trabajadores en situación de esclavitud o de semi-esclavitud hasta que la relación costo-beneficio de la automatización sea lo suficientemente atractiva y los desplace. En los países industrializados este desplazamiento social ha generado nuevos estratos de trabajadores que han encontrado un nicho en la economía digital (lo que Franco Berardi llama el “cognitariado” o los “obreros cognitarios”), que se definen por rentabilizar “lo que saben” –principalmente labores ligadas al uso de computadoras y otros conocimientos tecnológicos especializados y post-alfabéticos­– y que se mueven precariamente en una economía también amenazada por nuevos y más sofisticados niveles de automatización (si usted pensaba que su futuro estaba asegurado por saber usar una computadora, sepa que ya existe una computadora que se maneja sola y lo hace mucho mejor que usted). De hecho, los análisis más recientes, como el de Michio Kaku[1], anticipan que el futuro mediato e inmediato del trabajo va a recaer en una división entre la automatización y “aquello que los robots no están en posibilidad de hacer”: particularmente aquellas actividades que requieren un cierto nivel de autonomía organizativa (como los servicios: salud, sanidad, jardinería, construcción, etc.), lo que él llama “capitalismo intelectual” (escritores, artistas, filósofos, analistas, científicos, creativos, etc.) y todas aquellas actividades que sean del más puro sentido común; del cual, por el momento, la Inteligencia Artificial sigue careciendo –hasta que, quizás por sí misma, deduzca el algoritmo.

No pretendo agotar aquí la prospectiva ni las implicaciones sociales del problema, sino apenas aventurar una pregunta ociosa que me lleva de regreso a Mori: ¿cabe la posibilidad de que nosotros, con una historia de esclavitud y holocausto permanente, con una civilización basada en la explotación y la retórica que la niega, seamos capaces de mirar a nuestros recién diseñados esclavos, a los artífices de la automatización que nos haya librado del trabajo –para bien o para mal–, y reconozcamos en ellos a nuestros iguales, a una contraparte que nos mira y nos reconoce, que nos allana el camino del “dios en la máquina” que nos hemos tardado más de dos mil años en recorrer?

Y ese dios en la máquina, ¿qué pensará de nosotros?

Daniel Iván
www.danielivan.com

[1] Michio Kaku es un físico teórico y difusor de la ciencia, profesor del City College de Nueva York y del Centro de Postgrado de la Universidad de la Ciudad de Nueva York.

Continúa leyendo esta serie:

¿Algo para decir?: