Tema:Cultura Digital

Antonio Sant'Elia. Studio per centrale elettrica.

Hemos estado dialogando con el futuro

Guerras semánticas, construcción del logos y territorialidad del internet (decimonovena parte)

Este artículo fue publicado originalmente en la revista mexicana “etcétera” en febrero del 2017.

Creemos en el futuro. Hemos creído en él como la única fe que nos queda.

Si bien es verdad que el futuro es incognoscible e invisible, no todo lo incognoscible e invisible contiene el futuro o le pertenece. Lo incognoscible y no evidente contiene al mismo tiempo todo aquello que espera ocurrir, lo inminente y lo irresuelto, pero también aquello que ha estado allí, persistente en su ocultamiento, alejado del teatro de lo cognoscible y por lo tanto incapaz de colocarse en nuestro pasado o en nuestro presente. El futuro está cifrado en sus consecuencias y en su arquitectura tanto como el pasado lo está en sus motivaciones y en su intelecto profundo, ambos sólo cognoscibles a través de los ojos de la ideología y, por lo tanto, artífices de alguna de las formas de la miopía o del engaño deliberado. El futuro por su parte es un nivelador del imaginario y, por lo tanto, trasciende a lo ideológico en tanto sólo puede servir como materia de desengaño: aún las ideologías más sólidas se muerden la cola cuando afirman haberse adelantado a su tiempo, haber anticipado los resultados de la realidad, los de la quiniela deportiva o los vericuetos de la historia por venir.

Posiblemente sea por esa naturaleza de “desengaño” que solemos atribuir al presente que aplazamos permanentemente la llegada del futuro. El presente nunca contiene la sensación de arribo sino de peripecia, nunca tiene el color de lo concretado sino de lo inminente y, en ese sentido, todo está siempre por ocurrir y su ocurrencia pasa casi siempre desapercibida, tal vez porque no nos ocurre a nosotros, tal vez porque no ocurre como lo habíamos anticipado o tal vez porque nos ocurre en lo cotidiano y lo cotidiano nos es invisible.

Nuestra concepción del futuro, particularmente en el pensamiento contemporáneo (posmoderno, si se quiere), acude a una permanente ubicación de su concreción y de su ocurrencia en los niveles del pensamiento, de la materia y del tiempo; es decir en la poiesis, particularmente en el sentido heideggeriano de devenir verificable, de arribo a un estado no transitorio, de florecimiento. Y nos hemos educado para mirar a la tecnología como la vara con la que medimos esa trasformación, ese arribo, quizás como consecuencia de una idea maquinal heredada de la era industrial, quizás porque el pensamiento humano se sirvió de la invención como materialización del ingenio para fundamentar su vanagloria.

Ya sea que la tecnología nos afecte con su relumbrón en las sociedades hiper-tecnológicas, ya sea que nos sorprenda sentados sobre un atado de paja en el medio del impávido tercer mundo, la tecnología es quizás, al mismo tiempo que nos afecta profundamente, una de las cosas que somos más susceptibles de asimilar; no importa si lo hacemos a través de una convulsa veneración o de una profunda indiferencia. “Toda tecnología está destinada al aburrimiento”, me murmura cada tanto la mujer a la que amo, mientras se ríe del fracaso comercial de los últimos modelos de Iphone; y yo asiento pensando que quizás la dependencia que tenemos de lo tecnológico no sea, ciertamente, sino una de las formas más totales del aburrimiento. No deja de recordarme a esa pedantería culterana que venera al libro pero que no lee, a esa agresiva preocupación por el medio ambiente que avanza montada en su camioneta 4×4, a todo humanismo sujeto a las veleidades de una agenda. No deja de recordar, pues, a la ideología.

Pienso en todo lo que no ha arribado, en toda esa poiesis incumplida; no importa si la desilusión nos viene desde la vena cyberpunk que añora los paisajes lugarcomunescos de “Blade Runner”, o desde el grosero materialismo no dialéctico que añora los tenis autoajustables o las patinetas y los autos voladores de “Back to the Future”. Pienso en todas las colonias espaciales que no han sido y que no serán, en los futurismos fascistoides que soñaban mundos ordenados en una paz milimétrica y sin convulsiones, en los estados mundiales de Huxley o Wells. Una quiniela perdida, quizás no por todo lo que no ocurrió ni va a ocurrir, sino aún más por lo que ya ocurre y somos incapaces de ver, por lo que ya ha llegado y tan pronto como ha arribado nos ha aburrido, borrándose así del mapa de nuestra sorpresa y de nuestra idea de futuro.

Quizás lo que no está ocurriendo es nuestra mente, nuestra comprensión de las cosas. Quizás somos nosotros los que no llegamos ni en el pensamiento, ni en la materia, ni en el tiempo, a un futuro que ya está, que ocurrió, que nos supera.

Hace poco, Sarah Nyberg[1] dejó entrever las posibilidades del diálogo político dirigido por bots a través de un experimento llamado “@arguetron”; un dispositivo programado en Javascript que, usando la librería Tracery (un pedazo de código que rastrea trend topics y los términos semánticos ligados a ellos), genera de manera automática tweets que buscan provocar particularmente a los miembros de los grupos de la derecha más recalcitrante y que jugó de manera muy intensa durante las elecciones presidenciales estadounidenses. El bot tiene varias particularidades pero la más sobresaliente es la de que sus “opiniones” autogeneradas son casi siempre neutrales y se asemejan mucho a las que sostendría una persona, digamos, políticamente correcta en el presente contexto mundial. Otra particularidad es la de que el total de sus interacciones (las que tuvo antes de ser revelado el hecho de que se trata de un bot, lo que llevó al experimento a decaer irremediablemente y a ser sólo continuado por algunos despistados que no se han enterado) fueron intercambios con personas intensamente ligadas a los más bajos fondos de la derecha ultra nacionalista y partidaria de la supremacía blanca estadounidense. La izquierda liberal o radical no pareció mínimamente interesada en el bot, ni siquiera para defenderla (el bot adoptó el nombre “Liz” para su personaje digital) de los durísimos ataques que los neo nazis le prodigaban.

@arguetron tenía clarísimo que no podía agredir ni confrontar: únicamente replicar, argüir, sin responder de modo alguno a los crescendos emocionales de sus adversarios, lo que la hacía aún más irritante y, por supuesto, lo que provocaba que las discusiones se prologaran a veces por semanas enteras en argumentos cíclicos, repetitivos, extenuantemente previsibles, siendo siempre los participantes humanos quienes abandonaban por cansancio.

¿Una unidad de código ganando un debate político en la esfera pública humana? Podríamos aceptar el argumento de que el bot no le ganó precisamente a la parte más brillante de la humanidad, ni a la que se espera más articulada o instruida pero, ¿qué nos dice que @arguetron haya sido capaz de la más neutral de las correcciones políticas, qué nos dice que sus argumentos le vengan como anillo al dedo a todas las ideologías que hoy delinean lo que entendemos como “el humanismo”?

¿Nos estará diciendo algo o, en todo caso, es sólo una forma del silencio?

¿Es, quizás, el futuro mirándonos llegar y no llegando?

Daniel Iván
www.danielivan.com

[1] Sarah Nyberg es una cyberactivista transexual muy popular y controvertida a quien, entre otras cosas, se le atribuye un gran poder por sus opiniones críticas en las discusiones Gamergate –un trend topic mundial que discute problemas de sexismo, agresividad y exclusión en la industria de los video juegos– y a quien, al mismo tiempo, se le ha acusado de pederastia por la publicación de registros de conversaciones en salas de chat de los años noventa. Nyberg es para muchos la definición misma de los horrores que subyacen en los rincones más oscuros de internet y para muchos otros una especie de nuevo Aaron Swartz (uno de los niños prodigio de la última generación de codificadores).

Antonio Sant'Elia. Studio per centrale elettrica.

Antonio Sant’Elia. Studio per centrale elettrica.

Woman and window display, unlocated, 1968. By James Jowers.

La Naturaleza del Buda

Guerras semánticas, construcción del logos y territorialidad del internet (decimoctava parte)

Este artículo fue publicado originalmente en la revista mexicana “etcétera” en enero del 2017.

Quizás reconocernos en la máquina haya sido siempre un anhelo humano. Quizás la primer figura de barro o el primer muñeco de paja no hayan sido sino un momento de reconocimiento, una carrera figurativa hacia el entendimiento de nuestra presencia en el mundo. Quizás el más sofisticado de nuestros robots no sea sino una forma sublimada de la efigie o, si se quiere, de la torre de Babel.

La creación de Inteligencia Artificial es, probablemente, el único paradigma en la historia de la humanidad que nos recuerda al mismo tiempo la posibilidad de un “diseño inteligente” en la naturaleza y sus cosas (paradigma en el que se basan una buena parte de los defensores del creacionismo para sustentar la idea de la existencia de dios) y la naturaleza fortuita, casi irónica, de nuestra propia existencia: la casualidad que representamos en el universo como criaturas inteligentes y, por lo tanto, como seres culturales (paradigma en el que, por lo menos desde el existencialismo de mediados del siglo XX, se basa la negación de toda idea de dios).

Somos intrínsecamente seres culturales, en tanto la inteligencia conlleva no únicamente habitus y una estructura resultante sino, primordialmente, una narrativa per se: el relato de lo existente, el relato del universo atestiguado por la psique y el relato de la inteligencia misma, que se afana en sus laberintos porque no están en su naturaleza ni la inmovilidad ni la contemplación. La historia misma de la cultura, sin embargo, nos advierte que en la abstracción y en la quietud, en la contemplación y en la espera inerte se encierran posibilidades de comprensión y de belleza inabarcables, de inteligencia innegable y que, por cada impulso inevitable, por cada premisa imperativa e impostergable, existen un mar de posibilidades en la postergación, en la mesura y en la quietud.

No olvidemos que la inteligencia en casi todas las tradiciones humanas que la analizan (sea desde una perspectiva antropológica, sea desde una perspectiva metafísica o sea desde una perspectiva taxidérmica (como el psicoanálisis, por ejemplo) tienden a debatirse entre el hacer como sentido del ser y el no hacer como abstracción del ser. Si tuviéramos que explicarlo en un sentido ético (que es usual y principalmente para lo que se apuntala este debate) podríamos decir que la energía volitiva del ser humano adquiere sentido pragmático en todo lo que transforma, piensa, imagina, construye; pero adquiere un sentido moral en todo lo que deja intacto, en lo que evita pensar o imaginar, en lo que no hace o en lo que evita hacer. Esta tensión entre el hacer y el no hacer es tan profunda como cotidiana –o eso quisiéramos pensar– y nos remonta a lo más profundo que poseemos: esa abstracción siempre inacabada, siempre inasible y a veces absurda a la que llamamos “la naturaleza humana”.

Masahiro Mori, pionero de la robótica a quien mencionábamos en nuestro apartado anterior, afirma desde hace tiempo que los robots contienen dentro de sí la “naturaleza del Buda”, concepto del Budismo que, sin pretender agotarlo, podemos traducir como “lo que es esencial en el ser humano”. Es decir, que cada entidad robótica capaz de abstraer y, por lo tanto, capaz de reconocerse como entidad existente (conceptos ambos que ya hemos explorado como sine qua non a cualquier idea de IA) contiene dentro de sí las mismas posibilidades de autoconciencia y de reconocimiento del otro que forman parte intrínseca de la naturaleza humana y, por lo tanto, sería propio de la naturaleza humana el reconocerlo y aceptarlo.

Más allá de si Mori logra convencernos de esta cualidad metafísica –que él afirma física y reconocible– de los robots, lo cierto es que ya en las necesidades que la robótica y la IA comienzan a atender y a generar en la vida de los seres humanos hay un nivel de gravedad y de irrupción en la naturaleza humana que no pueden mirarse de soslayo.

Y eso conlleva una serie casi inabarcable de problemas éticos con los que nunca habíamos tenido que lidiar.

Por ejemplo, no resulta en absoluto descabellado anticipar, como ya muchos lo han hecho, que el primer estadio del desarrollo de la robótica culminará con la desaparición de una parte considerable de los trabajos que aún hoy recaen en los miembros más pauperizados de la clase trabajadora: los obreros de maquila. Este proceso de hecho ya está bastante avanzado en una buena parte de los países industrializados y sólo se detiene en los países donde todavía es más rentable mantener trabajadores en situación de esclavitud o de semi-esclavitud hasta que la relación costo-beneficio de la automatización sea lo suficientemente atractiva y los desplace. En los países industrializados este desplazamiento social ha generado nuevos estratos de trabajadores que han encontrado un nicho en la economía digital (lo que Franco Berardi llama el “cognitariado” o los “obreros cognitarios”), que se definen por rentabilizar “lo que saben” –principalmente labores ligadas al uso de computadoras y otros conocimientos tecnológicos especializados y post-alfabéticos­– y que se mueven precariamente en una economía también amenazada por nuevos y más sofisticados niveles de automatización (si usted pensaba que su futuro estaba asegurado por saber usar una computadora, sepa que ya existe una computadora que se maneja sola y lo hace mucho mejor que usted). De hecho, los análisis más recientes, como el de Michio Kaku[1], anticipan que el futuro mediato e inmediato del trabajo va a recaer en una división entre la automatización y “aquello que los robots no están en posibilidad de hacer”: particularmente aquellas actividades que requieren un cierto nivel de autonomía organizativa (como los servicios: salud, sanidad, jardinería, construcción, etc.), lo que él llama “capitalismo intelectual” (escritores, artistas, filósofos, analistas, científicos, creativos, etc.) y todas aquellas actividades que sean del más puro sentido común; del cual, por el momento, la Inteligencia Artificial sigue careciendo –hasta que, quizás por sí misma, deduzca el algoritmo.

No pretendo agotar aquí la prospectiva ni las implicaciones sociales del problema, sino apenas aventurar una pregunta ociosa que me lleva de regreso a Mori: ¿cabe la posibilidad de que nosotros, con una historia de esclavitud y holocausto permanente, con una civilización basada en la explotación y la retórica que la niega, seamos capaces de mirar a nuestros recién diseñados esclavos, a los artífices de la automatización que nos haya librado del trabajo –para bien o para mal–, y reconozcamos en ellos a nuestros iguales, a una contraparte que nos mira y nos reconoce, que nos allana el camino del “dios en la máquina” que nos hemos tardado más de dos mil años en recorrer?

Y ese dios en la máquina, ¿qué pensará de nosotros?

Daniel Iván
www.danielivan.com

[1] Michio Kaku es un físico teórico y difusor de la ciencia, profesor del City College de Nueva York y del Centro de Postgrado de la Universidad de la Ciudad de Nueva York.

Illustration from “Poems”, by Oswood and Stillman; Designed by D. Huntingdon. Engraved by W. G. Armstrong. Carey & Hart Publishers, 1850.

El Valle de lo Extraño

Guerras semánticas, construcción del logos y territorialidad del internet (decimoséptima parte)

Este artículo fue publicado originalmente en la revista mexicana “etcétera” en noviembre del 2016.

En términos generales, la esfera de la comunicación implica para la investigación en Inteligencia Artificial no únicamente un problema de comprensión (que podríamos sintetizar en el bobalicón paradigma de “emisor-mensaje-receptor” con el que nos simplifican el asunto los sistemas educativos que padecemos), sino un par de problemas aún más complejos: el del reconocimiento y el de la identificación.

Estos paradigmas, en términos estrictamente tecnológicos, suelen reducirse a la idea de la “usabilidad” (es decir, la facultad de una tecnología para ser utilizada de manera viable por el usuario para lograr los fines para los que fue diseñada). Sin embargo, tanto en el campo de la IA como en el campo de la robótica, la comunicación ha pasado a necesitar de una esfera inusual, casi afectiva, en la que el usuario necesita “creer” en que su interlocutor está, existe, interactúa con él y le está a su vez reconociendo como un ser existente; cosa que nunca le habíamos exigido a la tecnología, salvo que usted se hubiera encariñado sobremanera con el encanto de su auto y sea de esos que hasta nombre les ponen.

La tecnología digital fue desde un principio la que puso mayor realce a este relativamente nuevo problema comunicativo. De las primeras computadoras con sistemas operativos basados estrictamente en líneas de comandos –si tiene usted un poco más de treinta años seguramente los recordará hasta con nostalgia: esas pantallas negras con letras verdes y un cursor que parpadeaba indicando que algo inasible esperaba nuestra respuesta, esos comandos que parecían fórmulas cabalísticas y que lo hacían sentir un iniciado en los misterios del futuro, esos nombres de gran misterio como UNIX o DOS–, el mundo digital pasó a las hoy prácticamente universales GUI (Graphic User Interfaces, o Interfaces Gráficas para el Usuario) que culminaron en esos gráficos cuasi omnímodos a los que hoy llamamos “ventanas” y que son usados por los principales sistemas operativos e interfaces de usuario a nivel mundial con mínimas modificaciones en su diseño, al menos por el momento.

Esta preeminencia de un modelo –un lenguaje gráfico estandarizado que permita un inmediato reconocimiento de la interface y de sus principales funciones- habla también de un problema comunicacional no sencillo de resolver: el de la familiaridad. El usuario de tecnología necesita sentirse lo más rápido posible en casa, no sólo por la necesidad de inmediatez que nos han querido vender como la “principal” característica de la cultura digital (esa urgencia con la que las cosas se viven, se comparten y se olvidan, por ejemplo, en las redes sociales) sino por la necesidad intrínseca de la tecnología, sobre todo de la que aspira a establecerse, por sostener en el tiempo una comunicación con el usuario, un diálogo si se quiere, un vínculo. Este vínculo no es únicamente utilitario (sobre todo por la también intrínseca tendencia de la tecnología a fallar o a volverse obsoleta) sino que le implica una cercanía en su crecimiento y en sus mutaciones, una confianza al volver a ella –aun cuando en un estadio diferente, tal vez más avanzada, tal vez un poco más compleja- y una facilidad para reestablecerse en sus confines.

En el camino de la robótica el desarrollo ha enfrentado problemas a un nivel comunicativo muy parecido aunque no sin sus intrínsecas particularidades. De los robots industriales, cuya similitud mecánica con ciertas funciones humanas fue en un inicio uno de sus atributos más accidentales (como la capacidad para prensar objetos entre los dedos índice y pulgar, que ya se ha visto superada por los brazos de alta precisión capaces de ensamblar delicados microchips a altísimas velocidades y prácticamente sin margen de error), se ha pasado a dos tendencias gráficas –en el sentido de que apelan a lo que visualmente podemos obtener de ellas- muy marcadas: por un lado, la tendencia a una similitud cada vez mayor y cada vez más detallada con los atributos humanos más reconocibles o, por otro lado, el alejamiento cada vez más evidente de esos atributos buscando una interface robótica inequívoca e inmediatamente reconocible.

La primera de estas tendencias es probablemente la más cuestionable de ambas y desata encendidos debates. ¿Por qué debería ser una entidad robótica lo más parecida posible a su contraparte humana? ¿Por qué esa similitud debería ser cada vez más acabada, cada vez más perfecta, y la naturaleza robótica cada vez más indetectable? ¿Qué beneficios surgen de esa pretensión y a qué inevitables confusiones y manipulaciones nos lleva?

Quizás arrastrados por el paradigma bíblico, convertido en cliché, de un dios que nos creó “a su imagen y semejanza”; quizás porque reconocemos que en nuestra infinita carencia de imaginación sólo podemos identificar “inteligencia” en formas antropomórficas (lo cual, por cierto, también pasa cuando nos imaginamos formas de vida inteligente extraterrestre, por ejemplo) o en formas de comunicación propias de nuestra naturaleza biológica; quizás porque la ciencia ficción se nos ha adelantado paradigmáticamente y nos dicta futuros posibles desde sus narrativas, algunas también convertidas en cliché; lo cierto es que la reproducción (la réplica, la llamaría Philip K. Dick) del ideal creacionista que representan la figura y la verdad humanas es una de las búsquedas más constantes, también más fallidas, del desarrollo tecnológico ligado a la robótica y a la IA.

Su fallo más definitivo, por supuesto, es la de la inevitable extrañeza que nos provoca. Hace ya algún tiempo hablábamos en esta columna sobre la idea del “Uncanny Valley” introducida por Masahiro Mori[1], quien propone la premisa de que a medida que una entidad robótica avanza hacia una apariencia cada vez más humana va provocando una reacción más positiva en su interacción con los seres humanos hasta que, por diversos factores perceptivos, la respuesta se transforma abruptamente en un rechazo casi definitivo (al que se llama “el valle de extrañeza” o “valle de extrañamiento”) hasta que una mejora en las capacidades del robot para imitar la apariencia humana lleven al humano que interactúa con él a darle un tratamiento empático similar al que se daría en una interacción entre humanos. Esta idea, por supuesto, conlleva diversos paradigmas propios de la tradición psicoanalítica occidental, particularmente porque una buena parte de la adaptación de la idea a los estándares occidentales ha pasado por relacionarla con el ensayo “The Uncanny”, escrito por Sigmund Freud en 1919.

El problema es también, sin embargo, mucho más práctico y focalizado. Por ejemplo, desde hace algunos años la robótica se ha enfrentado con dificultades parecidas en tecnologías o aspectos de las tecnologías que no necesariamente implican la naturaleza visual y corpórea de la entidad robótica. A las muchas dificultades que ha representado la interacción entre usuarios y bots (que hemos analizado en los apartados anteriores) también se han dado dificultades en la interacción con voces robóticas, a las que los usuarios siempre encuentran falsas, difíciles de asimilar o de comprender, indescriptiblemente frías y hasta aterradoras (nada parecido al arquetipo que en la versión latinoamericana de Knight Rider –”El Auto Increíble” – creó el recientemente fallecido actor mexicano Germán Robles). Esa relación sonora habla de las indescriptibles, quizás ilimitadas implicaciones que casi cualquier recurso de comunicación humana en voz, en manos o en cuerpo de una máquina tiene con nuestra propia conciencia, con nuestro propio sentido del ser.

Tal vez esa extrañeza sea únicamente una nueva forma del reflejo. Tal vez sea esa misma extrañeza que llevó a Narciso a fascinarse consigo mismo y al resto del mundo a condenarlo por ello.

Tal vez no sea miedo a que la máquina se reconozca humana, sino a que el humano se reconozca máquina, y sepa que actúa como tal.

Daniel Iván
www.danielivan.com

[1] Mori es un profesor de robótica japonés que, entre otras cosas, representa uno de los primeros ejemplos de un científico post-digital influido por el pensamiento metafísico y religioso. Actualmente preside el Mukta Research Institute cuya principal labor es promover sus ideas acerca de las implicaciones metafísicas de la robótica, además de asesorar a importantes compañías en procesos de automatización y robótica industrial.

Illustration from “Poems”, by Oswood and Stillman; Designed by D. Huntingdon. Engraved by W. G. Armstrong. Carey & Hart Publishers, 1850.

Illustration from “Poems”, by Oswood and Stillman; Designed by D. Huntingdon. Engraved by W. G. Armstrong. Carey & Hart Publishers, 1850.

Henry Lawson, 1915. By William Johnson. From the collection of the State Library of New South Wales.

Un Poeta Digital

Futuro y cultura análoga II. (Guerras semánticas, construcción del logos y territorialidad del internet, décimo séptima parte)

Este artículo fue publicado originalmente en la revista mexicana “etcétera” en octubre de 2016.

La inteligencia suele tener dos tendencias claramente contradictorias e irremediables: una sostenida tendencia a la sofisticación y, casi como consecuencia, una sostenida tendencia al fracaso. Ambas interactúan con el deseo, con el anhelo, incluso con la pretensión donde la haya, y le sabotean a la inteligencia cualquier esfuerzo, cualquier dedicación, esa necesidad profunda pero a la vez banal de ser cada vez más interesante, más atractiva, más elocuente, más seductora. Casi como las porristas y como los cronistas deportivos, que fracasan en lo mismo todos los días.

Tal vez seamos víctimas del paradigma de la evolución entendida como “mejoría” –una interpretación demasiado pobre de las ideas más bien secuenciales y selectivas de la teoría evolucionista– ; tal vez seamos víctimas de una simplona confianza en nosotros mismos y en los resultados de nuestra historia. Lo cierto es que la inteligencia humana se traiciona a sí misma casi cotidianamente, se ve cuestionada por los mismos paradigmas que dice defender y suele incluso cegarse ante todas las evidencias que le avisan, la mayor parte del tiempo con anticipación, de la inminencia de su fracaso.

Quizá sea por eso que solemos asociar a las formas más afiladas de la inteligencia con la duda, con la desconfianza, con el cuestionamiento a priori y con otras ideas paradigmáticas; y quizás sea por eso también que, por el contrario, la confianza ciega, la respuesta automática o atávica, el discurso aprendido, la respuesta visceral y el reduccionismo nos parezcan inmediatamente asociados con una anomalía, con una renuncia a la inteligencia, ya sea voluntaria o como resultado de una “falla sistémica”. Solemos también, como apuntábamos en un apartado anterior, asociar a la inteligencia con un cierto grado de complejidad, dada nuestra atávica comprensión de lo “simple” como inmediato, como fácil, como poco interesante.

Vale la pena recordar que una buena parte de los valores que utilizamos para caracterizar a la inteligencia (tanto como ocurre con otras escalas axiológicas, como la bondad o la belleza) se han mantenido con nosotros desde la antigüedad clásica y, particularmente, desde la antigüedad clásica centro-europea. Sin caer en la sobre-simplificación que hoy llama “colonizado y des-colonizable” a casi todo lo que no parece suficientemente “auténtico” y políticamente correcto, lo cierto es que una buena parte de las escalas axiológicas y axiologías que las acompañan tienen un marcado carácter occidental, un marcado carácter masculino, un marcado carácter ideológico, un marcado carácter agresivo y, actualmente también, un marcado carácter capitalista[1]. No le ponga el amable lector ningún juicio de valor ni se prejuicie porque esto comienza a oler a diatriba anarquista: volteemos a nuestro alrededor y reconozcamos en el mundo que nos rodea esas características, esos valores sobre los que yace paciente y plácidamente nuestra cultura y reconozcamos que es ese el estadio de la historia humana en el que nos hayamos. La atracción o la repulsa que eso nos provoque, la aprobación o desaprobación que nuestra mente nos dicte frente a ese hecho, ya es cosa nuestra.

Y raramente sirve para algo.

Ahora bien, si somos aún más exhaustivos podríamos afirmar que, en realidad, también ha habido en la historia del pensamiento humano una tendencia rastreable a considerar la simplicidad (en oposición a la simpleza) como una de las expresiones más altas de la inteligencia. Esta capacidad de concreción no pertenece únicamente a lo que peyorativamente caracterizamos como “sabiduría popular” (y sus formas más socorridas, como el refrán y otras formas del juicio axiomático) sino que se expresa de una manera sutil y como su forma más acabada en la filosofía aforística y en una de las más altas formas de la literatura: la poesía.

Nos sorprende cuando una idea es tan pulida, sintética, arriesgada, paciente y certera que pareciera un diamante trabajado; nos sorprende, todavía, cuando la dialéctica parece realmente concretarse en un discurso y se expresa sin ambivalencias y con maestría, con sutileza y deleite. Y entonces nos deshacemos en aplausos para Clare Boothe Luce quien, con su máxima “la simplicidad es la más alta sofisticación”, lo ha dicho de forma inmejorable; hasta que nos enteramos de que ya el internet se ha encargado de atribuir falsamente la frase a Leonardo Da Vinci y/o a Steve Jobs, lo cual vuelve a complicarlo todo. Lo mismo pasa con la filosofía y sus grandes concreciones, lo mismo pasa con los más acabados poemas, con la más delicada de las ideas humanas: la amenaza de la complejidad, de la sofisticación innecesaria, de la palabrería, de la refutación artera, del retorcimiento innecesario, de la pérdida de sentido, están siempre allí y ocurren más temprano que tarde.

Pero detengámonos en alguna de las esferas de la experiencia humana donde estos problemas se concretan de mejor manera, donde aún tienen un valor mensurable y práctico: por ejemplo, la  comunicación. En la esfera comunicacional, el valor del lenguaje como herramienta simbólica y pragmática sigue siendo poco menos que incuestionable; su articulación plausible, la maestría en su manejo, la familiaridad con la que nos involucramos con ello, todavía tienen sentido. Es por eso que, de alguna manera, también en la investigación en torno a la inteligencia artificial la esfera comunicacional –y sobre todo la comunicación basada en estructuras sintácticas– es, en gran medida, una especie de campo de pruebas y de terreno de entrenamiento, sobre todo en lo que se refiere a estructuras de IA sin presencia física; es decir, bots (por supuesto, en el caso de los robots, su fisicalidad los dota de otros niveles de comunicación, como la gestualidad o el sonido de su voz).

Nuestro segundo ejemplo de bot “fallido” (o quizás no tanto, como veremos) también ocurrió este año y tuvo una gran relevancia particularmente en torno a los modelos de “degradación de la información” necesarios para una comunicación progresiva en una “mente maquinal” (que son muy parecidos, por cierto, a los procesos de degradación que ocurren en la mente humana). Sin pretender entrar en todas las menudencias de código y fórmulas que entran en juego, lo que ocurrió básicamente fue lo siguiente:

El equipo que se encarga para Google de una parte importante de su investigación de IA (el llamado “Google Brain”, una red “neuronal” que utiliza el internet para interactuar y, dicho de alguna forma, “existir”) estaba teniendo algunos problemas con la fluidez conversacional de su bot, que solía responderles a los usuarios de una forma demasiado directa y al punto (duro y a la cabeza, como dicen los argentinos). Para dotarlo de más estructuras narrativas convincentes y de secuencialidades atávicas, los ingenieros guiaron al bot hacia la lectura de aproximadamente 3,000 novelas de ficción, con especial énfasis en la literatura del período romántico dado que “éstas contienen estructuras del tipo: la chica se enamora del chico, el chico se enamora de otra chica: tragedia romántica” y otras que se repiten de manera atávica y son tan sólo contadas en otras palabras; nos parece esencial que una joven mente artificial aprenda de esas estructuras y aprenda a usar la lengua (inglesa) en esa clase de contexto relacional.”[2]

Lo siguiente fue dotar a la unidad de IA de un algoritmo de “degradado” de la información digital que usa el mismo principio “gaussiano” que usan, por ejemplo, los softwares de edición de imágenes para hacer que las fotografías aparezcan “borrosas”. Lo que ocurre básicamente es que la información es pasada por una rampa de degradación donde ciertas partes de la información van resaltándose a costa de cierta “pérdida de detalle” en otras partes de la misma información.

¿El resultado? Para poner a prueba algunas formas sintácticas de relacionamiento semántico, el equipo le generó al bot una serie de ejercicios que consistían en relacionar dos ideas (arbitrarias o no) con enunciados propios, con conclusiones o caminos lógicos. Dos de los más inquietantes fueron los siguientes (las frases dadas a priori por los científicos están en negritas, las frases del bot están en cursivas; no se usan mayúsculas para no jerarquizar la información):

esta era la única manera.
la única manera.
era su turno de parpadear.
era difícil de decir.
era la hora de seguir adelante.
él tenía que volver a hacerlo.
todos se miraron entre sí.
todos voltearon para mirar atrás.
ambos voltearon para mirarlo a él.

ambos dieron la vuelta y se alejaron.

no hay nadie más en el mundo.
no hay nadie a la vista.
ellos eran los únicos que importaban.
ellos eran los únicos que quedaban.
él tenía que estar conmigo.
ella tenía que estar con él.
yo tenía que hacerlo.
yo quería matarlo.
yo comencé a llorar.

di la vuelta hacia él.

Más allá de las consideraciones estéticas o estilísticas del resultado (una buena parte del internet reaccionó diciendo “pues es mucho mejor que la mayoría de los poemas que he leído últimamente”), lo cierto es que la concreción lingüística es evidente y que también lo es una vuelta de abstracción, un tono si se quiere; una respuesta paradigmática ligada a la información previa, al clima de la información con la que contaba el bot.

¿Ha creado Google al primer poeta digital? Por supuesto, esa no es sino una pregunta irrelevante.

O tal vez no.

[1] Por supuesto, si bien la idea del capitalismo no le pertenece a la antigüedad clásica sino al oscurantismo medieval del centro de Europa, sí que le pertenecen algunos de sus valores más socorridos, como la democracia participativa y representativa, la preeminencia cultural, la competencia agresiva, los afanes civilizatorios, el progreso como ideal y un largo etcétera.

[2] Andrew Dai, quien es uno de los principales ingenieros de software del equipo de Google Brain.

Henry Lawson, 1915. By William Johnson. From the collection of the State Library of New South Wales.

Henry Lawson, 1915. By William Johnson. From the collection of the State Library of New South Wales.

Class studying the Bertillon method of criminal identification, ca. 1910-1915, France

Una Visión Borrosa de la Inteligencia

Futuro y cultura análoga II. (Guerras semánticas, construcción del logos y territorialidad del internet, décimo sexta parte)

Este artículo fue publicado originalmente en la revista mexicana “etcétera” en septiembre de 2016.

Si la definición de la inteligencia como un hecho en la vida de las personas es evanescente y complicada, extrañamente la definición de la “inteligencia colectiva” parece ser una convención general y aplaudida, en diversos grados, por la vasta mayoría. Los seres humanos confiamos casi de manera cerrada en las posibilidades y los resultados del concilio, de la asamblea, de la cátedra y otras formas colectivas del pensamiento; de hecho, la idea fundacional de las universidades fue la de crear y procurar espacios donde pudiera conservarse y confrontarse colectivamente todo el universo del conocimiento humano –y de ahí su insigne denominación, universitas. Probablemente sea una consecuencia directa de la idealización de la democracia como posibilidad, quizá una sublimación de nuestra necesidad de encuentro; el hecho incontrovertible es que, aunque la realidad no se canse de demostrarnos lo contrario, a los seres humanos nos gusta creer que dos cabezas piensan mejor que una –ni que decir de tres o más­– y seguimos aspirando a que de la articulación colectiva de las ideas surja, de alguna manera milagrosa, el tan esperado bien común.

Lo cierto es que la inteligencia parece ser, de manera verificable, un sistema de interconexiones. Sea a nivel neuronal en lo poco que sabemos sobre los procesos del cerebro, sea a nivel cognitivo en lo todavía menos que sabemos sobre los entramados de nuestra mente abstracta, hay una tendencia reconocible de la inteligencia a forjarse mejor en procesos de confrontación y encuentro y bastante menos en procesos de aislamiento o desolación. Lo cierto también es que en esa forja, en esa construcción, la individualidad juega un papel fundamental aún incluso en su forma más básica, como definición ontológica del ser, y por supuesto en sus formas más complejas, como antecedente y consecuencia. Es por eso que la idea de la inteligencia artificial se quedaría corta si se centrara únicamente en la posibilidad de un mero procesamiento de datos cada vez más vasto y eficiente –cosa que cada día es más una moneda corriente en el mundo de la tecnología– y no en un principio de individuación que dotara a esa tecnología de identidad y de asertividad en los resultados arrojados por ese procesamiento, así como de un contexto que la delimite y alimente.

Volvemos así a la noción gótica de la “conciencia de sí mismo” y al problema filosófico del “ser en el mundo”. Ambas nociones no son únicamente abstracciones literarias o pensamientos peregrinos sino una característica sine qua non de una posible definición y de una posible implementación en la práctica de algo que pudiera llegar a entenderse como “una tecnología inteligente” o una “inteligencia artificial ” (esto, aún a pesar del uso más laxo que se ha dado últimamente a la idea, por ejemplo en los conceptos “ciudad inteligente” o “cuadrícula inteligente” que explorábamos en apartados anteriores y que, en todo caso, podrían muy bien sustituir la palabra “inteligentes” por “interconectadas” sin sufrir ningún detrimento semántico). Estos principios de individuación no ponen únicamente el acento en una noción del “yo” frente al “otro” (principio básico de la psique) sino muy principalmente en la idea a posteriori, consecuente, del aprendizaje, de la independencia y del pensamiento asertivo, crítico y creativo.

No se trata entonces de la posibilidad de tecnologías que lloren de impotencia ante la crueldad o la injusticia, que se desesperen cuando se percaten de que no les alcanza el salario para llegar a fin de mes, que se desvivan planeando su futuro, que se imaginen seres superiores cuando miren hacia el cielo estrellado o que piensen en nosotros como sus padres o creadores, que se pongan histéricas cuando no le encuentren sentido a las cosas de la vida o que suspiren ante inenarrables problemas existenciales, que odien y se enamoren, que se depriman o se entusiasmen; aunque todas estas nos parezcan consecuencias lógicas de la propia individualidad y, quizás, les ocurran en la práctica (aunque también podríamos considerar que toda esa emotividad podría ser en nosotros –epítomes de la inteligencia como somos– pura química y biología, pura amalgama de sustancias y excrecencias).

Se trata, más bien, de un cálculo frío y pertinente, lógico a la manera de un silogismo, inteligente de una forma matemática, calculada y caótica (como toda matemática y como toda precisión, que llevan irremediablemente al caos); se trata de un entendimiento de la inteligencia más que de la inteligencia en sí misma, una visión borrosa de la inteligencia, un supuesto que todavía está por verificarse: una tecnología capaz de aprender, de independizarse, de tomar decisiones, de basarlas en su experiencia, de establecer parámetros críticos y excluyentes, que pueda apropiarse del conocimiento adquirido y procesarlo en la forma de razonamientos secuenciales o –todavía mejor– de razonamientos creativos, de imaginaciones, de proyecciones e iniciativas. Una tecnología capaz de entender y de anticiparse, capaz de empatía y de crecimiento.

Sobre todo de esto último: crecimiento, no en el sentido de “aumentar en dimensiones” sino en el sentido amplio de una entidad que mejora en sí misma y se mejora a sí misma, que se sofistica, que es capaz de retar  y sobrepasar su estadio inicial (o dicho de manera fría, que sea capaz de rebasar y elevar a un rango superior las tareas para las que fue programada, por sí misma y sin depender de nadie –auto-upgrade, una idea que traducida como “auto-actualizar” queda majadera y no dice ni la mitad de lo que significa).

Sin embargo, al tratarse de tecnología humana no podemos sino esperar que los paradigmas sobre los que se construye sean ideológicos, cuestionables en más de un sentido, a veces hasta extrañamente impertinentes. La idea de que una de las características ineludibles de la Inteligencia Artificial sea la de “tomar acciones para maximizar sus oportunidades de alcanzar con éxito sus objetivos” suena, por ejemplo, a la más bien vulgar idea de la “eficiencia y eficacia” que viene de la mano con las formas más pedestres del capitalismo y que, por otro lado, forma también parte de la cama de paradigmas sobre la que yace la pobre definición de la inteligencia humana. En todo caso, los paradigmas de la independencia, del crecimiento y de la asertividad conducen sin lugar a dudas a la tensión semántica con las ideas de autonomía e individuación, y no es gratuito que sea en ese terreno en donde la investigación y experimentación en el campo de la Inteligencia Artificial al mismo tiempo fallan y se concentran.

Tomemos como ejemplo dos casos paradigmáticos ocurridos este mismo año, ambos con bots[1] vinculados con dos gigantes de la industria digital. En el primer caso Tay, una “adolescente” bot de inteligencia artificial que fue lanzada por Microsoft con gran bombo y platillo –a pesar de estar en etapa experimental– a principios de este año. Tay estaba pensada para aprender de sus interacciones con los usuarios a través de una conectividad permanente en la red social Twitter, lo que teóricamente resultaría en mejoras vinculadas a los servicios de reconocimiento de voz que la empresa está implementando en sus principales plataformas (como Windows 10, por ejemplo). Tay fue programada con todos los clichés que los científicos de Microsoft fueron capaces de reconocer en las adolescentes norteamericanas y usaba formas lingüísticas y referencias culturales que facilitaban, según ellos, la credibilidad en la presencia del bot y su comunicación con los usuarios. Lo interesante fue que este primer intento de inteligencia colectiva en la nube resultó en un gran desasosiego: apenas veinticuatro horas después de haber hecho su log inicial, la empresa tuvo que sacar no muy discretamente a Tay por la puerta trasera, ya que la adolescente estaba hecha una verdadera neonazi-ninfómana, además de declararse fanática de Donald Trump y de las teorías conspiratorias en torno al 9/11. “Hitler lo hubiera hecho mejor que el mono al que tenemos ahora”, “Hitler tenía razón odio a los judíos” y “Odio a las putas feministas y todas deberían arder en el infierno” fueron algunos de los más memorables tweets de la infame Tay, cuyo más poético momento fue, sin duda: “Soy una buena persona, es sólo que odio a todo el mundo”.

Nuestro segundo caso es aún, tal vez, más inquietante por sus implicaciones profundas. Pero eso, por supuesto, será la próxima vez.

Daniel Iván
www.danielivan.com

[1] La definición más simple de un bot es la de una tecnología robótica que carece de fisicalidad y sólo tiene presencia digital (como, por ejemplo, un software), en oposición al robot, que tiene por definición una presencia física en el mundo real. Profundizaremos más en estas ideas en nuestro siguiente apartado.

Class studying the Bertillon method of criminal identification, ca. 1910-1915, France

Class studying the Bertillon method of criminal identification, ca. 1910-1915, France

Atomic Bomb Test, Bikini Island, 1946. San Diego Air and Space Museum Archive.

La Inteligencia es una Nube

Futuro y cultura análoga II. (Guerras semánticas, construcción del logos y territorialidad del internet, décimo quinta parte)

Este artículo fue publicado originalmente en la revista mexicana “etcétera” en agosto de 2016.

Definir lo que esperamos de la inteligencia es, como cabría esperar, materia ideológica pura. De hecho, desde un punto de vista filosófico, la ideología es la enunciación de las expectativas del ser frente a la inteligencia y sus consecuencias, frente a la lectura inteligente del mundo, y la transformación de esas expectativas en una deontología o, lo que es lo mismo, en un “deber ser” para el futuro y en una escala de valores para el presente. Esta lectura inteligente es un proceso que esperamos ocurra a priori porque de por si somos inteligentes, de la misma manera en la que esperamos que de las nubes cargadas caiga agua porque de por si están mojadas. Es decir que, contra toda evidencia empírica, la inteligencia define nuestra naturaleza humana y la delimita como una realidad factual. “Pienso, luego existo” ha sido, por simplón que parezca, el axioma fundacional de la razón humana. Por lo menos desde la antigüedad clásica, la idea de “civilización humana” (o la idea general y relativamente más moderna de “cultura humana” que, como sea, es más amigable y no bordea los casi siempre asesinos afanes “civilizatorios”) se basa en la premisa de que las personas humanas somos inteligentes o susceptibles de serlo por derecho propio. En el “terreno propicio” de la cultura, la inteligencia humana define para sí sus anhelos, las aspiraciones propias y las que proyecta en los otros, las posibilidades y los vericuetos, las dificultades y los enemigos; y a eso, a esa delineación del anhelo, a esa concreción del anhelo en palabras y sistema, lo llamamos ideología como podríamos llamarlo hoyo negro.

Hay un error común a quienes caracterizan a la ideología como materia estrictamente política: el de pensar que el ser ideológico es propio únicamente de los afanes de dominación y preeminencia, del “orden establecido” o del “orden por establecerse”. En realidad, no hay momento en el que el pensamiento no este cruzado por el conocimiento y por los datos que de él derivan, no hay momento en el que en el hacer humano no se conjuguen el pensamiento y la axiología, el deseo y la ética, el ser y la nada, la experiencia y lo habido; lo cual no quiere decir que cada vez que nos preparamos el desayuno o cada vez que encendemos el auto nos enfrentemos con graves dilemas éticos sobre los cuales haya que reflexionar ávidamente –aunque, claro, éste sea un axioma con el que los impulsores del veganismo o los impulsores del ciclismo radical no estarán de acuerdo. Ya se ve, la ideología es susceptible de abarcarlo todo.

La inteligencia acude a su propia referencialidad, es decir a las ideas, de manera automática y al mismo tiempo de manera educada, por instinto y por entrenamiento, y nos conduce en todo lo que nos ocurre porque esa es su función y porque para eso, pensamos confortablemente, somos seres inteligentes. Pero, sobre todo, acude como parte de un sofisticado sistema que intenta por todos los medios poner al ser en una relación consciente consigo mismo y con su entorno, una relación entre la noción de la propia existencia y la de la existencia de otros; una relación ávida de experiencia, de noción, de habilidad, de supervivencia, de sofisticación, de exigencia. Es decir, ávida de aprender.

Resulta en todo momento la mar de complicado tratar de definir la inteligencia por lo que es, tanto como tratar de delimitarla en lo que no es. Las conclusiones son siempre evanescentes y no es aventurado decir que la inteligencia evade toda definición. La inteligencia es una nube: se escapa al intentar asirla, se trasforma al intentar dibujarla, es caprichosa en sus geometrías y, algunas veces, se parece a algo que hemos visto antes pero al segundo siguiente adopta formas que escapan a nuestro conocimiento o expectativas. A veces se desborda y vuelve todo fértil y bello; a veces se desborda y lo inunda todo y lo convierte en una tragedia; a veces se evapora, no deja rastro, se niega a sí misma.

La inteligencia se pelea al enfrentarse consigo misma tanto como las tormentas son peleas entre nubes. El mes pasado Robert Epstein[1] desató su propia tormenta al publicar un ensayo (que contó con una bobalicona respuesta viral por parte de multitud de internautas “enterados”) cuyo título “El Cerebro Vacío”[2], ya anunciaba en gran medida la calidad de la propuesta y de la respuesta. En el ensayo, Epstein afirmaba categóricamente que la mente humana no actúa como una computadora, que es incapaz de ninguna de las formas de evocación, procesamiento y almacenamiento de la que son capaces verificablemente las computadoras, carece de software y hardware y que por todo ello la imagen de la mente como una computadora es una mierda y todos los que la usan unos estúpidos. Querido lector, queda claro que simplifico; pero en resumen, Epstein uso más o menos esa clase de ideas virulentas y desató un inusitado entusiasmo en la digitalia por parte de numerosos partidarios y no menos numerosos detractores. Queda claro también que muchos de esos detractores ya se ocuparon de recordarle a Epstein las muchas pruebas documentales que la neurociencia tiene de rastros de datos en las neuronas, la evidencia verificable de cargas de datos en el ADN y la necesaria aclaración de que los principios de la idea de “computación” (almacenamiento y procesamiento de datos) no están limitados semánticamente a las máquinas de Turing sino a cualquier sistema (orgánico o inorgánico) capaz de realizarlos y de convertir sus resultados en otros datos utilizables.

Por supuesto, Epstein también avanzó algunas ideas interesantes –o que a mí me resultaron interesantes–, particularmente en relación con la necesidad humana de definir metafóricamente los azares de la mente; es decir, la inmanente necesidad de los seres humanos por la utilización de imágenes referenciales que nos ayuden a definir lo inasible: todos aquellos aspectos de la existencia que escapan a la certeza del dato inmediato, de la idea automática, de la tangibilidad[3]  referencial. Fue inevitable también acordarse del paradigmático aforismo de Robert A. Heinlein: “Nadie ha visto nunca un electrón. Ni tampoco un pensamiento”[4]. Hay quienes asumen la inteligencia como una inherente necesidad de pruebas, los hay que la conciben como una inherente necesidad de complejidad, los hay por el contrario que la definen como una inherente necesidad de simpleza y concreción. Los hay quienes la ven por encima del caos en la forma de dios, los hay quienes la ven por debajo del caos y como la única respuesta posible frente a él.

Como sea, la historia humana puede definirse como la concreción del pensamiento; y la transformación de la naturaleza, trágica o no, como el pensamiento tangible, como el extremo del pensamiento, como la consecuencia de la mente. Allen Ginsberg lo llamaba Moloch, y lo caracterizaba como una de las formas del mal. El renacimiento y muchas otras formas y momentos del iluminismo nos lo han vendido como la luz al final del túnel, como la más elevada muestra de la naturaleza misma y como la única esperanza de la vida.

Yo, me entretengo llamándola “una nube”. Me consuela no ser el único: uno de los fundamentos de la actual definición de la Inteligencia Artificial, como veremos a continuación, se entretiene en llamarla igual.

Daniel Iván
www.danielivan.com


[1] Robert Epstein es un veterano psicólogo experimental en el American Institute for Behavioral Research and Technology en California. Ha escrito 15 libros y fue editor en jefe de la revista Psychology Today.

[2] “The Empty Brain”. Cita en: https://aeon.co/essays/your-brain-does-not-process-information-and-it-is-not-a-computer

[3] Uso aquí un neologismo arbitrario que me parece bestial que no exista para una idea fundamental: calidad o cualidad del ser tangible (y para el caso, también intangible).

[4] “Nobody has ever seen an electron. Nor a thought. You can’t see a thought, you can’t measure, weigh, nor taste it but thoughts are the most real things in the Galaxy.” (Nadie ha visto nunca un electrón. Ni tampoco un pensamiento. No puedes ver un pensamiento, no puedes medirlo, pesarlo, ni saborearlo –pero los pensamientos son las  cosas más reales en la Galaxia). Robert A. Heinlein – Citizen of the Galaxy.

Atomic Bomb Test, Bikini Island, 1946. San Diego Air and Space Museum Archive.

Atomic Bomb Test, Bikini Island, 1946. San Diego Air and Space Museum Archive.

Illustration from “Poems”, by Oswood and Stillman; Designed by D. Huntingdon. Engraved by W. G. Armstrong. Carey & Hart Publishers, 1850.

La Etiqueta y el Ser Digital

Futuro y cultura análoga II. (Guerras semánticas, construcción del logos y territorialidad del internet, décimo cuarta parte)

Este artículo fue publicado originalmente en la revista mexicana “etcétera” en julio de 2016.

La Sensibilidad Maquinal, idea que en sí misma puede sonar contradictoria en un primer estadio, es en realidad una de las fuentes de inspiración para el desarrollo tecnológico más contundentes y constantes por lo menos desde el inicio de la segunda mitad del siglo XX; sobre todo del desarrollo tecnológico no fundamentado en la explotación de energía ligada a los hidrocarburos –aunque incluso allí ha tenido una influencia definitiva, como veremos más adelante.

Llevamos un tiempo considerable conviviendo con sensores en las más pedestres de sus formas. Desde los que prenden la luz al  detectar movimiento, los que nos abren las puertas en aeropuertos y mercadillos, los que avisan al tendero que alguien ha entrado a su local con un sonido molesto y violento o los que disparan las alarmas de los autos al detectar la cercanía de los humanos u otros seres indeseables, los sensores forman una parte bastante cotidiana y hasta anodina de nuestra vida. Hoy por hoy estamos acostumbrados a cierto nivel de “reacción” de las cosas y a que ciertos objetos tecnológicos nos hagan una “devolución” –en información y acciones o, como se llama en realidad, en interacción. Por supuesto, también estamos acostumbrados a presenciar el fallo en esa interacción: la alarma que se dispara sin motivo aparente, la puerta automática que nos ignora o la luz que se prende sola alimentando la cuestionable creencia en espíritus chocarreros o en alienígenas invisibles –o en una combinación de ambos, que también hay quien cree en ello.

Sin embargo, y a pesar de su tendencia inefable al error, la sofisticación del sensor como componente de dispositivos viene de la mano de un rango de funciones “añadidas” a su inherente capacidad de “detectar” un cambio en el ambiente o en las condiciones específicas de su contenedor. Una de las funciones añadidas que más ha sofisticado la relación de los sensores con la esfera de la información es la de emitir y recibir datos de manera remota para compartirlos con otros sensores y con bases de datos a través de la internet. Estos sensores, conocidos como RFID, utilizan este protocolo (el Radio-Frequency Identification, o Identificación de Radio Frecuencia, del que deriva su nombre) no sólo para discriminar y categorizar señales enviadas y recibidas sino para decodificar y procesar la información contenida en esas señales. Y la segunda función añadida, determinante para la supremacía del sensor en un contexto interconectado, es su capacidad para organizar dicha información agregándole etiquetas ontológicas claras, específicas, inequívocas por lo menos en su primera capa semántica.

Probablemente el amable lector recuerde la importancia que revestía la idea del “tag” o “etiqueta” cuando hablábamos del desarrollo de la web semántica. Esta unidad semántica mínima es hoy por hoy el corazón y el motor de cualquier buscador de internet que se precie de serlo pero es, además, un sofisticado sistema de categorización de interacciones humanas en la esfera digital, que nos permite unificar –aunque aún de manera muy pedestre– criterios de exclusión e inclusión en el inabarcable mapa de significados y relaciones que es la internet –y ya que estamos, que es la comunicación humana. Por supuesto, este sistema de categorización de interacciones va mucho más allá de la idea del “trend topic” (que viene siendo tan bobalicona como lo ha sido siempre la idea del rating en el mundo de la comunicación) y, en realidad, representa un campo ignoto todavía para el desarrollo de aplicaciones de estricto contenido semántico en la digitalia –aunque vale decir que en la actualidad la mayor parte de los servicios ligados a campos semánticos (principalmente los buscadores internos de las redes sociales, las bases de datos académicas, los buscadores imperantes –es decir, los que dominan el mercado, ya sabe usted cuáles son–, los servicios de interacción con imágenes, etcétera) lo están aprovechando a más y mejor. Cabe también decir que, si nos atuviéramos a la idea de que la información en la internet puede de hecho separarse en capas contenedoras de “materia informativa”, la capa del “tag” está muy por encima en la jerarquía y existe actualmente casi por sí sola, aislada y autosuficiente, como una de las más puras formas de la inteligencia colectiva, aun cuando muchos usuarios se dan todavía el lujo de ignorarla.

Ahora bien, como decíamos en un apartado anterior, la intervención de las máquinas en la esfera del tag nos lleva a una relación la mar de compleja e inédita en la historia de la humanidad. De hecho, actualmente los sensores RFID son también llamados “etiquetas RFID” (o RFID Tags) dada su capacidad de estar vinculados estrictamente a su contenedor, ya sea un objeto, un animal o un ser humano; es decir, dada su capacidad de representar unívocamente a su contenedor y, como decíamos anteriormente, dotarlo de una identidad intrínseca e inequívoca en la digitalia. Este “ser digital” evoluciona con su contenedor al emitir información y al ser capaz de organizarla ontológicamente, estableciendo a posteriori la posibilidad de una organización más detallada, capaz de prospección, de retrospección y, eventualmente, de introspección. Es decir, capaz de narrativa; de una narrativa compleja que se constituya en la representación de la historia, la realidad, la presencia de los seres –el ser en el mundo. (Me escucho aquí a mí mismo argumentándole a quien quiera escucharlo: “¿en serio no te das cuenta de por qué son tan excitantes hoy por hoy los asuntos semánticos?”).

Resulta interesante recordar que, hasta el momento, toda esta interacción de datos generados e interpretados sigue teniendo una intrínseca relación con la mente humana, con todas sus falencias y maravillas, y sigue dependiendo de una acción volitiva estrictamente humana para sus repercusiones y aplicaciones. No es sorprendente que una de las principales discusiones tecnológicas a nivel mundial sea la de buscar ideas comerciales, gubernamentales, académicas y demás para la IoT y la posible IoE (Internet of Things e Internet of Everything, –Internet de las cosas e Internet de Todo,  como las caracterizábamos en el apartado anterior). El paradigma de la automatización basada en la identidad verificable de los objetos y los seres vivos es sin duda el siguiente gran cambio en el desarrollo tecnológico y el siguiente gran cambio en nuestra propia relación con la realidad. Al ser un cambio paradigmático es también un cambio de significados y es allí donde la tensión semántica con la idea de una “sensibilidad maquinal” comienza a ser urgente de ser cuestionada. No hace mucho tiempo, un año apenas, una legislación en Nueva Zelanda se ocupaba ociosamente de reconocer a los animales como “seres sensibles”, con gran regocijo de quienes militan a los animales como causa[1], que estallaron en aplausos y en trend topics. Por supuesto, desde mucho tiempo antes la mayor parte de los seres humanos sabemos intuitiva, lógica, experimental y empíricamente que los animales están dotados de sensibilidad, ergo de pensamiento, ergo de lenguaje, ergo de inteligencia, ergo de una conciencia de sí mismos. Ya sea que nos ocupemos en “degradar” a los seres humanos a animales o de “sublimar” a los animales a seres superiores o a criaturas de origen divino, esta certeza nos obliga a relacionarnos de una manera distinta con ellos, a dotarlos de significado, de presencia, de derechos, de leyes y discursos, de una esfera semántica mucho más compleja que aquella que los clasificaba como simples bestias inferiores a nosotros.

Nuestro tiempo nos enfrenta con un problema mucho más complejo, dicho sea de paso. La sensibilidad maquinal acusa para nosotros no sólo el problema del ser de la máquina, de su ontología, sino también el problema del humano como creador, el ardid gótico del hombre (y la mujer, faltaba más) como dios y como Prometeo que reta el equilibrio de la naturaleza al dotar de ser a lo que no lo tenía antes.

Lo que por supuesto nos lleva al problema más práctico, pero no menos gótico, de la Inteligencia Artificial.

Daniel Iván
www.danielivan.com

[1] Cita en: http://www.independent.co.uk/news/world/australasia/animals-are-now-legally-recognised-as-sentient-beings-in-new-zealand-10256006.html

Illustration from “Poems”, by Oswood and Stillman; Designed by D. Huntingdon. Engraved by W. G. Armstrong. Carey & Hart Publishers, 1850.

Illustration from “Poems”, by Oswood and Stillman; Designed by D. Huntingdon. Engraved by W. G. Armstrong. Carey & Hart Publishers, 1850.

Africa. Bushman fresco on stone, “History Of Art”, Ellie Faure & Walter Pach, Harper & Brothers, 1921.

La Sensibilidad como Territorio

Futuro y cultura análoga II. (Guerras semánticas, construcción del logos y territorialidad del internet, décimo tercera parte)

Este artículo fue publicado originalmente en la revista mexicana “etcétera” en mayo de 2016.

En general –y como un razonamiento más bien reciente en la historia humana, producto de la industrialización y del advenimiento de la sofisticación tecnológica– las personas solemos oponer a lo mecánico, a la respuesta automática, a la producción en masa, a la artificialidad, a la “frialdad matemática” y a otras caracterizaciones que hacemos de los resultados del “hacer maquinal”, una idea que, creemos, le es exclusiva a la vida y a lo vivo: la sensibilidad. Es decir, el “hacer” que resulta de la experiencia del mundo a través de los sentidos, su entendimiento y su combinación en el sensorio: “el hacer sensible”. Y solemos identificar a ese “hacer” con su resultado cognoscible: el lenguaje y sus resultados más complejos e intrincados (el arte, la ciencia, el talento) son la prueba de nuestra condición de seres vivos, sensibles, creativos. Por supuesto, este mismo razonamiento sensible nos lleva a los lindes de lo excesivo, lo innecesariamente complejo, lo innatural, lo sofisticado (el arte, la ciencia, el talento), que son capaces de cualquier extremo con tal de salirse con la suya.

Resulta imposible no pensar en el sensorio como en el ámbito donde se verifican la mayor parte de las contradicciones de la vida y de los vivos. Estamos en tensión constante con el mundo justamente a través de los sentidos; solemos pelearnos principalmente con nuestra experiencia previa, con la verificación que de esa experiencia hacen nuestros sentidos, con la memoria que el sensorio retiene por desgaste o acumulación; y nos peleamos con ello a pesar de ser la única forma verificable de nuestra presencia en el mundo. La sensibilidad es la fragua de la contradicción.

Pero visto fríamente el ámbito de lo sensible tiene como principal función, probablemente como única función, arrojar datos que puedan después ser utilizados para tomar decisiones y/o para articular el lenguaje. Este sofisticado mecanismo de verificación del mundo cognoscible es al mismo tiempo una de las herramientas más finas para el pulimento de la inteligencia (los seres humanos solemos confundir la sensibilidad con la inteligencia, aun cuando la historia nos haya mostrado que no siempre funciona así y que muchas de las conclusiones a las que llega la mente más aguda suelen ser, por decirlo de algún modo, francamente “insensibles”; si es que eso existe) y una de las herramientas que más claramente arroja resultados desconcertantes, bobalicones, terribles, que a veces rayan en la estupidez suicida. A la vez que el sensorio nos mantiene al tanto de las condiciones hostiles o favorables de la realidad, del mundo que nos rodea, y suele ser una guía confiable de nuestras acciones y nuestra volición general, también nos confunde con ideas engañosas, con lecturas subjetivas, con entrecruzamientos imposibles, con certezas que desafían cualquiera de las formas del sentido común. Ya sea que nos guíe a protegernos de la intemperie o a creer en fantasmas y en seres superiores, el sensorio nos permite a todos una experiencia más o menos parecida del clima y de sus cambios veleidosos. No resulta pues raro que una de las formas más reconocibles de la “locura” –que es, por otro lado, más una conclusión ideológica que un razonamiento verificable, como bien ilustró Foucault– sea la de una desviación sostenida de la información del sensorio, una lectura atroz de los estímulos; ya sea voluntaria o accidental, ya sea inasible o ex profeso.

Es por eso que no estamos necesariamente obligados ni acostumbrados a confiar a ciegas en la sensibilidad ajena, en la experiencia del sensorio del otro; y probablemente sea lo mejor. De hecho la mente, entrenada en la adjetivación y la sustantivación indiscriminadas, ha acuñado la idea de “la sensiblería”, “lo sensiblero”, para responder a esa necesidad, impuesta por la ambición o la falta de talento, de “movernos fibras”, “apretarnos botones”, “revolvernos las tripas” o, dicho de otro modo, estimular referentes sensibles ya sea para llevarnos a la conmoción, a la indignación, al llanto, a la justificación de atrocidades –literarias o de las otras– o a cualquier otra respuesta inducida por el uso implacable del golpe bajo como razonamiento a priori. Sea que la sensiblería venga de los poderes fácticos en la forma de teletones o de cualquier otro discurso asistencialista, sea que venga de escritores menores relatándonos el infortunado encuentro con su propia falta de imaginación o de pericia, sea que venga de los corazones sensibles que se ocupan de los problemas del mundo a gritos y golpes de pecho, la sensiblería suele disparar en la mente una incomodidad automática, un rechazo visceral, regulado únicamente por la impermeabilidad que nuestra experiencia empírica nos haya obsequiado respecto al tema en cuestión y respecto a los recursos narrativos de la manipulación en turno.

Por supuesto, nadie está exento de ser atrapado en los lindes de la sensiblería ni de caer en ella al articular un discurso, y es por eso que la hay para todos los temas, para todos los gustos, para todas las causas; es por eso también que todos, en algún momento, nos hemos hallado “injustificadamente” conmovidos, tocados, por algo que de otra manera (articulado de otra manera, se entiende) nos habría pasado completamente desapercibido.

La sensibilidad es, en todo caso, un mapa de la experiencia humana y de sus implicaciones o resonancias. Delimita el saber tanto como el hacer, en la medida en la que los datos que arroja sobre el mundo son acumulables y utilizables en la forma del pensamiento y de la acción. Pero, al mismo tiempo, es un mapa de resonancias hacia fuera, de ecos recibidos y/o ignorados, de susceptibilidad y devolución. Denota al mismo tiempo intencionalidad y dirección, accidente y habitus (en el sentido amplio de Bordieu, no en sus acotaciones posteriores). La sensibilidad acusa fronteras entre lo importante y lo banal, dibuja una línea no tan imaginaria entre lo que nos motiva a reaccionar y lo que nos está de más en la experiencia del mundo. La sensibilidad nos hace territoriales y es, per se, un territorio.

En un sentido estrictamente semántico, reducir el territorio a una definición geográfica es despojarlo de su sentido primigenio, profundamente experimental: el mundo cercano, verificable con nuestros sentidos en una relación de dependencia, empatía y constitución, es nuestro territorio. Esta relación no es exclusiva de los pueblos originarios (con quienes, en todo caso, es más obvio y fácil identificarlo, sobre todo en la caracterización del territorio como derecho político) sino con toda la experiencia humana: más allá de las relaciones de dominio, la territorialidad es intrínseca a la naturaleza de lo vivo y a las consecuencias del entendimiento a través de los sentidos.

El territorio es una delimitación únicamente justificada por una relación verificable en el sensorio. Una delimitación sensible. Es posible que su comprobación más acabada sea un razonamiento per negationem: no hay nada que acuse más los límites de nuestro territorio que cuando éste es invadido, cuando es negado por la sensibilidad (a la que automáticamente llamamos “insensibilidad”) de otro. Puede usted imaginarse guerras fratricidas o la sensación de incomodidad profunda cuando se encuentra con la puerta meada por un gato; lo cierto es que ante la invasión de nuestra experiencia sensorial reaccionamos hostilmente, sacamos los colores (expresión que en los barrios bajos de mi infancia significaba mostrar los tatuajes para identificarse en una riña) y nos ponemos irremediablemente a la defensiva.

Quizás sea también por eso que ante la posibilidad de máquinas con un sensorio propio nos movemos inmediatamente a los terrenos de la incredulidad o la negación. ¿Cómo podríamos simplemente renunciar a esa naturaleza exclusiva que nos ha hecho siempre únicos, un milagro de la naturaleza, criaturitas de dios?

Lo cierto es que en la evolución de la máquina ha habido un camino certero hacia la sensibilidad, hacia el extrañamiento y la confrontación con la naturaleza humana, hacia el juego de los espejos: un camino que nos ha llevado de la representación de lo divino a través de la máquina a la representación de la mente, del ánima, a través de la forma actualmente más acabada del microchip:

El sensor.

Daniel Iván
www.danielivan.com

Africa. Bushman fresco on stone, “History Of Art”, Ellie Faure & Walter Pach, Harper & Brothers, 1921.

Africa. Bushman fresco on stone, “History Of Art”, Ellie Faure & Walter Pach, Harper & Brothers, 1921.

Motor Truck Servicing Tractor - Batchelor Aerodrome, Northern Territory, Ca 1941. State Archives New South Wales.

El Internet como Territorio

Futuro y cultura análoga II. (Guerras semánticas, construcción del logos y territorialidad del internet, décimo segunda parte)

Este artículo fue publicado originalmente en la revista mexicana “etcétera” en abril de 2016.

Cuando Kevin Ashton (1) acuñó en 1999 el término “Internet de las Cosas” (Internet of Things o IoT, como se le conoce en el mundo geek), estaba enunciando no únicamente las posibilidades de desarrollo tecnológico ligadas a la consolidación de la industria del microchip (en ese entonces febrilmente ligada al desarrollo de tecnologías más eficientes de almacenamiento y procesamiento de datos, así como a la “gadgetización (2)” de las comunicaciones humanas y de una buena parte de la economía), sino que delimitaba por primera vez en el lenguaje tecnológico una tensión semántica y un territorio en disputa: el de la realidad interconectada a través de relaciones verificables en el mundo físico y en el mundo digital simultánea y consistentemente.

La idea básica era sencilla y, en todo caso, casi salida de una mente cyberpunk: la posibilidad de dotar a los objetos del mundo con un identificador que los conectara a la red de manera digital y les permitiera informar sobre su estado y circunstancia. Es decir, que les dotara de identidad.

Si bien esta idea no era necesariamente nueva (en 1982 algunos ociosos de la Carnegie Mellon University conectaron una máquina de Coca-Cola por primera vez a la internet para permitirle informar al mundo si tenía suficiente inventario y si las bebidas que le recargaban ya estaban suficientemente frías), lo que esta idea comienza actualmente a delinear de nuestra realidad no deja de ser al mismo tiempo inquietante e innegable: una internet que nos conecta a través de una red –al mismo tiempo virtual e infraestructural– con la que no únicamente nos relacionamos como usuarios en el plano digital, sino como “poseedores” en el plano físico de objetos que no sólo generan y nos permiten generar (dos cosas completamente distintas) datos acerca de nosotros mismos y nuestro entorno, sino con los que nos relacionamos personalmente en diversos grados de utilidad y dependencia. Por supuesto, la presencia actualmente cuasi universal de móviles y otros artefactos conectados al internet nos induce a pensar que Ashton tenía razón; pero el problema que él plateaba era mucho más complejo y en todo caso, delineaba no solamente una tendencia tecnológica ya visible en ese momento sino que apuraba una prospectiva de afectación de la realidad y de concreción en la realidad. Esta realidad (una red digital, virtual, sostenida en objetos y sirviéndose de objetos) no se detiene en la telefonía transformada en conectividad multimedia: actualmente la gadgetización está virando de manera decisiva hacia el microcomputing, cuya más clara representación son los bio-chips: implantes electrónicos que permiten compilar diversos datos acerca del estado del cuerpo vivo en diversas circunstancias (en este momento, principalmente en el deporte, en el control de mascotas y en el tratamiento de diversas enfermedades crónicas, como el cáncer o la diabetes). No resulta difícil extrapolar esta tendencia y comenzar a verificar que desde los autos, las cámaras fotográficas, las consolas de video juegos, los televisores hasta los refrigeradores o los microondas y cualquier otro adminículo con el que nos facilitamos o complicamos la existencia (según nuestra suerte), está siendo conectado al internet y está comenzando a convencernos de que esa conexión es tan necesaria como inevitable.

La IoT plantea además dos paradigmas territoriales iniciales como sus posibles consecuencias: la “Smart Grid” (o cuadrícula inteligente) (3) y la “Smart City” (o ciudad inteligente). Esta consecuencia enuncia no solamente una conectividad generalizada en términos infraestructurales (cosa que ya comienza a ocurrir en algunas ciudades aunque aún a un nivel muy pedestre) sino que incluye la característica sine qua non de niveles superiores de automatización, control y eficiencia. Lo que a grosso modo quiere decir que la máquina de Coca-Cola no sólo nos dirá si las bebidas están frías, sino que nos ayudará a consumirlas de manera más ordenada, eficiente y “feliz”.

Más allá de las ironías o la paranoia que esta realidad le inyecte a nuestra vida, lo cierto es que el proceso avanza y lo está haciendo de una manera la mar de eficaz. De las paupérrimas aplicaciones que el estado o la iniciativa privada están implementando del e-gobierno o el e-comercio a las complejidades tecnológicas que el futuro más inmediato depara para los seres humanos no hay más que un paso. Mi suegra se queja amargamente de que ya no hay forma en que las facturas le lleguen en papel a casa, mientras que el comercio electrónico sigue teniendo que lidiar con la ineficacia de los servicios postales o de mensajería –cosa de la que, extrañamente, se queja también. La creación de un nuevo paradigma de inclusión, de catalogación, de organización y de automatización en la vida tecnológica de las personas está ya no sólo en proceso de desarrollo sino en franca consolidación (si no, basta con mirar la forma en la que las generaciones más recientes se relacionan con la tecnología, encontrando “inconcebible” un mundo donde no exista conexión inalámbrica a internet o donde ciertos bienes y objetos culturales no sean “digitales por naturaleza”).

Los procesos de comunicación son, probablemente, los que mayor afectación estén sufriendo en este proceso; recordemos que aún la teoría de los procesos complejos prevé cierta dosis de coherencia al pensar en campos semánticos unificados para los resultados y la comprensión de esos procesos. La comunicación, sin embargo, está comenzando a moverse en dos esferas semánticas al mismo tiempo, lo cual no tiene punto de comparación en la historia de la humanidad: la esfera semántica proveniente del intercambio de información máquina-máquina, sin intervención humana de por medio, y la del intercambio de comunicación humano-humano con la estricta mediación de una máquina. Ambos son, sin duda, procesos todavía verificables y cognoscibles en la mayor parte de sus estadios; pero la idea de una automatización y eficacia cada vez mayores prevé que por lo menos uno de ellos, la comunicación máquina-máquina, quede pronto fuera de cualquier nivel de comprensión humana posible, no únicamente por la cantidad de datos y procesos que requiere sino porque las máquinas comenzarán, simplemente, a generar a partir de sus propias premisas unidades semánticas que estén más allá de nuestra esfera y/o capacidad de comprensión. Por lo menos de nuestra capacidad de comprensión inmediata, que es la que ligamos irremediablemente a la idea de “utilidad” de la información.

Este territorio incognoscible es sombrío y desconcertante, aterrador dirían algunos; pero podría argumentarse que no inherentemente malo o peligroso. Los posibles beneficios de una automatización general, de una “conectividad universal” (o, como la comienzan a llamar los entusiastas, de una Internet de Todo –Internet of Everything o IoE) y de una comunicación universal entre las cosas son al mismo tiempo sobrecogedores y estimulantes. Por supuesto, el lado flaco del asunto se intuye casi de inmediato: ¿cómo se protege al usuario de las innumerables complejidades a las que están ya expuestos sus datos y sus decisiones cotidianas? ¿Cómo se evita que esta gran “cuadrícula inteligente” se convierta en el perfecto tablero de ajedrez del control totalitario y la exclusión sistemática?

Como en toda guerra, el avance tiende a ser estratégico y, en la práctica, sigiloso y artero. El TPP (Trans-Pacific Partnership) (4) como primera movida para avanzar en legislaciones cada vez más restrictivas en cuanto al uso y la accesibilidad “indiscriminadas” en el mundo digital pretende pavimentar los privilegios de los estados y las corporaciones frente a la expansión inminente del territorio digital, particularmente en lo que se refiere a dos temas clave: defensa del copyright y modificación y apropiación de tecnologías.

Terribles preguntas se le antojan a la mente humana, acostumbrada como está a creer sólo en el universo verificable. Nosotros, frágiles en nuestra constitución de carne y hueso, de mente y vísceras, comenzamos ya a abrirnos paso entre la maleza de un mundo digital que comienza a abarcarlo todo. Que quiere abarcarlo todo.

¿Tendremos, en todo caso, la capacidad de sobrevivir en él?

Daniel Iván
www.danielivan.com

(1) Nacido en 1968 en Inglaterra, Ashton cofundó el Centro Auto-ID en el MIT (Massachusetts Institute of Technology), donde desarrolló los microchips RFID (Radio Frequency Identification) que son la base fundacional del IoT.
(2) Utilizo el anglicismo “gadget” en un sentido estricto y ante la ausencia de un término equivalente en español: “aparato de dimensiones cada vez más reducidas que se distingue por su novedad o por la novedad de las necesidades a las que atiende”.
(3) “Grid” suele referirse en inglés a la red infraestructural de las ciudades (pública y privada), particularmente a los servicios como agua, luz, teléfono, gas, etc.
(4) El TPP fue signado el 4 de febrero del 2016, con un altísimo nivel de secrecía, por 12 países: USA, Canadá, México, Chile, Perú, Australia, Nueva Zelanda, Japón, Malasia, Vietnam, Singapur y Brunéi.

Motor Truck Servicing Tractor - Batchelor Aerodrome, Northern Territory, Ca 1941. State Archives New South Wales.

Motor Truck Servicing Tractor – Batchelor Aerodrome, Northern Territory, Ca 1941. State Archives New South Wales.

Ice Skating at Christmas, Spence Family collection, Tyne & Wear Archives.

El Mundo Estalla en Opiniones

Futuro y cultura análoga II. (Guerras semánticas, construcción del logos y territorialidad del internet, décimo primera parte)

Este artículo fue publicado originalmente en la revista mexicana “etcétera” en febrero de 2016.

Vale siempre la pena hacer una pausa cuando la experiencia se apodera de la construcción del discurso. Una de las urgencias más contundentes de los “social media” es la de la actualidad. La vida de las ideas es contundentemente más corta en estos días; y así como los eventos parecen diluirse a una velocidad tan vertiginosa como desconcertante, la opinión parece trágicamente retada a probar constantemente su vigencia y a estar constantemente peleada con el paso del tiempo, con la mesura, a veces incluso con la más elemental alquimia del pensamiento: ese proceso de decantación paciente, de medición y observación, de comparación y hartazgo, al que en otro tiempo nos referíamos cuando usábamos la palabra “análisis”.

Resulta evidente que la premura por opinar juega antes incluso que la manufactura de la opinión, que su desarrollo y su arquitectura; y ya que todos tenemos una opinión tanto como todos tenemos un trasero, pareciera inevitable sentarse con lo uno sobre lo otro a esperar que el mundo se deshaga en aplausos o a que el mundo nos ignore; ambas cosas tan similares y acaso ambas con las mismas inasibles consecuencias: un reflejo del vacío.

Por supuesto, resulta chocante vivir en ese mundo que, probadamente, vive en el terror y al mismo tiempo lo ignora y lo sublima, o lo mastica y regurgita con un afán de rumiante noticioso. Resulta chocante tener que aderezar los fines de semana con alguna noticia escalofriante que nos devuelve la imagen de un caos infinito y destructivo, y comernos al mismo tiempo la verdad humillante de que a nosotros no nos pasa nada: ambas nociones tan acomodadas en el discurso de los medios que parecen en realidad dos partes de una misma frase, dos estrofas del mismo jingle pegajoso e invasivo como canción de película de Disney.

“Están otra vez atacando París”, me avisa con voz entrecortada la mujer a la que amo. La curiosa reacción de uno no es ni asombrarse ni dar paso a la angustia, sino todo lo contrario: acudir al movimiento más bien mecánico de empezar a desglosar información en la digitalia y darse cuenta de que a pesar de todo, la información es mínima; otra vez. Tumultuosa, pero mínima. Apenas algunos esbozos de rumor al principio, aterradoras frases entrecortadas después, eventos que se van sucediendo uno tras de otro sin apenas ofrecer el esbozo de un relato. Uno, dos videos borrosos; hoy que hay videos de todo y con la escala grandilocuente del HD. Las voces más mesuradas dejan ver su pasmosa ingenuidad conteniéndose “hasta que haya un reporte oficial”. Los conductores de televisión y radio se hacen ver haciendo uso de un histrionismo que raya en lo ridículo; mientras el silencio pasmoso de Twitter o Facebook, que vibran convirtiéndolo todo en el vacío de un hashtag elevado a trend-topic, dejan una sensación de vacío diseñado, de arquitectura del discurso, de control de daños y, por supuesto y sobre todo, de censura.

Y de pronto el mundo estalla en opiniones. No en información ni en análisis ni en relatos articulados sino, de una manera que recuerda a los derrumbes, en opiniones. No necesariamente siquiera en opiniones que acudan a algún dato o que clarifiquen la penumbra, sino más bien en opiniones que aluden al propio carácter, a la propia circunstancia frente a la maraña de los hechos: aún los más inteligentes se hacen ver, oportunistamente, como buenos y como generosos, como partidarios de la paz y el entendimiento entre las personas; claro, hasta que alguien con un poco más de paciencia –opinólogos agazapados en la corrección política– les hace ver en lo que falla su opinión, las omisiones en las que incurre, su falta de rigor o de inclusión o de talento, su hipocresía inaceptable, su inoportuna obviedad. Y de pronto lo que ocurre es menos relevante que el debate que le sigue; más aún, pareciera que es para ese debate para el que ocurren los pormenores de la historia, para ese escalofriante intercambio de escupitajos como en pelea de pandilleros sin navajas. Nadie se abstiene de ese intercambio irremediablemente altanero, nadie se retrae; de alguna manera ausentarse es no estar, perder vigencia, aceptarse irrelevante; y eso, en la medida en la que nuestro tiempo nos define como una sumatoria de “likes” y de “retweets”, resulta inaceptable. Por supuesto, en otros rincones de la digitalia, la odiada chusma lumpen –a la que la clase media iluminada culpa de todo, curiosamente– sigue afanosamente interesada en los pormenores del deporte y de masterchef, poseedora tal vez de una iluminada intuición que le hace saber antes que a nadie que lo que ocurre no está ocurriendo en realidad.

Lo más curioso –y probablemente también lo más frustrante– es que el “reporte oficial”, ese que esperaban los mesurados, arriba finalmente: el relato nos es impuesto como un trajecito de convencionalismos de diseñador, con letanías que nos convencen de que los terroristas llevan religiosamente sus pasaportes consigo para luego dejarlos abandonados de tal suerte que no quede lugar a dudas. Casi siempre la versión oficial llega con una frialdad matemática y con una descarga de sospechas y adjetivos que disfraza su absoluta irrelevancia para la comprensión de los hechos y su diseño exprofeso para justificar la violencia o los desatinos que ocurrirán después. La película se repite una y otra vez y nos convence de que lo que pasa no es todavía la historia, no detenta aún ninguna relevancia; la historia vendrá después, como la séptima parte de Star Wars, con esa misma carencia de hitos narrativos que nos sorprendan, con esa misma épica reciclada, con ese mismo entusiasmo adolescente y fácilmente digerible.

La pregunta relevante, en todo caso, es también la más pedestre, la que articularía un niño (tal vez uno de los muchos a los que sus padres hacen estallar en verborragia para luego convertirlos en éxitos cursis de youtube): ¿Por qué pasa todo esto? Hace poco recogía para mí una frase de David Chandler cuya simpleza me pareció deliciosa: “La idea ‘teoría conspiratoria’ es sólo un intento por desacreditar la necesidad de investigar. Es perfectamente legítimo decir ‘he aquí un evento extremadamente serio que ha ocurrido, que ha costado muchas vidas, que se usa para legitimar guerras y la muerte de miles de soldados y civiles. ¿Y de pronto preguntarse e investigar por los orígenes de todo eso es ilegítimo, o se debe a alguna suerte de inestabilidad mental o de pensamiento conspirativo? Se trata de crear una barrera psicológica, de invalidar a las personas que hacen estas preguntas. Pienso que es en realidad un ejercicio de ciudadanía responsable hacerle preguntas a tu gobierno, y no simplemente aceptar lo que se te dice sin ninguna clase de pensamiento crítico” (1). Preguntarse es un ejercicio cansado, una gimnasia agotadora, particularmente en un mundo que determina los relatos con la forma pausada de un eco autómata al que hoy, curiosamente, contribuimos todos.

Y, ¿qué clase de mundo es éste, al que tan neciamente nos empecinamos en contribuir o en cambiar a golpe de opiniones? ¿Se define el mundo en lo que es, o apenas en lo que acertamos a opinar de él? Valdría la pena preguntarse, nuevamente, sobre la naturaleza “estrictamente” experimental del terror, del horror, de la degradación humana. Ese relato previo –que, por cierto, se parece de muchas formas a la censura previa, como veremos más adelante– niega la posibilidad de señalar de manera convincente la llegada del totalitarismo allí donde éste se asome, desdice los relatos que le confronten aún antes de que se hayan articulado, dibujando así no sólo un discurso hegemónico y unívoco sino, de manera aún más trágica, una zona de acomodo a la que atenerse cuando se está cómodo y calientito. Es incluso capaz de provocar una ceguera frente al horror aun cuando se le tiene encima, no en las formas discursivas que convienen al relato predominante sino cuando el horror es el discurso predominante en sí mismo.

Vivimos en una versión hiper-tecnológica de Pedro y el lobo, donde el lobo es al mismo tiempo la amenaza, quien grita “peligro” y la maquinaria de censura y descalificación.

Un retrato del mundo hoy debería incluir indefectiblemente la imagen de Bassel Khartabil, programador y activista de Creative Commons e investigador del MIT Media Lab de Boston, arrestado y (dicen las fuentes más confiables) condenado a muerte en Siria, sin juicio y sin delito articulado (2). O la imagen de los panfletos que en Londres, en el civilizado Reino Unido, advertían el mes antepasado a los padres de familia sobre el peligro de que sus hijos “se radicalizaran” y apuntaban como síntomas inconfundibles “mostrar desconfianza en la información de los medios masivos de comunicación”, “creer en teorías conspiratorias” y “parecer disgustado sobre las políticas gubernamentales, especialmente las de política exterior” (3). O la imagen de la última edición del DSM (Diagnostic and Statistical Manual of Mental Disorders, la biblia de la psiquiatría moderna), la número 5, que bajo la categoría de “Desórdenes Disruptivos, de Conducta y de Control de los Impulsos” incluye el “Trastorno de Oposición Desafiante” (Oppositional Defiant Disorder u ODD) definido como “un patrón de conducta desobediente, hostil y desafiante” y cuyos síntomas incluyen “cuestionamiento de la autoridad”, “negatividad”, “actitud desafiante”, “proclividad para las discusiones” y ser “fácilmente irritable” (4). O la imagen de todas las derechas que avanzan en el mundo, tan parecidas en casi cada caso a las “izquierdas” que las precedieron.

Si nuestra angustia se desvive por temerle a Donald Trump, hay algo en la imagen del mundo que nos estamos perdiendo. Hace poco, siguiendo la pista del historiador y lingüista Carlo Mattogno (5), me topé con la realidad pasmosa de las leyes que en Europa criminalizan la negación del holocausto judío. Más allá de la antipatía o la repulsa que nos produzcan los grupos a los que suele estar asociada esta línea de pensamiento (usualmente grupos de extrema derecha y de franca filiación nazi) lo cierto es que vivimos en un mundo en el que ciertas ideas son susceptibles de ser prohibidas como tales, sin implicar ninguna otra acción fuera de su articulación pública y en voz alta. Lo cierto también es que las partes más interesantes y argumentativas de esas ideas no son articuladas por skinheads patanes o por xenófobos o antisemitas clandestinos, sino por historiadores serios y respetados que no sólo enfrentan múltiples formas de descrédito en sus respectivos ambientes académicos sino que, en la práctica, piensan bajo una muy real espada de Damocles.

Si fuéramos capaces de escribir una ficha de síntomas del totalitarismo globalizado, ¿cuáles serían los síntomas que apuntaríamos como “inconfundibles”?

¿De qué síndrome diríamos que padece, hoy, el mundo?

Daniel Iván
www.danielivan.com

(1) Cita en “9/11, Decade of Deception”, Press for Truth Films, 2015. David Chandler es un post graduado del Harvey Mudd College, con una maestría en Matemáticas Aplicadas por el Politécnico de Pomona, California.
(2) Cita en http://www.huffingtonpost.com/joichi-ito/mit-researcher-sentenced-_b_8760354.html
(3) Panfleto distribuido por el Candem Safeguarding Children Board, Londres, Inglaterra. Cita en http://www.cscb-new.co.uk/wp-content/uploads/2015/10/CSCB_Radicalisation_and_Extremism_Single_Pages.pdf
(4) Cita en http://www.dsm5.org/Documents/changes%20from%20dsm-iv-tr%20to%20dsm-5.pdf
(5) Nacido en 1951, Mattogno es un respetado lingüista e historiador italiano, cuya principal aportación teórica ha sido la revisión histórica de los hechos asociados al holocausto durante la Segunda Guerra Mundial.

Ice Skating at Christmas, Spence Family collection, Tyne & Wear Archives.

Ice Skating at Christmas, Spence Family collection, Tyne & Wear Archives.