Este post forma parte de la serie Guerras Semánticas

Otros posts de esta serie:

  1. La inteligencia es una nube
  2. Una visión borrosa de la inteligencia
  3. Un poeta digital (el que estás leyendo)

Futuro y cultura análoga II. (Guerras semánticas, construcción del logos y territorialidad del internet, décimo séptima parte)

Este artículo fue publicado originalmente en la revista mexicana “etcétera” en octubre de 2016.

La inteligencia suele tener dos tendencias claramente contradictorias e irremediables: una sostenida tendencia a la sofisticación y, casi como consecuencia, una sostenida tendencia al fracaso. Ambas interactúan con el deseo, con el anhelo, incluso con la pretensión donde la haya, y le sabotean a la inteligencia cualquier esfuerzo, cualquier dedicación, esa necesidad profunda pero a la vez banal de ser cada vez más interesante, más atractiva, más elocuente, más seductora. Casi como las porristas y como los cronistas deportivos, que fracasan en lo mismo todos los días.

Tal vez seamos víctimas del paradigma de la evolución entendida como “mejoría” –una interpretación demasiado pobre de las ideas más bien secuenciales y selectivas de la teoría evolucionista– ; tal vez seamos víctimas de una simplona confianza en nosotros mismos y en los resultados de nuestra historia. Lo cierto es que la inteligencia humana se traiciona a sí misma casi cotidianamente, se ve cuestionada por los mismos paradigmas que dice defender y suele incluso cegarse ante todas las evidencias que le avisan, la mayor parte del tiempo con anticipación, de la inminencia de su fracaso.

Quizá sea por eso que solemos asociar a las formas más afiladas de la inteligencia con la duda, con la desconfianza, con el cuestionamiento a priori y con otras ideas paradigmáticas; y quizás sea por eso también que, por el contrario, la confianza ciega, la respuesta automática o atávica, el discurso aprendido, la respuesta visceral y el reduccionismo nos parezcan inmediatamente asociados con una anomalía, con una renuncia a la inteligencia, ya sea voluntaria o como resultado de una “falla sistémica”. Solemos también, como apuntábamos en un apartado anterior, asociar a la inteligencia con un cierto grado de complejidad, dada nuestra atávica comprensión de lo “simple” como inmediato, como fácil, como poco interesante.

Vale la pena recordar que una buena parte de los valores que utilizamos para caracterizar a la inteligencia (tanto como ocurre con otras escalas axiológicas, como la bondad o la belleza) se han mantenido con nosotros desde la antigüedad clásica y, particularmente, desde la antigüedad clásica centro-europea. Sin caer en la sobre-simplificación que hoy llama “colonizado y des-colonizable” a casi todo lo que no parece suficientemente “auténtico” y políticamente correcto, lo cierto es que una buena parte de las escalas axiológicas y axiologías que las acompañan tienen un marcado carácter occidental, un marcado carácter masculino, un marcado carácter ideológico, un marcado carácter agresivo y, actualmente también, un marcado carácter capitalista[1]. No le ponga el amable lector ningún juicio de valor ni se prejuicie porque esto comienza a oler a diatriba anarquista: volteemos a nuestro alrededor y reconozcamos en el mundo que nos rodea esas características, esos valores sobre los que yace paciente y plácidamente nuestra cultura y reconozcamos que es ese el estadio de la historia humana en el que nos hayamos. La atracción o la repulsa que eso nos provoque, la aprobación o desaprobación que nuestra mente nos dicte frente a ese hecho, ya es cosa nuestra.

Y raramente sirve para algo.

Ahora bien, si somos aún más exhaustivos podríamos afirmar que, en realidad, también ha habido en la historia del pensamiento humano una tendencia rastreable a considerar la simplicidad (en oposición a la simpleza) como una de las expresiones más altas de la inteligencia. Esta capacidad de concreción no pertenece únicamente a lo que peyorativamente caracterizamos como “sabiduría popular” (y sus formas más socorridas, como el refrán y otras formas del juicio axiomático) sino que se expresa de una manera sutil y como su forma más acabada en la filosofía aforística y en una de las más altas formas de la literatura: la poesía.

Nos sorprende cuando una idea es tan pulida, sintética, arriesgada, paciente y certera que pareciera un diamante trabajado; nos sorprende, todavía, cuando la dialéctica parece realmente concretarse en un discurso y se expresa sin ambivalencias y con maestría, con sutileza y deleite. Y entonces nos deshacemos en aplausos para Clare Boothe Luce quien, con su máxima “la simplicidad es la más alta sofisticación”, lo ha dicho de forma inmejorable; hasta que nos enteramos de que ya el internet se ha encargado de atribuir falsamente la frase a Leonardo Da Vinci y/o a Steve Jobs, lo cual vuelve a complicarlo todo. Lo mismo pasa con la filosofía y sus grandes concreciones, lo mismo pasa con los más acabados poemas, con la más delicada de las ideas humanas: la amenaza de la complejidad, de la sofisticación innecesaria, de la palabrería, de la refutación artera, del retorcimiento innecesario, de la pérdida de sentido, están siempre allí y ocurren más temprano que tarde.

Pero detengámonos en alguna de las esferas de la experiencia humana donde estos problemas se concretan de mejor manera, donde aún tienen un valor mensurable y práctico: por ejemplo, la  comunicación. En la esfera comunicacional, el valor del lenguaje como herramienta simbólica y pragmática sigue siendo poco menos que incuestionable; su articulación plausible, la maestría en su manejo, la familiaridad con la que nos involucramos con ello, todavía tienen sentido. Es por eso que, de alguna manera, también en la investigación en torno a la inteligencia artificial la esfera comunicacional –y sobre todo la comunicación basada en estructuras sintácticas– es, en gran medida, una especie de campo de pruebas y de terreno de entrenamiento, sobre todo en lo que se refiere a estructuras de IA sin presencia física; es decir, bots (por supuesto, en el caso de los robots, su fisicalidad los dota de otros niveles de comunicación, como la gestualidad o el sonido de su voz).

Nuestro segundo ejemplo de bot “fallido” (o quizás no tanto, como veremos) también ocurrió este año y tuvo una gran relevancia particularmente en torno a los modelos de “degradación de la información” necesarios para una comunicación progresiva en una “mente maquinal” (que son muy parecidos, por cierto, a los procesos de degradación que ocurren en la mente humana). Sin pretender entrar en todas las menudencias de código y fórmulas que entran en juego, lo que ocurrió básicamente fue lo siguiente:

El equipo que se encarga para Google de una parte importante de su investigación de IA (el llamado “Google Brain”, una red “neuronal” que utiliza el internet para interactuar y, dicho de alguna forma, “existir”) estaba teniendo algunos problemas con la fluidez conversacional de su bot, que solía responderles a los usuarios de una forma demasiado directa y al punto (duro y a la cabeza, como dicen los argentinos). Para dotarlo de más estructuras narrativas convincentes y de secuencialidades atávicas, los ingenieros guiaron al bot hacia la lectura de aproximadamente 3,000 novelas de ficción, con especial énfasis en la literatura del período romántico dado que “éstas contienen estructuras del tipo: la chica se enamora del chico, el chico se enamora de otra chica: tragedia romántica” y otras que se repiten de manera atávica y son tan sólo contadas en otras palabras; nos parece esencial que una joven mente artificial aprenda de esas estructuras y aprenda a usar la lengua (inglesa) en esa clase de contexto relacional.”[2]

Lo siguiente fue dotar a la unidad de IA de un algoritmo de “degradado” de la información digital que usa el mismo principio “gaussiano” que usan, por ejemplo, los softwares de edición de imágenes para hacer que las fotografías aparezcan “borrosas”. Lo que ocurre básicamente es que la información es pasada por una rampa de degradación donde ciertas partes de la información van resaltándose a costa de cierta “pérdida de detalle” en otras partes de la misma información.

¿El resultado? Para poner a prueba algunas formas sintácticas de relacionamiento semántico, el equipo le generó al bot una serie de ejercicios que consistían en relacionar dos ideas (arbitrarias o no) con enunciados propios, con conclusiones o caminos lógicos. Dos de los más inquietantes fueron los siguientes (las frases dadas a priori por los científicos están en negritas, las frases del bot están en cursivas; no se usan mayúsculas para no jerarquizar la información):

esta era la única manera.
la única manera.
era su turno de parpadear.
era difícil de decir.
era la hora de seguir adelante.
él tenía que volver a hacerlo.
todos se miraron entre sí.
todos voltearon para mirar atrás.
ambos voltearon para mirarlo a él.

ambos dieron la vuelta y se alejaron.

no hay nadie más en el mundo.
no hay nadie a la vista.
ellos eran los únicos que importaban.
ellos eran los únicos que quedaban.
él tenía que estar conmigo.
ella tenía que estar con él.
yo tenía que hacerlo.
yo quería matarlo.
yo comencé a llorar.

di la vuelta hacia él.

Más allá de las consideraciones estéticas o estilísticas del resultado (una buena parte del internet reaccionó diciendo “pues es mucho mejor que la mayoría de los poemas que he leído últimamente”), lo cierto es que la concreción lingüística es evidente y que también lo es una vuelta de abstracción, un tono si se quiere; una respuesta paradigmática ligada a la información previa, al clima de la información con la que contaba el bot.

¿Ha creado Google al primer poeta digital? Por supuesto, esa no es sino una pregunta irrelevante.

O tal vez no.

[1] Por supuesto, si bien la idea del capitalismo no le pertenece a la antigüedad clásica sino al oscurantismo medieval del centro de Europa, sí que le pertenecen algunos de sus valores más socorridos, como la democracia participativa y representativa, la preeminencia cultural, la competencia agresiva, los afanes civilizatorios, el progreso como ideal y un largo etcétera.

[2] Andrew Dai, quien es uno de los principales ingenieros de software del equipo de Google Brain.

Henry Lawson, 1915. By William Johnson. From the collection of the State Library of New South Wales.

Henry Lawson, 1915. By William Johnson. From the collection of the State Library of New South Wales.

The following two tabs change content below.
Soy un Artista Multidisciplinario. Me apasiona lo visual, las palabras y la música. Trato de tener algo de eso cada día de mi vida.

Latest posts by Daniel Iván (see all)