Las videntes. Jorge Luis Marzo

Чтение книги онлайн.

Читать онлайн книгу Las videntes - Jorge Luis Marzo страница 4

Las videntes - Jorge Luis Marzo Deriva

Скачать книгу

      else:

      next_token_n = ntk_indices[0]

      next_token = self.id_to_token(next_token_n)

      tokens.append(next_token)

      if next_token == END_OF_TEXT:

      break

      Es un fragmento de código para la autogeneración de textos y poemas, por cierto, muy bellos: «La nit és plena de miracle / que és la fi dels déus de la memòria. / Som sols per la por i la mort, contra el somni i la paraula justa». Sin conocimientos de programación, solo somos capaces de comprender términos sueltos del código; se nos escapa el orden sintáctico, semántico, su lógica interna (cuando, si se mira bien, mucho tiene que ver con proposiciones condicionales, el colmo de la lógica: «si esto, entonces aquello»). Es como si el lenguaje sabido de letras y números se lo hubiera tragado una máquina o un animal de pensamiento extremadamente seco, y lo devolviera regurgitado en una secuencia misteriosa. Son signos que despiertan temor, no por ser lenguas ignotas e inaccesibles, sino porque son el reflejo de nuestras vidas procesadas matemáticamente y sin la menor indulgencia, aunque se presenten vestidas de poesía. Al abanderar la búsqueda de la verdad, las matemáticas se maquillan de libertad y prometen seguridad en un mundo volátil y precario. Todo ello produce fenómenos fascinantes en numerosas esferas de nuestra vida, como ver a grandes masas llevar en la mano un nuevo librito rojo, ahora en forma de catecismo ideológico sobre las ventajas de la IA en la vida social. Este es un fenómeno que entiendo que hay que estudiar en términos de biopolítica y de biodicción, o, lo que es lo mismo, bajo la premisa de que nos lleve a cavilar cómo la predicción gestiona nuestros cuerpos y deseos, qué efectos tiene a la hora de describirlos y, sobre todo, a la hora de ponerlos en relación con el todo. O sea, qué competencias nos quiere asignar a los humanos la vieja ideología de la predicción en el nuevo orden de cosas que instaura la inteligencia artificial.

      La IA es un concepto muy amplio que se refiere al uso de la computación para imitar las funciones cognitivas del ser humano en campos muy variados. En lo que aquí nos interesa, es la capacidad de un sistema informático para interpretar correctamente datos externos a él sin partir de ningún modelo cerrado, aprender de dichos datos y emplear esos conocimientos para inferir escenarios de futuro. El objetivo de esas máquinas no es replicar los datos con los que se alimenta, sino la correcta predicción de nuevos datos. Es, por lo tanto, una tecnología de predicción.

      El principal motor detrás de la IA es el cálculo estadístico, donde ir de las observaciones particulares a las descripciones generales se llama inferencia, y el aprendizaje se denomina estimación. La clasificación se llama análisis discriminatorio. Son términos importantes. El acontecimiento más grande de la física del siglo XX fue el descubrimiento de que el mundo no está sujeto al determinismo, sino al desorden. La lógica desarrollada durante los siglos en los que se creía que el mundo era un modelo regular, y que había sido diseñado para confirmar patrones repetitivos, encontró un gran acomodo con la aparición de las ciencias del caos, en donde la búsqueda de patrones se orientó hacia la detección del punto de no retorno, del momento en que se produce la singularidad. Allí surgieron las ciencias estadísticas encaminadas al establecimiento de probabilidades: el análisis de riesgos. Muchas de nuestras actividades implican procesos aleatorios y ahí entra la estadística para determinar modelos del azar y del libre albedrío. De esos cálculos se podrá inferir una predicción. Los humanos somos mejores que las máquinas para decidir qué hacer cuando no hay muchos datos. Pero cuando hay montones, porque montones son las singularidades, la estadística es bastante más hábil porque sabe cosas que nosotros no.

      La inferencia es el objeto de estudio tradicional de la lógica (así como la materia es el de la química y la vida el de la biología). La lógica investiga los fundamentos por los cuales algunas inferencias son aceptables, y otras no. Cuando una inferencia es aceptable, lo es por su estructura lógica y no por el contenido específico del argumento o el lenguaje utilizado. La inteligencia artificial se ha construido sobre esos suelos: solo se debe a su propia lógica. Este asunto problemático recibe el nombre de black box, o caja negra, que define la dificultad, cuando no imposibilidad, de interpretar el proceso de aprendizaje de los algoritmos desde el exterior. Steven Strogatz, uno de los padres de las ciencias de las redes, opina que lo mejor que se puede hacer es sentarse junto a la máquina y escuchar: «No entenderemos por qué el oráculo tiene siempre razón, pero podremos verificar sus cálculos y sus predicciones con experimentos y observaciones y confirmar sus revelaciones». Un programador mexicano me lo expresó de forma si cabe más gráfica: «Es lo que hay, o te aclimatas o te aclimueres. Nunca se sabe muy bien por qué los algoritmos hacen lo que hacen, lo importante es que lo hagan». Este es precisamente uno de los principales argumentos de los nuevos adivinos para equiparar la inteligencia humana y la artificial y justificar la naturalidad de la segunda: del mismo modo que no es necesario (ni acaso podemos) conocer la dinámica interna que mueve a nuestro cerebro a activar ciertos músculos y redes neuronales cuando, por ejemplo, saltamos un charco, tampoco «aporta» mucho saber la dinámica última de un dispositivo inteligente que llega a hacer las cosas que se le piden, siempre y cuando las haga. Llegamos, por consiguiente, a un nuevo límite en la ética industrial de la mecánica: es el producto o el servicio lo que cuenta, de poco sirve debatir sobre los procedimientos de la máquina si, al fin y al cabo, cumple con sus promesas.

      El aprendizaje automático (machine learning) es el modo en que las máquinas aprenden a buscar ciertas cosas a partir de un conjunto de datos, que deben ser muy numerosos para que aprender sea más rápido y preciso. El aprendizaje automático y la predicción son posibles porque el mundo parece tener regularidades. La predicción es el proceso de rellenar la información que falta: toma la información disponible, llamada «datos», y la usa para generar información que no tiene a partir de las regularidades que la experiencia enseña. La capacidad de generalizar es la fuerza básica del aprendizaje automático: permite crear patrones y luego generalizarlos mediante una regla. Una regla es lo que se crea a partir del análisis de patrones y se usa para predecir el futuro. Por lo tanto, la IA no nos trae realmente la inteligencia, sino un componente crítico de la inteligencia: la predicción.

      La inteligencia artificial se nutre de datos y son de tres tipos: los datos de entrada, que son los datos a pelo; los datos de entrenamiento, que se utilizan para enseñar al algoritmo el modo de buscar patrones entre los datos a pelo; y los datos de retroalimentación, que se utilizan para mejorar el rendimiento del algoritmo mediante la experiencia, por ejemplo, diciéndole dónde ha fallado o señalándole «singularidades», lo contrario a las regularidades. En algunas situaciones, existe una considerable superposición, de tal manera que los mismos datos desempeñan los tres papeles. Pero los datos no son relevantes solamente porque tratamos con asuntos informáticos, sino sobre todo porque representan el telón de fondo de un conflicto más profundo: el propio cambio de paradigma científico.

      Físicos como Luca Gammationi y Angelo Vulpiani han advertido que en los últimos años ha surgido una influyente línea de pensamiento que sostiene que, debido a que muchos sistemas complejos se resisten a la habitual aproximación matemática, es necesario ir más allá del modo tradicional de estudiar la naturaleza. Gracias a la actual disponibilidad de enormes masas de datos, la ciencia estaría a punto de entrar en una nueva era en la que la causalidad ya no jugaría el papel fundamental que ha tenido en los últimos siglos: la simple correlación de datos ya sería suficiente para explicar el funcionamiento del mundo. Esta teoría conduciría a plantear una nueva revolución científica que vendría a revelar un cuarto paradigma adicional a los tres ya existentes: el experimental, el teórico y el computacional. Un gurú informático como Chris Anderson, editor jefe de la revista Wired, escribió en 2008 un artículo en el que hablaba del fin del método científico gracias a la llegada del Big Data, o de lo que él llamaba la «ciencia

Скачать книгу