Artificial

 

 Mariano Sigman, doctor en neurociencias, referente importantísimo en su área, autor de   <el poder de las palabras> entre otros; escribe en conjunto con Santiago Bilinkis, divulgador y emprendedor tecnológico, <Artificial> libro publicado por Debate en octubre de 2023.

Pensar es olvidar diferencias, sucede al menos para mí en esta lectura. Cada capítulo, cada frase me obligan a mirar lo artificial como algo propio de la  evolución humana, a dejar de lado mis opiniones y sumergirme en, como dice Mariano Sigman, “este libro mezcla lo humano, la ciencia con el arte y la tecnología juntos”.  Seguido por la reflexión de tras enumerar todo tipo de riesgos y peligros asociados a la IA, parece natural preguntarse: ¿por qué hemos emprendido este camino? Esta pregunta ha sido uno de los principales motores del libro. Las páginas comienzan viendo la inteligencia artificial como un riesgo difícil de medir, comenzando en un momento muy preciso de la historia humana, para salvarnos de las tragedias del S. XX. Queda esperar, como dicen sus autores, que no estemos en presencia de una nueva edición del eterno siglo entre “cronos y Zeus”, en la que los viejos tiranos son derrocados por los futuros déspotas.

 

Seguro que estas reflexiones serán citadas en clases y por lo mismo preferí ir lento con mis anotaciones.  En 227 páginas los autores presentan en libro el siguiente índice:

 

  • Prólogo
  • La génesis de la inteligencia
  • Una nueva era
  • El punto de llegada es un nuevo punto de partida
  • El arte de conversar
  • El punto justo
  • El terremoto educativo
  • El trabajo y la deriva del sentido
  • Al borde de la locura
  • El primer pulso
  • La moral de un algoritmo
  • Entre la utopía y la distopía
  • Epílogo
  • Agradecimientos
  • Glosario
  • Nota sobre la cubierta

 

Les dejo algunos extractos del: prólogo, la génesis de la inteligencia y una nueva era. Sus dos primeros puntos del índice.  En él reconocerán los antecedentes de la inteligencia artificial, su historia y alguna preguntas que los autores se plantean y dan respuestas a lo largo de este libro. Es apremiante conocer sobre estos temas, no olvidemos que hace solo veinte años, Google al introducirse a la bolsa, globalizo su buscador y con esto altero para siempre nuestra forma de reflexionar e interactuar entre los seres humanos. Acaso, ¿La IA será el nuevo lenguaje? O bien, ¿será la evolución de un motor de búsqueda que ya no nos necesita?, incluso más, ¿será el inicio de la extinción de nuestra especia?. Veamos los que nos plantean los autores.

 

En la década de 1940 se creó el computador y junto con el comenzó una época de digitalización, más aún, el ajedrez convertido en el conejo de indias de la historia de la IA, ya en 1948, se creó Torochamp programa de ajedrez. El ejercicio de pensar sobre nuestro propio pensamiento, conocido como metacognición. Hasta el momento solo de interés de la psicología, como una búsqueda de hacer explícito el proceso por el cual razonamos.

 

En plena guerra fría, en los reductos de sus oficinas, académicos, físicos, matemáticos y neurofisiólogos. Comenzaron a trabajar en la idea de <redes neuronales> en un concepto que permite comprender como surge la inteligencia a partir de un sustrato que no es inteligente. Esta idea no deja de ser una concepción antropocéntrica, la cual implicaba un cambio profundo. Mientras Marvin Minsky, John Hopfield o Warren McCulloch trabajaban en esto, el sicólogo norteamericano Carl Rogers y Abraham Maslow estaban cambiando la practica de la psicoterapia, dándole una perspectiva más humana. Roger hizo de la empatía el centro de la relación terapéutica.

 

La empatía, por un lado, y las redes neuronales, por otro, se ocupaban de entender por observación o construcción al ser humano. Inspirados en estos conceptos, el año 1966 un profesor del MIT, Joseph Weizenbaum medio siglo antes del chatGPT programó a Eliza, el primer bot de conversación de la historia.

 

La corteza visual, uno de los más estudiados de nuestro cerebro, ha servido como territorio de pruebas para la IA.  Un gran giro en la programación, cambiando del listado de órdenes e instrucciones dadas por un ser humano a la concepción de red neuronal, donde se entrena para el descubrimiento de patrones de conexión que la vuelven más efectiva. Aprendizaje por refuerzo (reforzar los patrones que funcionan). De aquí en adelante, el hallazgo sorprendente; el alumno (la red neuronal) puede entender el problema de manera más rápida y eficiente que el profesor (el ser humano). Le decimos el qué y la IA encuentra el cómo.

 

Siguiendo con nuestra historia, no fu a hasta el año 1971 cuando se conectaron 23 ordenadores a la red del Departamento de defensa de los Estados Unidos, Arpanet, y Ray Tomlinson envió el primer correo electrónico. Unos veinte años después se configuró la red informática mundial (www) y diez años más tarde esta misma red manejaba datos  de producción humana suficientes para alimentar las redes neuronales, para forjar la IA. Así la industria de los videos juegos y el desarrollo de internet fue una bomba de la IA, las condiciones ya estaban dadas y la explosión del IA llego. El año 2015, ante doscientos millones de personas transmitiendo por streaming, el coreano Lee Se-dol, ganador de ocho títulos mundiales de Go, se midió con AlphaGo, la máquina creada por el hombre, en la segunda partida realizo un movimiento sorprendente, los expertos la tildaron de un error de principiantes; esto mas otras ideas que nadie considero le dieron la victoria a AlphaGo. Extraordinaria en concebir nuevas ideas mediante el repertorio de partidas humanas, en 2017 Alphacero, sucesor de AlphaGo, dio un paso más, aprendió sin instrucción estratégica alguna a jugar ajedrez y al go, jugando contra sí. ¿Qué vendría después?

 

¿Qué pasa si hiciéramos una red neuronal generativa, free entrenada y basada en Transformers?, basta unir las iniciales para ver que el experimento fue exitoso, así nace GPT. La versión más reciente mientras se escribía este libro, GPT menos 4 presentadas en marzo de 2023. El número de parámetros no fue revelado, pero se estima en 100 billones. Esto es un 1 seguido de 140 ceros. Y el volumen de datos usados para entrenarlo se estima en el orden de un petabyte, esto representa un poco más de un millón de GB

 

La posibilidad de que emergen en la historia de la inteligencia artificial y  alternan entre cambios cualitativos y cuantitativos. La cantidad y la calidad muchas veces se entremezclan,  como ya había explicado Friedrich Hegel en su libro <ciencia de la lógica> “cuando hablamos de un crecimiento o una destrucción, siempre imaginamos un crecimiento o desaparición gradual; sin embargo, hemos visto casos en los que las alteraciones de la existencia implica no solo una transición de una proporción a otra,  sino también una transformación, mediante un salto repentino, algo cualitativamente diferente; Una interrupción de un proceso gradual, que difiere cualitativamente del Estado anterior” este fue el mecanismo mediante el cual lo cuantitativo se transformó en cualitativo que propuso Hegel y que luego Marx usó para explicar las grandes transformaciones sociales.

 

La IA está indefectiblemente relacionada con lo humano. Hereda nuestros rasgos cognitivos, las distintas miradas, los aciertos y confusiones, los cejos. Una célebre definición de inteligencia atribuida al psicólogo Jean Piaget es <el arte de saber qué hacer cuando no sabemos qué hacer>. Es decir, la capacidad de encontrar una solución a una situación compleja que no hemos vivido antes.

 

Los autores de este libro nos dan una mirada en perspectiva de tiempo y de humanidad de la IA. La reflexión del lector es la consecuencia propia de una propuesta que integra temas contingentes y complejos a lectores no especialistas y ávidos de entender su entorno.  A Mariano Sigman y Santiago Billinkis, gracias por presentarnos lo artificial de forma tan humana, liberando y difuminando los limites. Seguimos pensando.

 

Nicolás Fontaine

22 de enero 2024

Faro de LA Nueva Extremadura 

 

 

 

 

 

 

 

post relacionados