Quizá se hayan encontrado una página de Internet en la que, para ingresar datos o dar de alta un usuario haya que elegir entre un grupo de imágenes, aquellas donde, por ejemplo, se ven semáforos; o señalar las que contienen cruces de calle o señales en la ruta; o, como en la página de Trenes Argentinos, identificar números y letras en una imagen borrosa. Incluso tuvieron que completar un cuadradito donde dice “No soy un robot”. Pero, ¿no lo somos?. No, aún no, pero volveremos sobre esta pregunta.
La Inteligencia Artificial se ha vuelto un tema habitual en los medios de comunicación y circula en nuestras conversaciones. ¿Qué se entiende por Inteligencia Artificial, o “AI” por sus siglas en inglés? Es una técnica que tiene como objetivo imitar comportamientos de los seres humanos. En un principio, desde los años 50 y hasta entrados los 80, el foco -o al menos los resultados y experimentos que nos llegaban a nosotros, el público no especializado- estaba enfocado en la imitación de los comportamientos físicos de los humanos, lo que conocemos como robótica: imitar al humano caminando, agarrando objetos, trasladándolos; hoy hay una rama de la robótica relacionada con el hogar donde aparecen los robots aspiradoras y los robots de cocina.
Desde la masificación de Internet, del año 2000 a hoy, la aparición de los teléfonos inteligentes a mediados de esa década y la posterior explosión de la disponibilidad de datos digitalizados, el foco de la Inteligencia Artificial se amplió: las personas empezamos a tener comportamientos en Internet, en línea: a hacer trámites y compras, a comunicarnos entre nosotros, a dejar nuestra historia y comentar la de otros. La “AI” comenzó a interesarse por esos comportamientos y por la posibilidad de que las máquinas, aprovechando los datos que los humanos vamos dejando como huellas de nuestro andar digital, aprendieran imitándonos a categorizar objetos, a comprender textos, a traducir idiomas y eventualmente a tomar decisiones o ayudarnos a los humanos a tomarlas. Esta área novedosa de la Inteligencia Artificial es lo que se conoce como “aprendizaje de las máquinas” (o machine learning en inglés) y “aprendizaje profundo” (o deep learning), técnicas de IA cada vez mas avanzadas.
Habrán notado el uso de la palabra “aprendizaje” en los nombres de esas técnicas. Y no es casualidad. La IA busca imitar comportamientos humanos y todos sabemos que en el aprendizaje imitar es importante, aprendemos imitando a quien sabe hacer algo ¿Están entonces las máquinas en un proceso de aprendizaje imitando a los humanos para poder tener sus habilidades? Cada vez que seleccionamos imágenes de un conjunto, identificamos letras y números, dejamos una opinión de un servicio o damos un “like” , un “me gusta” o “no me gusta”, esos datos, nuestras respuestas, se guardan y se utilizan para darle lecciones a las máquinas que van aprendiendo a detectar un semáforo entre un conjunto de imágenes o un cruce de calle (y entonces, como ya ocurre, aprenderían a manejar un auto sin necesidad de un humano), a identificar letras y números y entonces procesar documentos, extraer de ellos información y hasta incluso entender su sentido. Aprenden lo que nos gusta y lo que no y nos hacen recomendaciones: “quizá te guste esta nueva serie”, “no dejes de llevarte esto que tanto te gusta”, “tenemos estos otros productos parecidos a los que siempre llevas”.
En un primer momento, con la robótica, hablamos de aprender a caminar, a manipular. Con el avance de la “IA”, hablamos de reconocer señales en la calle, letras, números, documentos, lo más visto y lo menos visto, lo que más gusta y lo que menos gusta. Pero, ¿es eso la inteligencia?
La etimología de las palabras es un disparador interesante que permite dialogar con esas palabras y ver qué tienen para decirnos: “inteligencia” tiene dos componentes principales: “inter” que significa “entre” y “legere” que es “escoger” o “elegir”, las dos letras finales “ia” denotan una cualidad; así, “inteligencia” seria “la cualidad de elegir entre”, o sea discernir, escoger entre opciones, tomar decisiones. Es importante detenernos acá: todo lo que nos ocurre, lo que constituye la historia de nuestras familias es producto de decisiones. Las decisiones tienen un enorme impacto en nuestras vidas, racionales o emocionales, y por eso al tomarlas ponemos en juego mucho de lo que es ser humano: emociones, empatías, simpatías, experiencias, temores, alegrías, rencores y esperanzas; la lista puede seguir e incluye lo que pienso y siento respecto de los demás, el impacto en mi familia, en mi comunidad. Nuestras decisiones salen de un conjunto de elementos que se componen dentro nuestro y en nuestro contacto con los otros para constituirse en una dirección a seguir.
Todo lo que entra en juego al “decidir entre” es constitutivo de los seres humanos, es lo que somos. ¿Puede la IA imitarlas y aprender de ellas para volverse “humana” en sus decisiones cumpliendo su objetivo de aprender todos nuestros comportamientos? El consenso general es que no, las máquinas no pueden volverse humanas. Usan algoritmos para tomar decisiones, una especie de “receta” con instrucciones a seguir y cómo combinar sus resultados, pero en esa receta los ingredientes son matemáticos, algebraicos. La máquina hace una reducción: para la máquina “me gusta” es igual a 1 y “no me gusta” es igual a 0 y con eso va a procesar sus decisiones, sin matices.
En el primer párrafo dejamos abierta una interpelación: la máquina nos hace preguntarnos si somos un robot o no. ¿Qué buscan las máquinas? ¿Aprender de los humanos a ser más humanas o enseñar a los humanos a ser más “maquínicos”? Cuando contestamos con un “me gusta”, cuando dejamos de articular oraciones y respondemos con un “emoticon”, cuando dejamos de mirar las señales en la ruta, interpretar mapas y preguntar en estaciones de servicio y optamos por las indicaciones de Google Maps, cuando dejamos que Netflix decida lo que vamos a ver o Spotify lo que vamos a escuchar ¿quién aprende de quién? ¿quién imita a quién? ¿Quién toma las decisiones?
Si “aprender” tiene su raíz etimológica en “enredarse” (hendere en latin), como lo hace la hiedra (hedera en latin) y hoy nos estamos enredando a las máquinas, ¿no corremos el riesgo de quedar aprisionados, presos (prender en latín, mismas raíces)?
Hoy, como dice el filósofo francés Eric Sadin, recibimos instrucciones de esta “IA” cuando una aplicación nos dicta dónde ir y cómo, nos sugiere lo que nos hace bien, lo que deberíamos leer y ver, o qué comprar para aprovechar un descuento. Todo esto que nos está pasando, no solo nos controla y nos apresa sino que nos enreda a aquello que no somos, nos lleva lejos de nuestro lugar de humanidad, nos quita lo más humano y así, como al final de una formación, de una educación formal, nos gradúa de máquinas.
Aprender se ha transfigurado, ya no enseñamos, sino que aprendemos.
Las consecuencias de perder la humanidad puede verse en sus síntomas: al dejar de empatizar y haciendo reducciones sin matices nos enfrentamos, el otro es el extraño, lo que no queremos y no respetamos. Asi nuestro trato hacia los animales y lo que nos rodea, así nuestras divisiones. Buscamos hacer más con menos, acumular, calcular. Todas características de máquinas. Enredarnos a lo humano en nosotros y prendernos para no dejarnos arrastrar es la tarea actual, es lo que nos toca. La máquina no va a tener piedad de nosotros, ese es un gesto humano, un gesto de los seres vivos.
Mientras escribía estas líneas apareció “ChatGPT” , el siguiente paso: ya no imitar, sino crear. Un movimiento más profundo del aprendizaje profundo en el que las máquinas, de tanto imitar, se han prendido, han hecho de la creación, su presa.
Abro el debate: ¿vamos a dejarnos aprender y perder la libertad de crear o recuperaremos lo más humano en nosotros?