La inteligencia artificial está cambiando aspectos fundamentales en la sociedad. Entrenada a partir de millones de datos, pero replicando sesgos y prejuicios, afecta las formas en que se desarrolla, se cuenta y se percibe la realidad. Agustín Berti, profesor e investigador de la UNC y Conicet explica los impactos que tiene esta tecnología.
Desde hace más de 100 años, la cultura popular, la literatura, el cine o la humanidad han imaginado un futuro en que las personas conviven con máquinas inteligentes. Por ejemplo, en las películas Metrópolis o Terminator, por citar dos ejemplos del cine.
¿Estamos ya conviviendo con máquinas inteligentes? Quien responde –a través de una entrevista realizada para UNCiencia Podcast– es Agustín Berti, profesor e investigador de la UNC y Conicet; director alterno de la Maestría en Tecnología, Políticas y Culturas; e integrante de Dédalus, grupo de investigación sobre la técnica: “Es algo que siempre ha estado dando vueltas porque, en el fondo, la humanidad siempre ha coevolucionado con un entorno técnico. Nuestros propios procesos de cambio social, incluso también nuestros procesos de cambio biológico están asociados a nuestras herramientas. Primero, con artefactos muy simples y luego con sistemas tecnológicos más complejos como la agricultura, los canales de riego o la arquitectura. Pasa que ahora tenemos sistemas que tienen mucha mayor complejidad y que operan de manera automática de un modo que nos resulta inaccesible. Y por eso los vemos como externos a nosotros, ajenos, diferentes de lo humano, aunque en realidad son producidos por humanos y son, de hecho, humanidad fuera de nosotros mismos. ‘Inteligencia artificial’ (IA) es un sintagma que se puede prestar a malentendidos. Es inteligencia humana puesta a funcionar en máquinas automáticas que realizan una serie de operaciones a velocidades que nuestras capacidades biológicas no lo permiten.
¿Cómo se genera esta inteligencia artificial?
-La inteligencia artificial a la que nos referimos hoy son máquinas que pueden aprender. El machine learning, el aprendizaje maquínico, es un tipo de software que a partir de una serie de datos aprende a reconocer patrones, que es algo que nosotros hacemos todo el tiempo. Esta idea viene ya de los años ‘50, con la idea de la «máquina niño» de Alan Turing. En vez de programar una máquina para que haga todo lo que hace un humano, es mucho más eficiente lograr que una máquina aprenda. Hay ahí una idea de imitación. Entonces, lo que hacen las máquinas es aprender a reconocer patrones y luego identificar esos patrones en el mundo, y eventualmente generar patrones nuevos a partir de los aprendidos. ¿Cómo reconocen esos patrones? Mediante el análisis de vastísimas bases de datos, que son ese flujo de datos que nosotros generamos constantemente.
Si nosotros les enseñamos a las máquinas lo que aprenden, ¿puede haber sesgos en ese proceso?
-Claro, porque venimos con sesgos históricos, y toda cultura ya es un sesgo. La cultura es una reducción de información para poder navegar en el mundo. No podemos estar todo el tiempo abrumados por todos los estímulos que recibimos descubriendo todo de nuevo. En algún momento reducimos la variedad de las cosas; por ejemplo, no tenemos un nombre para cada perro, «perro” abarca a todos los perros del mundo. Del mismo modo, a los fenómenos sociales también los reducimos, entonces asignamos identidades genéricas, asignamos edades, y decimos que alguien es infante, joven, adulto o viejo, por ejemplo, y eso abarca quizá complejidades evolutivas muy diferentes. Ese tipo de sesgo se traslada a los datos que vamos dejando en el mundo, datos sobre los cuales las máquinas se entrenan. Entonces, no es que la máquina, el algoritmo, sea racista o clasista, la sociedad es racista y es clasista, y la máquina lo que hace es replicar esos datos que ya están inscritos en la serie histórica.
¿Puede que haya inteligencias artificiales que opinen diferente sobre un mismo hecho?
-La inteligencia artificial, al menos la que estamos pensando ahora como inteligencia artificial que es el Chat GPT y todas las variantes de la inteligencia artificial generativa, se han entrenado con todos los textos disponibles en el mundo. Y luego se lo ha ido corrigiendo para eliminar ciertos sesgos, o para directamente eliminar ciertas palabras. Pero la inteligencia artificial sólo replica y recombina patrones que ha reconocido en los textos que hay sobre el mundo, no es que tiene una opinión sobre un hecho histórico. Recupera todas las opiniones existentes y las combina en base a la pregunta que yo le hago, al sesgo que yo le imprimo al patrón que quiero que genere. Le puedo decir “generáme una versión idílica de la conquista de América», y lo va a poder hacer. O del mismo modo podría decirle “describíme la conquista de América como un apocalipsis», y lo va a hacer, porque va a recuperar la noción de apocalipsis y los datos que tiene sobre la conquista de América y va a producir un texto con el sesgo que le requerí. Además, lo va a hacer en un tiempo que para los humanos no es posible, a velocidades que no podemos alcanzar, pero no es nada más que la aceleración de la humanidad mediante estos dispositivos extracorporales.
¿Qué ve de negativo y de positivo en esto?
-No pensaría en términos de positivo o de negativo porque ni tecnofobia ni tecnofilia son posiciones que me parezcan interesantes. Hay que discutir las tecnologías, comprenderlas, incorporarlas a nuestra discusión sobre la política. Hay que tener una política tecnológica que nos permita decidir sobre las direcciones que va tomando la tecnología, decidir informadamente. Es decir, saber qué efectos producen, saber qué potencialidades y qué riesgos entrañan. Hay que saber cómo funcionan, no ser meros usuarios, y a partir de eso discutir cuáles tecnologías queremos.
¿Quién debiera controlar la inteligencia artificial?
-El control debe ser democrático, debiera haber igualdad en el desarrollo porque es una tecnología que afecta globalmente por su escala y su velocidad. Todo el mundo debería tener un acceso similar a la posibilidad de entrenar inteligencias artificiales con las necesidades específicas de cada sector. Además, gran parte de esos datos se guardan en servidores que están en territorio extranjero, bajo legislación extranjera. Eso ya imprime un sesgo y una pérdida de soberanía, una pérdida de soberanía de datos y pérdida de soberanía tecnológica porque es justamente a través del entrenamiento del sistema de inteligencia artificial a partir de esos datos, que se obtienen ventajas comerciales. Pero también militares y estratégicas. Entonces habría que tener una política de datos a escala regional para poder competir a la hora de definir cómo se tienen que gestionar cada región.
¿Esa es la gran dificultad que tiene hoy la inteligencia artificial?
-Sí, que está concentrada en pocas manos y que está híper sesgada hacia una funcionalidad determinada, que en este caso es la ganancia, y gestionada además por una población que es muy minoritaria en el planeta: hombres blancos heterosexuales del norte global. Ellos son los que desarrollan y orientan la tecnología y son un sector que poblacionalmente es una mínima expresión de la diversidad cultural, étnica, social y de género del planeta. Está sobrerrepresentada esa minoría. Hay un concepto que se está discutiendo ahora que es la tecnodiversidad. Así como se pide que haya pluralidad o diversidad cultural y biodiversidad, también tendríamos que tener tecnodiversidad, una diversidad de datos (y de tecnologías). Debiera haber datos que reflejen los sesgos inherentes a cada cultura para así producir unas inteligencias artificiales que puedan dar cuenta de todas esas otras formas y todas esas visiones del mundo que hoy están subsumidas a una visión que se generó en un lugar particular. Silicon Valley es lo que encarna ese modelo. La discusión entonces debiera ser politizar la tecnología en el sentido de abrirla al debate público, someterla a la auditoria pública. Para eso hace falta más universidad, no menos, para poder generar un saber interdisciplinario que incorpore a las disciplinas que se han dedicado durante siglos al trabajo sobre las sociedades como el derecho, las ciencias sociales, como la sociología, la antropología, la geografía, las humanidades, las letras, la filosofía y la historia, que permiten entender la complejidad de estos sistemas y matizar los sesgos. Todo eso, junto con el saber que se suele denominar más “técnico”, como el de la ingeniería, la matemática, la física, la química, la biología, para generar un trabajo cruzado que permita aprovechar estas herramientas comprendiendo sus implicancias políticas que van mucho más allá de lo que pasa en el país, que son de alcance global.