En los últimos días, he oído hablar de la Inteligencia Artificial, de ChatGPT y otras como lo último en tecnología que nos ayudará a vivir mejor, a hacer mejores y más productivos negocios y hasta cocinar más rico,
Todo está en una especie de plataforma más avanzada que la que muchos llaman la biblia de la computadora, “San Google”. Contiene mucha más información y además está diseñada para cumplir con los parámetros que se le pidan.
Por ejemplo, un docente puede solicitar la planificación de una clase sobre un tema puntual, un video sobre el mismo tema, una serie de ejercicios, bibliografía, una evaluación y ya tiene su tarea solucionada en cuestión de minutos. La que normalmente puede llevar horas mientras se consideran los distintos tipos de aprendizajes y los alumnos específicos para los cuales se planifica.
La cuestión es que aunque se pida para un grupo etario y con definiciones específicas, seguiremos estando ante una computadora. O sea Estas nuevas técnicas que nos facilitan la vida no tienen emociones, siguen siendo máquinas, no consideran la emocionalidad del ser humano, por lo que parece que estamos tratando con robots. Y si como docentes nos quedamos en esto, nuestra clase será fría y no lograremos despertar emoción por el conocimiento.
Los algoritmos toman decisiones que antes eran exclusivas de los seres humanos, incluso pueden decidir si somos calificados para obtener un crédito o no. Pero, recordemos que los datos fueron ingresados por personas, por lo que esos algoritmos podrían estar perpetúan o incluso amplificando prejuicios sociales. Es allí donde surge el racismo algorítmico.
“Los sistemas automáticos están moldeando nuestro futuro y, si no vigilamos sus efectos, podrían reforzar las mismas injusticias que llevamos décadas intentando erradicar.”
Integrar principios de equidad, diversidad y ética en el desarrollo tecnológico es una situación urgente, para evitar sesgos y construir una sociedad justa. Es necesario que cada línea de código sea responsable. La inclusión, en el mundo digital, debe ser una prioridad, porque luego será muy difícil corregir los errores.
El racismo algorítmico produce sesgos históricos y estructurales que si no se estudian específicamente, pueden no notarse y ser mucho más peligrosos, discriminando a personas por su color de piel, nacionalidad o clase social. Lo que representa un reto ético de alto calibre para desarrolladores, empresas y gobiernos, ya que lleva a la reproducción de sesgos raciales en sistemas automatizados que procesan datos, al aprender de datos históricos que sí la tienen. Si los datos usados están sesgados, el resultado también lo estará, incluso si el código fue escrito con la mejor intención.
Recuerdan que aprendimos que Tecún Umán creyó al enfrentarse en lucha contra Pedro de Alvarado que estaba ante un ser de dos cabezas. Y no faltó un compañero de clase que dijera ¡pero qué tonto!
El racismo algorítmico no es producto de una persona, sino de un sistema. Por eso, se ha vuelto clave en los debates sobre ética tecnológica y justicia social “Afecta la salud, seguridad, educación y empleo. Priorizando ciertos perfiles puede dejar fuera a comunidades enteras de oportunidades esenciales. Amplifica desigualdades ya existentes y retrasando la movilidad social de grupos históricamente marginados.”
Comprender qué es el racismo algorítmico también implica reconocer que las tecnologías no son neutrales. Son el reflejo de quienes las crean y de los contextos sociales donde se desarrollan. Por eso, la responsabilidad social, empresarial y gubernamental debe incluir una revisión ética del uso de estas herramientas.
La falta de diversidad en el desarrollo tecnológico es un factor clave: si no hay voces representativas de distintas realidades, es más fácil pasar por alto los sesgos incrustados en los datos. A veces, el racismo no está en la intención, sino en la omisión.
Por lo que es vital establecer mecanismos de corrección, auditoría y transparencia. La tecnología necesita principios claros de inclusión y justicia para evitar ser una herramienta de exclusión.
Las empresas deben establecer políticas de datos responsables, incluir procesos de auditoría ética en sus sistemas y fomentar la inclusión en sus equipos de desarrollo. La diversidad no solo es buena práctica, es una necesidad técnica y moral, que nos ayuda a ver el mundo y la vida desde distintas ópticas.