En los últimos días, he oído hablar de la Inteligencia Artificial, de ChatGPT y otras como lo último en tecnología que nos ayudará a vivir mejor, a hacer mejores y más productivos negocios y hasta cocinar más rico,

Todo está en una especie de plataforma más avanzada que la que muchos llaman la biblia de la computadora, “San Google”. Contiene mucha más información y además está diseñada para cumplir con los parámetros  que se le pidan.

Por ejemplo, un docente puede solicitar la planificación de una clase sobre un tema puntual, un video sobre el mismo tema, una serie de ejercicios, bibliografía, una evaluación y ya tiene su tarea solucionada en cuestión de minutos. La que normalmente puede llevar horas mientras se consideran los distintos tipos de aprendizajes y los alumnos específicos para los cuales se planifica.

La cuestión es que aunque se pida para un grupo etario y con definiciones específicas, seguiremos estando ante una computadora. O sea  Estas nuevas técnicas que nos facilitan la vida no tienen emociones, siguen siendo máquinas, no consideran la emocionalidad del ser humano, por lo que parece que estamos tratando con robots. Y si como docentes nos quedamos en esto, nuestra clase será fría y no lograremos despertar emoción por el conocimiento.

Los  algoritmos toman decisiones que  antes eran exclusivas de los seres humanos, incluso pueden decidir si somos calificados para obtener un crédito o no.  Pero, recordemos que los datos  fueron ingresados por personas, por lo que esos algoritmos podrían estar  perpetúan o incluso amplificando prejuicios sociales. Es allí donde surge  el racismo algorítmico.

“Los sistemas automáticos están moldeando nuestro futuro y, si no vigilamos sus efectos, podrían reforzar las mismas injusticias que llevamos décadas intentando erradicar.”

Integrar principios de equidad, diversidad y ética en el desarrollo tecnológico  es una situación  urgente, para evitar sesgos y construir una sociedad justa. Es necesario  que cada línea de código sea responsable. La inclusión, en el mundo digital, debe ser una prioridad, porque luego será muy difícil corregir los errores.

El  racismo algorítmico produce sesgos históricos y estructurales que si no se estudian específicamente, pueden no notarse y ser mucho más peligrosos,  discriminando a personas por su color de piel, nacionalidad o clase social. Lo que  representa un reto ético  de alto calibre  para desarrolladores, empresas y gobiernos, ya que lleva a la  reproducción de sesgos raciales en sistemas automatizados que procesan datos, al aprender de datos históricos que sí la tienen. Si los datos usados están sesgados, el resultado también lo estará, incluso si el código fue escrito con la mejor intención.

Recuerdan que aprendimos que Tecún Umán creyó al enfrentarse en lucha contra Pedro de Alvarado que estaba ante un ser de dos cabezas. Y no faltó un compañero de clase que dijera ¡pero qué tonto!

El racismo algorítmico  no es producto de una persona, sino de  un sistema. Por eso, se ha vuelto clave en los debates sobre ética tecnológica y justicia social “Afecta la salud, seguridad, educación y empleo. Priorizando ciertos perfiles puede dejar fuera a comunidades enteras de oportunidades esenciales. Amplifica desigualdades ya existentes y retrasando la movilidad social de grupos históricamente marginados.”

Comprender qué es el racismo algorítmico también implica reconocer que las tecnologías no son neutrales. Son el reflejo de quienes las crean y de los contextos sociales donde se desarrollan. Por eso, la responsabilidad social, empresarial y gubernamental debe incluir una revisión ética del uso de estas herramientas.

 La falta de diversidad en el desarrollo tecnológico es un factor clave: si no hay voces representativas de distintas realidades, es más fácil pasar por alto los sesgos incrustados en los datos. A veces, el racismo no está en la intención, sino en la omisión.

Por lo que  es vital establecer mecanismos de corrección, auditoría y transparencia. La tecnología necesita principios claros de inclusión y justicia para evitar ser una herramienta de exclusión.

Las empresas deben establecer políticas de datos responsables, incluir procesos de auditoría ética en sus sistemas y fomentar la inclusión en sus equipos de desarrollo. La diversidad no solo es buena práctica, es una necesidad técnica y moral, que  nos ayuda a ver el mundo y la vida desde distintas ópticas.

Edith González

hedithgonzalezm@gmail.com

Nací a mediados del siglo XX en la capital, me gradué de maestra y licenciada en educación. He trabajado en la docencia y como promotora cultural, por influencia de mi esposo me gradué de periodista. Escribo desde los años ¨90 temas de la vida diaria. Tengo 2 hijos, me gusta conocer, el pepián, la marimba, y las tradiciones de mi país.

post author
Artículo anteriorDemencia que no es locura sino iluminación
Artículo siguienteGuatemala busca sellar su boleto rumbo al Mundial 2026, esto le falta para clasificar