De acuerdo con datos de Statista, China es uno de los principales países que implementó la inteligencia artificial (IA) en sus empresas, le siguen India e Italia. Mientras que Canadá y Reino Unido lideran la exploración de IA con índices cercanos al 50%. Frente al evidente crecimiento de esta tecnología surge una importante preocupación por la codificación de sesgos y estereotipos negativos provenientes de la IA. La integración de la IA al sistema social trajo […]
De acuerdo con datos de Statista, China es uno de los principales países que implementó la inteligencia artificial (IA) en sus empresas, le siguen India e Italia. Mientras que Canadá y Reino Unido lideran la exploración de IA con índices cercanos al 50%. Frente al evidente crecimiento de esta tecnología surge una importante preocupación por la codificación de sesgos y estereotipos negativos provenientes de la IA.
La integración de la IA al sistema social trajo consigo una fuerte influencia en los usuarios que día con día exponen su información en diferentes tecnologías apoyadas en esta herramienta. En general, las IA trabajan con bases de datos y diferentes algoritmos, encargados de reunir masas de información. Sin embargo, estudios de Trinity College Dublín demostraron que la codificación de datos por parte de la inteligencia artificial tiene sesgos y estereotipos negativos en torno a los usuarios.
¿Cómo se administran las bases de datos?
El problema es que la IA no solo crea información sesgada y llena de estereotipos, pues también se encarga de afirmarla y difundirla a nivel masivo como verdad absoluta. Esto se vuelve una amenaza latente contra los grupos marginados que son englobados dentro de estereotipos negativos. También se aborda el tema de exclusión y discriminación ante estos sectores, pues en ocasiones la información sesgada viene de la falta de información sobre los grupos marginados.
Una de las consecuencias con las que se puede ejemplificar esta problemática la presenta el Trinity College Dublín. Menciona que la IA arrojaron un índice de riesgo mayor para reincidir sobre acusados de piel oscura.
Ahora bien, la comunicación humana es diferente a la de los modelos generativos, mientras en la primera se detecta la incertidumbre mediante marcadores lingüísticos, en la segunda, la información siempre se percibe como verdadera. Este problema causa una confusión en los receptores y finalmente terminan por aceptar los resultados de la IA como verdaderos, aun cuando estén sesgados.
No obstante, uno de los mayores conflictos está en las fuentes de información creadas por IA, pues, tienen una fuerte influencia en los grupos sociales, aunque esta sea falsa. De mayor preocupación llegan a ser niños y grupos vulnerables a estas fuentes, que crecen y desarrollan su mente con apoyo de las nuevas tecnologías.
Información de NotiPress
Los comentarios están cerrados