2024-07-25

IA_BIAS

El Proyecto  |  El Equipo  |  El Estudio  |  Resultados  |  Partners  |  Contacto  

Detección participativa de los sesgos de la Inteligencia Artificial

Actualmente y muchas veces sin percatarnos, gran parte de las decisiones que tomamos en el día a día son ayudadas e incluso mejoradas por algoritmos de Inteligencia Artificial (IA). Estas herramientas incomprendidas por algunos facilitan nuestra vida en diferentes áreas ya que las podemos encontrar desde los buscadores de internet, redes sociales, aplicaciones de citas, GPS, coches autónomos e incluso avances en medicina.

Sin embargo, no debemos olvidar, que la Inteligencia Artificial, está diseñada por personas, y por tanto, es un reflejo de sus sesgos inconscientes (tendencia o inclinación hacia algo que da lugar a estereotipos y discriminación dentro de la sociedad). Por ello debemos de ser críticos y estar atentos a este tipo de problemas para detectarlos, pues si se asume que la discriminación es la norma general en nuestra sociedad, se podrían diseñar sistemas que trabajen hacia nociones de igualdad (Broussard, 2018).

CONTEXTO

IA-Bias aborda los desafíos de reforzar los conocimientos y capacidades formativas a la población, para realizar una mejor identificación y reporte de los sesgos gracias a la formación en Inteligencia artificial haciendo partícipe a la ciudadania en la producción científica.

La Inteligencia Artificial tiene una enorme capacidad para impulsar el crecimiento social desde diferentes sectores de la sociedad, debido a su cada vez mayor presencia en actividades y herramientas de la vida cotidiana, desde los los buscadores de internet, asistentes personales de nuestro teléfono móvil, hasta en el ámbito profesional en el diseño de campañas de prevención de salud o el tratamiento de enfermedades gracias a su potencial del predicción.

La IA, si bien es una herramienta prometedora y con la capacidad de impulsar el crecimiento social, también posee algunos fallos o problemas debido a los sesgos algorítmicos. Según la Real Academia Española, un sesgo es una oblicuidad otorcimiento. Macchiavelli (2021), menciona que este uso de la palabra sesgo es simbólico, ya que hace referencia a una tendencia o inclinación hacia algo. Cabe señalar que, la Unesco (2020) otorga una connotación negativa a los sesgos algorítmicos, estableciendo que estos poseen el potencial para reforzar o difundir estereotipos, como por ejemplo, de género.

Se detectan en este contexto dos preocupaciones:
(i)         La necesidad de conocer sobre de la experiencia de los ciudadanos tienen con herramientas y plataformas de IA y su capacidad de identificar posibles sesgos al utilizar estas tecnologías.
(ii)        La necesidad de dotar a la ciudadanía de una formación que los ayude a hacer frente a las implicaciones, aplicaciones y desafíos éticos de la IA en su día a día.

EN QUÉ CONSISTE

La idea principal detrás de la metodología de IA-Bias es enfocar dos acciones fundamentales y complementarias entre sí. Una primera acción con la previa intención de conocer sobre la percepción y el conocimiento de la ciudadanía española ante sesgos de inteligencia artificial, para poder así implementar la segunda acción en la que se pretende dotar a la población española de herramientas para la detección de sesgos presentes en la Inteligencia Artifical mediante la ciencia ciudadana.

La metodología

e llevará a cabo mediante la implementación de métodos mixtos de investigación, alcanzando un enfoque global y multidimensional para poder examinar adecuadamente la percepción y el conocimiento de la ciudadanía ante sesgos de inteligencia artificial, desde múltiples perspectivas. Todo ello con la finalidad de llevar a cabo una actividad final de identificación de sesgos (principalmente de género, raza y religión) por parte de los participantes, en algunas de las plataformas de Inteligencia Artificial en abierto, tras haber recibido formación en un taller sobre IA

Se utilizan tres grandes metodologías:

Encuestas Entrevistas Análisis de contenido computerizado
Encuestas y Focus Group Ciencia ciudadana Taller online en abierto

OBJETIVOS

El objetivo principal del proyecto IA-BIAS es dotar a la ciudadania de conocimientos básicos en IA para que desde las diferentes áreas sociales puedan participar activamente en la ciencia y ayudar identificar sesgos de Inteligencia Artificial.

Los objetivos específicos son:

O1. Identificar la experiencia de los ciudadanos con herramientas y plataformas de IA así como su percepción y grado de conocimiento en la identificación de los posibles sesgos que encuentran los españoles al utilizar herramientas de IA.

O2. Dotar a la ciudadanía de una formación que los ayude a hacer frente a las implicaciones, aplicaciones y desafíos éticos de Inteligencia Artificial en su día a día, dando prioridad a la formación de los ciudadanos en la identificación de sesgos de IA. Y a su participación en el proceso científico ayudando a recoger datos a través de la detección de sesgos en una plataforma de IA.

INNOVACIÓN Y RETOS

La principal innovación del proyecto es el intentar cubrir o apoyar ciertos objetivos de desarrollo sostenible de la agenda 2030 de las Naciones unidas (ONU) y acercarlos a la ciudadania a través de las dos acciones. La principal se centra en reforzar los conocimientos y capacidades formativas a la población, para realizar una mejor identificación y reporte de los sesgos gracias a la formación que se sitúa específicamente en el Eje Estratégico 2 de la Estrategia Nacional de Inteligencia Artificial: “Promover el desarrollo de capacidades digitales, potenciar el talento nacional y atraer talento global. Es necesario elevar la capacitación técnica en IA de la población activa, tanto del público usuario como del especialista, para así facilitar el acceso a los nuevos empleos de calidad y afrontar los retos del mercado de trabajo del futuro”. Así, una de las innovaciones más interesantes respecto a estudios previos es el hecho de hacer partícipe a la ciudadania en la producción científica.

El proyecto se estructura mediante 2 acciones principales en las que se utilizan por un lado la metodología cualitativa (grupo focal) y por otro la metodología cuantitativa (encuesta) para generar una investigación sólida basada en métodos mixtos de investigación.

Otra de las innovaciones que incluye este proyecto es la inclusión de materiales adaptados a la diversidad, especialmente para las personas con diversidad funcional visual o intelectual, a través de piezas audiovisuales con traducción simultánea a lenguaje de signos y materiales divulgativos siguiendo la metodología de lectura fácil.

Saber más del estudio >>


Con la colaboración de:

Logotipo Fecyt

Proyecto financiado por la Fundación Española para la Ciencia y la Tecnología (FECYT) en la Convocatoria de ayudas para el fomento de la cultura científica, tecnológica y de la innovación 2023-2024 [FCT-23-19454]