IA fiable

La Inteligencia Artificial (IA) fiable representa la línea de investigación en IA, por y para las personas, con el objetivo de diseñar modelos e implementar tecnologías inteligentes capaces de interactuar de forma amigable, no dañina y confiable, siendo respetuosas con el medio ambiente y acordes a la legislación internacional, a los derechos humanos y a los principios de desarrollo sostenible. Es una línea de investigación multidisciplinar que involucra no sólo aspectos tecnológicos, sino también éticos, legales, socio-económicos y culturales.

El resultado de nuestro trabajo incluye el desarrollo de nuevos modelos y tecnologías inteligentes, infraestructuras, herramientas software y estándares internacionales que puedan ponerse al servicio de la ciudadanía, la administración y las empresas, con el fin de democratizar y facilitar el uso de una IA fiable.

Nuestra investigación aborda el diseño de modelos de IA inherentemente interpretables, optimizando el equilibrio entre interpretabilidad y precisión e hibridando conocimiento explícito con aprendizaje automático. También trabajamos en el desarrollo de nuevos enfoques y metodologías para facilitar la interpretabilidad y explicabilidad de los modelos de IA incorporando estrategias didácticas y dialécticas, para diseñar modelos de IA auto explicativos y sostenibles (reducción, reutilización, y reciclado de recursos disponibles), y para la evaluación de modelos de IA fiable (protocolos, métricas y herramientas) durante el ciclo completo de su desarrollo.

Nuestro trabajo se centra también en la valoración, detección y prevención de todo tipo de sesgos, tanto aquellos existentes en los datos, como los que ocurren en los modelos de IA o los derivados de los mecanismos para su evaluación, teniendo en cuenta sesgos cognitivos, culturales o de otra naturaleza.

El CiTIUS está afiliado a la iniciativa Z-Inspection®. Adopta el proceso Z-Inspection® para la evaluación de la fiabilidad de los sistemas y aplicaciones de IA de la vida real. Z-Inspection® es un proceso holístico utilizado para evaluar la fiabilidad de las tecnologías basadas en IA en diferentes fases del ciclo de vida de la IA. Se centra, en particular, en la identificación y el debate de cuestiones y tensiones éticas mediante la elaboración de escenarios sociotécnicos. Utiliza las directrices del Grupo de Expertos de Alto Nivel de la Unión Europea (HLEG de la UE) para una IA digna de confianza. El proceso Z-Inspection® se distribuye bajo los términos y condiciones de la licencia Creative Commons (Reconocimiento-No comercial-Compartir bajo la misma licencia CC BY-NC-SA). Z-Inspection® figura en el nuevo Catálogo de herramientas y métricas de IA de la OCDE.

¿Quieres saber más?

Para colaboraciones, visitas, etc. contáctanos.