Científicos y empresas se reúnen de nuevo para "enseñar" a la IA a explicarse a sí misma

Un nuevo evento organizado el próximo mes de diciembre en el marco del proyecto de investigación europeo NL4XAI de H2020, se centrará en la cuestión de cómo debe evaluarse la calidad de los algoritmos en este ámbito en el campo emergente de la Inteligencia Artificial Explicable (XAI).

Un nuevo evento internacional que se celebrará del 15 al 16 de diciembre en Utrecht (Países Bajos) volverá a reunir a profesionales del mundo académico y de la industria para debatir sobre cómo debe evaluarse la calidad de los algoritmos en un área de investigación emergente de vanguardia conocida como Inteligencia Artificial Explicable (XAI), un campo de estudio que se enfrenta al reto de hacer que los sistemas de IA sean autoexplicativos.

Científicos de diferentes universidades europeas de Reino Unido (Aberdeen), Irlanda (Dublín) y Holanda (Tilburg, Utrecht), junto con representantes de la industria (como Philips o Trivago), compartirán sus experiencias con estudiantes de doctorado en el marco de la Red Europea de Formación NL4XAI (Interactive Natural Language Technologies for Explainable Artificial Intelligence). Un proyecto de investigación financiado por el programa Horizonte 2020 de la Unión Europea, cuyo objetivo es formar a la primera generación de expertos en el campo de la Inteligencia Artificial Explicable a lo largo del continente europeo.

Acto de formación sobre evaluación de la calidad

Estos 11 estudiantes de doctorado (también conocidos como Early-Stage-Researchers, ESR) son el núcleo del proyecto, y tendrán que enfrentarse al reto de hacer que los sistemas de Inteligencia Artificial se expliquen por sí mismos, para lograr un mejor uso de estas técnicas emergentes.

De manera crucial, a lo largo del evento que tendrá lugar el próximo mes, los estudiantes también recibirán experiencia práctica con el diseño de experimentos de evaluación. Un tema central será la experiencia ampliamente difundida en las ciencias experimentales de que los experimentos pueden ser extremadamente difíciles de replicar; por ejemplo, porque faltan detalles cruciales en los artículos de investigación en los que se informan los experimentos, o por problemas estadísticos.

Los estudiantes obtendrán experiencia en la identificación de estos problemas en los estudios existentes, aprendiendo a trabajar de forma que se garantice la replicabilidad de los estudios de evaluación que realizarán en el resto de su proyecto de doctorado. Las inscripciones y más información sobre el evento están disponibles en el sitio web oficial de las Jornadas de Formación NL4XAI.

Red de formación H2020

NL4XAI está financiada por el programa de investigación e innovación Horizonte 2020, a través de una beca Marie Skłodowska-Curie, en el marco de la apuesta de la Unión Europea por la Inteligencia Artificial Explicable. La red está coordinada por el equipo de investigación del Centro de Investigación en Tecnología Inteligente de la Universidad de Santiago de Compostela (CiTIUS-USC), dirigido por Senén Barro. NL4XAI es una red de investigación conjunta entre el mundo académico y la industria, que reúne a 19 beneficiarios y socios de seis países europeos diferentes (Francia, Malta, Polonia, España, Países Bajos y Reino Unido). Los socios corresponden a dos instituciones nacionales de investigación (IIIA-CSIC, CNRS), diez universidades (Universidad de Aberdeen, Universidad de Dundee, L-Universitá ta' Malta, Universidad Tecnológica de Delft, Universidad de Utrecht, Universidad de Twente, Universidad Tecnológica de Varsovia, Universidad de Lorraine, Universidade de Santiago de Compostela, Universitat Autonòma de Barcelona, Universidad de Maastricht) y seis empresas privadas (Indra, Accenture, Orange, Wizenoze, Arria, InfoSupport).

UE-1024x149.png