Soumissions
THÈMES DE L'ATELIER
Pour la 4e edition d'EXPLAIN'AI, notre principal objectif est de mettre en lumière l'importance de l'explicabilité de l'intelligence artificielle (IA) au service des experts métiers.
En plus des thématiques haituelles de l'atelier nous mettrons donc en avant les contributions visant a répondre aux contexte particulier de l'utilisation des méthodes d'IA par des experts métiers:
Quelle méthode choisir pour expliquer, dans quel cas, et pour quelle raison ? On s’intéressera ici à l’évaluation des méthodes d’explicabilité ou encore à leur comparaison ou leur classification automatique en familles de méthodes d’explications.
Comment assurer la confiance dans un pipeline (ou modèle) de traitement de données par le biais des méthodes d’explicabilité ? Est-ce que la production d’exemples contrefactuels est suffisante ? Comment intégrer la connaissance experte et la confronter aux explications produites ?
Comment permettre l’interaction de l’utilisateur avec les pipelines et les explications d’autre part ? Quels opérateurs d’exploration mettre en place ? Comment permettre la visualisation ou l’appropriation des explications par l’utilisateur final ?
Quelles nouvelles formes d’explication envisager à l’avenir ? Faut-il envisager d’autres outils que des exemples (contrefactuels) ou des pondérations d’attributs pour expliquer un pipeline ou un modèle ? Est-ce que l’on explique un prétraitement ou un filtrage de données comme un modèle prédictif ?
Comment permettre l’actionabilité des méthodes d’explications, c’est-à-dire leur utilisation pour améliorer les pipelines de prise de décision
Quels retours d’expérience (réussites et échecs) de l’usage des méthodes d’explicabilité dans des cas d’usage particulier ?
Les sujets d’intérêt de l'atelier incluent (liste non-exhaustive) :
Explication d’apprentissage automatique de bout en bout (pipeline)
Evaluation et comparaison des méthodes d’explication
Génération d’explication pour les modèles d’apprentissage automatique (supervisé, non-supervisé, renforcé, profond)
Construction d’approches / modèles transparents ou auto-explicatifs
Résumé, explication et visualisation de données (e.g., temporelles, multidimensionnelles)
Analyse comparative et évaluation de performance des explications
Détection de biais d’apprentissage et extraction de motifs causaux
Applications de méthodes d’explicabilité à des cas pratiques
Explications du dialogue itératif
Interfaces homme-machine
Explication de données, narration de données (data storytelling)
Droit et éthique pour l’explicabilité
DATES CLÉS
Soumissions des articles
29 Novembre
Notification aux auteurs
20 13 Décembre
Inscription (Via le site de la conférence)
avant le 6 janvier
Déroulement de l'atelier
28 Janvier
INSTRUCTIONS DE SOUMISSIONS
Deux types de soumissions sont possibles :
Articles courts : de 2 pages à 8 pages
Articles longs : de 8 à 12 pages maximum
Les soumissions peuvent inclure tout travail de recherche original, applicatif, résumé de papiers internationaux, prise de position.
En particulier, les soumissions courtes de 2 pages seront tout à fait considérées afin de valoriser des nouveaux travaux ou apportant un cadre aux recherches et usages de l'explicabilité.
Les soumissions devront être soumises au format pdf exclusivement et devront impérativement utiliser le format RNTI latex : https://www.editions-rnti.fr/files/RNTI-202208.zip
La soumission d’articles se fera exclusivement sous format électronique via le site EasyChair Conference System : https://easychair.org/conferences/?conf=explainai2025 en choisissant lors de la soumission la track "Explain’AI" correspondant à l’atelier. Si vous avez des difficultés, n’hésitez pas à nous contacter.