Chargement Évènements

« Tous les Évènements

  • Cet évènement est passé

Groupe de Travail De la Donnée à la Connaissance

23 novembre à 14h00 - 17h30 CET

Labex DigiCosme

Séminaire du 23 novembre  14 h

Explicabilité et raisonnement symbolique en IA

Le groupe de travail D2Kde la Donnée à la Connaissance reprend ses réunions. Elles ont pour objectif de présenter des travaux de recherche du thème et d’être un lieu d’échange entre équipes du Labex DigiCosme.

Le groupe D2K s’inscrit dans le thème Gestion et représentation des connaissance, raisonnement de l’axe IID Intelligence, Interaction, Données (ex DataSense) du Labex DigiCosme

Amphithéâtre du bâtiment Digiteo

Explicabilité et raisonnement symbolique en IA : le 23 novembre de 14 h à 17 h

Inscription gratuite

* L’inscription et le pass sanitaire seront obligatoires pour venir sur place (dans la limite des places disponibles).

Programme mardi 23 novembre 2021

14h – 14h15 : Introduction – Fatiha Saïs et Claire Nédellec

14h15 – 15h15 – Jean-louis Dessalles, Maître de conférences à Telecom Paris

Titre : Entre neurones et symboles: vers une IA des mécanismes

Résumé :

Au cours des décennies, les recherches en intelligence artificielle ont privilégié l’accumulation d’une expertise pré-calculée, allant de l’entraînement des réseaux de neurones à la constitution manuelle ou automatique de bases de connaissances et d’ontologies. Certaines tâches, évidentes même pour les enfants, restent toutefois hors d’atteinte de ces formes d’intelligence “en boîte”. La rétro-ingénierie de notre fonctionnement cognitif suggère que certains mécanismes opérant “à la volée” permettent aux humains de produire des symboles en fonction du contexte. L’implémentation de ces mécanismes pourraient offrir de nouvelles passerelles pour produire des connaissances à partir des espaces latents.

Biographie: 
Jean-Louis Dessalles est maître de conférences à Telecom Paris. Depuis une décennie, il développe la Théorie de la Simplicité, qui offre un cadre théorique pour représenter la pertinence des paroles et des actions. Il est l’auteur de plusieurs livres, notamment « Des intelligences TRES artificielles » (O. Jacob, 2019).

15h15 – 15h45 : Wassila Ouerdane (CentraleSupelec)

Titre : Generation of Textual Explanations in XAI: the Case of Semantic Annotation

Résumé:
Semantic image annotation is a field of paramount importance in which deep learning excels. However, some application domains, like security or medicine, may need an explanation of this annotation. Explainable Artificial Intelligence is an answer to this need. In this work, an explanation is a sentence in natural language that is dedicated to human users to provide them clues about the process that leads to the decision: the labels assignment to image parts. We focus on semantic image annotation with fuzzy logic that has proven to be a useful framework that captures both image segmentation imprecision and the vagueness of human spatial knowledge and vocabulary.
In this work, we present an algorithm for textual explanation generation of the semantic annotation of image regions. (link: https://ieeexplore.ieee.org/document/9494589)

Biographie :
Wassila Ouerdane is an Assistant Professor (MCF) in Computer Science at CentraleSupélec, and a member of the MICS (Mathématiques et Informatique pour la Complexité et les Systèmes) Lab, within the Research Group LOGIMICS (LOGIcal approaches for Modelling, data Interpretation and Complex Systems) since February 2019. Previously, she was in the Industrial Engineering Lab at CentraleSupélec (Spet. 2010- Jan. 2019), within the Decision Aid team. She holds a PhD on Computer Science from University of Paris Dauphine in 2009. Her research activities are across two fields: Artificial Intelligence and Decision Theory. She is interested in questions related to Knowledge Representation and Reasoning within the context of Explainable AI. Site web: https://wassilaouerdane.github.io

15h45 – 16h15 : Pause café

16h15 – 16h45 Pierre Bisquert, chargé de recherche INRAE
Titre : Argumentation et décision dans le contexte agronomique.

Résumé :
L’argumentation et le choix social sont deux approches souvent utilisées pour l’aide à la décision. Dans ce court exposé, nous présenterons un travail qui tente de joindre ces deux domaines pour obtenir des décisions prenant en compte à la fois les préférences des parties prenantes et les justifications de ces préférences. Nous présenterons rapidement l’outil implémentant ce modèle formel et son application dans le cadre d’un projet européen portant sur la valorisation de déchets agricoles.

Biographie :
Pierre Bisquert est chargé de recherche INRAE au sein du laboratoire IATE (Montpellier) et membre permanent de l’équipe-projet INRIA GraphIK. Il a obtenu son doctorat en intelligence artificielle (2013) à l’Université Paul Sabatier (IRIT, Toulouse) et a été chercheur invité à l’Université d’Amsterdam (2015-2016). Ses recherches se concentrent sur la prise de décision collective, avec un intérêt particulier pour le raisonnement en présence d’informations contradictoires, la gestion de l’incertitude et l’agrégation de préférences.

 

16h45 – 17h00 : Mélanie Munch (AgroParis Tech)
Intégrer les connaissances expertes pour la conception de procédés de transformation

● 17h15-17h30 : Discussion – animation du GT D2K

 

Plus d’informations sur le GT D2k ici

Détails

Date:
23 novembre
Heure :
14h00 - 17h30 CET
évènement Tags:

Lieu

DIGITEO, bât. 660

Organisateur

Labex DigiCosme