A logical investigation of explainable AI - Logique, Interaction, Langue et Calcul Access content directly
Theses Year : 2023

A logical investigation of explainable AI

Une investigation logique de l'IA explicable

Xinghan Liu
  • Function : Author
  • PersonId : 1345511
  • IdRef : 275294773

Abstract

Explaining why a classifier classifies a given input instance as the output classification becomes increasingly vital nowadays, as artificial intelligence (AI) continues to evolve rapidly and permeate various aspects of everyday life, while the AI systems in use today often lack transparency. The symbolic approach to explainable AI (XAI) therefore shows its significance, since the symbols and rules it uses are inherently understandable to humans. In the thesis I investigate XAI with various logic tools including modal logics, epistemic logics, conditional logics and product modal logics. Two logical frameworks are presented to model classifier systems. The first one is called binary-input classifier logic (BLC). It models a binary-input classifier as a partition of an S5 Kripke model. By taking this modal logic viewpoint many notions of explanations for Boolean classifiers are expressible rather than defined in meta-language, including abductive explanation, contrastive explanation, counterfactual explanation and decision bias. The second one is called product modal logic for classifiers (PLC) in order to represent black box classifiers. The key idea is that black box has to do with the uncertainty of an agent about which classifier is the real one among many possible classifiers. Therefore we need to model a black box classifier as a set of classifiers which are all compatible with the agent's knowledge of the black box. It results in a produce modal logic with two dimensions for instances and classifiers respectively. As a consequence, the notions of explanation aforementioned have their natural subjective correspondences. Besides the logical frameworks themselves, there are related issues discussed in the thesis. BCL provides a new representation of legal case-based reasoning, such that a case base is viewed as a partial classifier. In this way, the notions of explanation in XAI can be applied to case-based reasoning. In BCL a counterfactual conditional is proposed for classifier explanation, and the measurement it uses is the Hamming distance, a widely used measure of distance in symbolic AI. A result of the thesis implies that given the basic language of counterfactuals with infinite atomic propositions, any distance measure for classifiers can be reinterpreted as Hamming distance by introducing hidden variables without loss of validity. Technical aspects such as computational complexity, completeness of axiomatics and extending the axiomatics with infinitary inference rule are also studied.
Expliquer pourquoi un classificateur classe une instance d'entrée donnée comme classification de sortie devient de plus en plus vital de nos jours, car l'intelligence artificielle (IA) continue d'évoluer rapidement et d'imprégner divers aspects de la vie quotidienne, tandis que les systèmes d'IA utilisés aujourd'hui manquent souvent de transparence. L'approche symbolique de l'IA explicable (XAI) montre donc son importance, puisque les symboles et les règles qu'elle utilise sont intrinsèquement compréhensibles pour les humains. Dans cette thèse j'étudie la XAI avec différents outils logiques, y compris les logiques modales, les logiques épistémiques, les logiques conditionnelles et les logiques modales de produit. Deux cadres logiques sont présentés pour modéliser les systèmes de classification. Le premier est appelé logique de classificateur à entrée binaire (BLC). Il modélise un classificateur à entrée binaire comme une partition d'un modèle de Kripke S5. En adoptant le point de vue de cette logique modale, de nombreuses notions d'explications pour les classificateurs booléens sont exprimables plutôt que définies dans un méta-langage, notamment l'explication abductive, l'explication contrastive, l'explication contrefactuelle et le biais de décision. La seconde est appelée logique modale de produit pour les classificateurs (PLC) afin de représenter les classificateurs de boîte noire. L'idée clé est que la boîte noire est liée à l'incertitude d'un agent quant à savoir lequel est le vrai parmi de nombreux classificateurs possibles. Nous devons donc modéliser un classificateur de boîte noire comme un ensemble de classificateurs qui sont tous compatibles avec la connaissance de la boîte noire par l'agent. Il en résulte une logique modale avec deux dimensions pour les instances et les classificateurs respectivement. Par conséquent, les notions d'explication susmentionnées ont leurs correspondances subjectives naturelles. Outre les cadres logiques eux-mêmes, d'autres questions connexes sont abordées dans la thèse. BCL fournit une nouvelle représentation du raisonnement basé sur les cas juridiques, de telle sorte qu'une base de cas est considérée comme un classificateur partiel. De cette manière, les notions d'explication dans XAI peuvent être appliquées au raisonnement basé sur les cas. L'explication par classificateur a une relation étroite avec le raisonnement contrefactuel. La distance de Hamming est une mesure largement utilisée dans le raisonnement contrefactuel. Dans BCL, un conditionnel contrefactuel est proposé pour l'explication du classificateur, et la mesure qu'il utilise est la distance de Hamming, une mesure de distance largement utilisée dans l'IA symbolique. La thèse démontre qu'avec un langage basique des contrefactuels et des propositions atomiques infinies, toute mesure de distance pour les classificateurs peut être réinterprétée comme une distance de Hamming via des variables cachées, sans perte de validité. Des aspects techniques tels que la complexité informatique, la complétude de l'axiomatique et l'extension de l'axiomatique avec une règle d'inférence infinie sont également étudiés.
Fichier principal
Vignette du fichier
2023TOU30187b.pdf (2.13 Mo) Télécharger le fichier
Origin Version validated by the jury (STAR)

Dates and versions

tel-04431518 , version 1 (01-02-2024)

Identifiers

  • HAL Id : tel-04431518 , version 1

Cite

Xinghan Liu. A logical investigation of explainable AI. Artificial Intelligence [cs.AI]. Université Paul Sabatier - Toulouse III, 2023. English. ⟨NNT : 2023TOU30187⟩. ⟨tel-04431518⟩
91 View
54 Download

Share

Gmail Mastodon Facebook X LinkedIn More