1. Trang chủ
  2. » Công Nghệ Thông Tin

Explamation AI Methods for Artificial

21 3 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 21
Dung lượng 1,55 MB

Các công cụ chuyển đổi và chỉnh sửa cho tài liệu này

Nội dung

Explanation Methods for Artificial Intelligence Models Carlo Metta, KDD Lab CNR ISTI Pisa 24 Maggio 2021 Sommario del Talk Breve sommario degli argomenti presentati 1 Introduzione all’ Explainable Art.

Trang 1

Explanation Methods for Artificial Intelligence

Models

Carlo Metta, KDD Lab - CNR-ISTI Pisa

24 Maggio 2021

Trang 2

Sommario del Talk

Breve sommario degli argomenti presentati:

1 Introduzione all’ Explainable Artificial Intelligence (XAI)

2 Modelli Interpretabili, Spiegabili e Comprensibili

3 Open the Black Box: Formulazione del Problema

4 Classificazione modelli e tecniche XAI

5 Alcuni modelli :

1 LIME: Local Interpretable Model-Agnostic Explanations

2 LORE: Local Rule-Based Explanations

3 SHAP: Shapley Additive Explanations

Trang 3

Enorme quantità di Dati

I dati sono prodotti da attività umane,

contengono pertanto bias, pregiudizi,

alterazioni che alterano e indirizzano il

GDPR

E’ diritto dell’individuo ottenere spiegazioni soddisfacenti e comprensibili derivate da processi decisionali artificiali

Enormi rischi sulla qualità delle decisioni prese

Perdendo il controllo dell’informazione abbiamo perso il controllo sulla sua qualità, accuratezza, consistenza e di conseguenza è messa a rischio la fiducia nell’informazione stessa

02

01

04 03

Why Explainable Artificial Intelligence ?

Trang 4

In cosa consiste l’Explainability ?

L’abilità (passiva) di un modello

che quantifica quanto esso

appartenga ad un dominio

comprensibile dagli umani

L’abilità (passiva) di un modello di presentarsi in modo comprensibile dagli

umani

L’abilità (attiva) di un modello

di fornire spiegazioni sul suo processo decisionale interno

Explainability

Black Box Predictor

E’ un modello basato su metodi e tecniche di intelligenza artificiale le cui dinamiche e processi decisionali sono sconosciuti oppure sono conosciuti ma non comprensibili da parte di un essere umano

Explanation

Una interfaccia fra l’umano e il decisore che è simultaneamente un proxy (accurato) del

decisore ed è comprensibile dagli umani

Trang 5

Interpretability Locale

e Globale

Complessità e Time Limitation

Le qualità di un Modello Interpretabile

Trang 6

Albero Decisionale Regola Decisionale

Modello Lineare

Modelli Interpretabili di base

Una funzione che mappa l’insieme delle osservazioni nell’insieme delle decisioni

1 If-then rules: if condition_1 ∧ condition_2 then outcome.

2 M-of-n-rules: dato un insieme di n regole, se almeno m sono soddisfatte allora la vale una conseguenza

3 List of rules: lista di regole ordinate, dove si considera come verificata la conseguenza della regola che per prima è soddisfatta

4 Falling rules list: lista di regole ordinate rispetto alla probabilità di una specifica conseguenza

5 Decision sets: insieme non ordinato di regole indipendenti

Nei modelli lineari l’analisi della feature importance è immediata: dipende esclusivamente dal segno e dalla

magnitudine del coefficiente relativo a ciascuna feature

Trang 7

Model Explanation

Transparent Box Design

Outcome Explanation Model Inspection

Opening the Black Box

Black Box Explanation

Trang 8

Def: Una Black Box è una funzione b: X^m → Y

che mappa lo spazio delle feature in quello dei

target

Def: Indichiamo invece con c un modello interpretabile che fornisce una predizione c(x)

comprensibile dagli umani (localmente o globalmente)

(Problem) Data una black box b, un dataset X, il problema consiste nel trovare una spiegazione E ∈ 𝞢

appartenente ad un dominio interpretabile dagli umani 𝞢, attraverso un modello interpretabile c = f (b, X)

Trang 9

Assumiamo che sia dato un modello

interpretabile locale c rispetto a b ed x ∈ X.

(Problem) Data una black box b, una istanza x ∈ X , il problema consiste nel trovare una spiegazione e ∈ 𝞢

appartenente ad un dominio interpretabile dagli umani 𝞢, attraverso un modello locale interpretabile c = f

(b, x) derivato da b e da x.

Outcome Explanation

Il problema consiste nel fornire una spiegazione sull’outcome del modello rispetto ad

una particolare istanza

(Explanation) Una spiegazione e ∈ 𝞢 è ottenuta tramite c se e = g (c, X) per qualche logica g con variabili c

ed X.

Trang 10

(Problem ) Data una black box b, un dataset X, il problema consiste nel trovare una rappresentazione

(grafica o testuale) r = f ( b, X) di una proprietà di b.

Model Inspection

Il problema consiste nel fornire una rappresentazione di qualche proprietà della black

box o di una sua predizione

Inspection / Explanation: La seconda richiede l’estrazione di un modello interpretabile mentre la prima si

concentra su specifiche caratteristiche della black box senza richiedere alcuna comprensione

Trang 11

(Problem) Dato un dataset D = (X, Y) il problema consiste nell’apprendimento di un modello interpretabile c

(a partire da D), ossia un modello dotato di una logica g da cui è possibile derivare una spiegazione e = g (c,

X)

Transparent Box Design

Il problema consiste nel costruire direttamente un modello interpretabile (localmente

o globalmente)

Open the Black Box

Un metodo è capace di aprire la black box se si riferisce ad una o più delle seguenti tecniche: (i) spiegazione del modello, (ii) spiegazione di una predizione del modello, (iii) ispezione delle caratteristiche del modello, (iv) costruzione modello trasparente

Ci si riferisce a (i), (ii), (iii) come post-hoc explainability.

Trang 12

Principali Tecniche XAI

Sensitivity

Analysis Dependence Plot Partial Prototype Selection Maximization Activation

Trang 13

Ribeiro, Singh, Guestrin, 2016

Local Interpretable Model-Agnostic Explanations

- Model Agnostic: LIME non è dipendente dal modello,

ovvero fornisce spiegazioni per qualsiasi tipo di black

box

- Local Explanations: LIME fornisce spiegazioni che

sono localmente fedeli in un intorno del dato che si

Trang 14

Dato un modello predittivo (black box) B ed un dato X, LIME fornisce una

spiegazione locale e fedele di B attorno ad X:

- Sampling and obtaining a surrogate dataset: LIME produce un

intorno locale centrato in X (normale standard, 5000 samples) del

vettore delle features; successivamente classifica tale intorno con

il predittore B Tale intorno è a tutti gli effetti un dataset surrogato

attorno ad X rispetto a B.

- Feature Selection from the surrogate dataset: una volta ottenuto il

dataset surrogato, pesa i differenti punti del dataset a seconda

della loro distanza da X Successivamente utilizza delle tecniche di

feature selection (LASSO) per estrarre le feature più importanti, e

da queste apprendere un modello lineare localmente fedele

Come funziona LIME?

Trang 15

Guidotti, Monreale, Ruggieri, Pedreschi, Turini, Giannotti, 2018

Local Rule-Based Explanations

- Rule-Based: LORE fornisce spiegazioni sotto forma di

decision rules

- Local Explanations: LORE fornisce spiegazioni che

sono localmente fedeli in un intorno del dato che si

vuole spiegare

- Non genera l’intorno di un dato in modo random bensì

con algoritmo genetico

Trang 16

Dato un classificatore binario (black box) B ed un dato X, LORE

fornisce una spiegazione locale e fedele di B attorno ad X:

- Genetic sampling of a surrogate dataset: LORE produce due

intorni locali di X del vettore delle features tramite

iterazioni di un algoritmo genetico rispetto ad una data

funzione di fitness, un intorno di classe positiva Z+ ed uno

di classe negativa Z- rispetto ad X.

- Rule extraction: una volta ottenuto il dataset surrogato Z =

Z+ U Z-, costruisce un albero decisionale su Z da cui estrae

regole e controfattuali

Come funziona LORE?

Trang 17

A partire da un albero decisionale è possibile estrarre regole e controfattuali seguendo i sentieri dalla radice fino alle foglie.

La generazione genetica del dataset surrogato locale permette a LORE di performare meglio ed essere più fedele rispetto a LIME

Trang 18

Scott, Lundberg, Su-In Lee, 2017

Shapley Additive Explanations

- Feature Importance: SHAP attribuisce un’importanza

(un peso) a ciascuna feature

- Model Agnostic: crea spiegazioni per ogni possibile

black box senza utilizzare la particolare struttura

interna

- Prende spunto dalla teoria di Shapley in teoria dei

giochi collaborativa E’ computazionalmente costoso ma

molto accurato

Repository with +2k forks

Trang 19

Dato un gioco cooperativo, ovvero un insieme di N giocatori ed

una funzione caratteristica v: 2^N → R:

- Data una coalizione S, v(S) rappresenta la reward

associata alla coalizione S, in particolare v(0)=0 e v è una

funzione super additiva

- Il valore di Shapley rappresenta una fair share della

reward fra i diversi componenti del gioco

Cosa sono i valori di Shapley?

Proprietà dei valori di Shapley:

- Simmetria: giocatori con ruolo scambiabile devono ricevere la stessa ricompensa

- Giocatori inutili: giocatori il cui contributo è nullo devono ottenere ricompensa nulla

- Additività: la somma dei valori di Shapley di tutti i giocatori equivale alla reward della coalizione totale

- Linearità: i valori di Shapley di più giochi cooperativi sullo stesso insieme di giocatori sono una funzione lineare

Trang 20

Come funziona SHAP?

opportuna misura che associa a ciascun sottoinsieme di feature la sua influenza sulla

classificazione che il modello fornisce su un sample.

Trang 21

carlo.metta@isti.cnr.it

carlometta@gmail.com

Ngày đăng: 09/09/2022, 12:20