Endre søk
RefereraExporteraLink to record
Permanent link

Direct link
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annet format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annet språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf
A meta survey of quality evaluation criteria in explanation methods
Jönköping University, Internationella Handelshögskolan. Department of Information Technology, University of Borås, Borås, Sweden.ORCID-id: 0000-0001-9633-0423
Jönköping University, Tekniska Högskolan, JTH, Avdelningen för datavetenskap, Jönköping AI Lab (JAIL).ORCID-id: 0000-0001-8767-4136
Jönköping University, Tekniska Högskolan, JTH, Avdelningen för datavetenskap, Jönköping AI Lab (JAIL).ORCID-id: 0000-0003-0412-6199
2022 (engelsk)Inngår i: Intelligent Information Systems: CAiSE Forum 2022, Leuven, Belgium, June 6–10, 2022, Proceedings / [ed] J. De Weerdt, Jochen & A. Polyvyanyy, Cham: Springer, 2022, s. 55-63Konferansepaper, Publicerat paper (Fagfellevurdert)
Abstract [en]

The evaluation of explanation methods has become a significant issue in explainable artificial intelligence (XAI) due to the recent surge of opaque AI models in decision support systems (DSS). Explanations are essential for bias detection and control of uncertainty since most accurate AI models are opaque with low transparency and comprehensibility. There are numerous criteria to choose from when evaluating explanation method quality. However, since existing criteria focus on evaluating single explanation methods, it is not obvious how to compare the quality of different methods.

sted, utgiver, år, opplag, sider
Cham: Springer, 2022. s. 55-63
Serie
Lecture Notes in Business Information Processing, ISSN 1865-1348, E-ISSN 1865-1356 ; 452
Emneord [en]
Explanation method, Evaluation metric, Explainable artificial intelligence, Evaluation of explainability, Comparative evaluations
HSV kategori
Identifikatorer
URN: urn:nbn:se:hj:diva-57114DOI: 10.1007/978-3-031-07481-3_7ISBN: 978-3-031-07480-6 (tryckt)ISBN: 978-3-031-07481-3 (digital)OAI: oai:DiVA.org:hj-57114DiVA, id: diva2:1668209
Konferanse
CAiSE Forum 2022, Leuven, Belgium, June 6–10, 2022
Forskningsfinansiär
Knowledge FoundationTilgjengelig fra: 2022-06-13 Laget: 2022-06-13 Sist oppdatert: 2023-11-08bibliografisk kontrollert
Inngår i avhandling
1. Trustworthy explanations: Improved decision support through well-calibrated uncertainty quantification
Åpne denne publikasjonen i ny fane eller vindu >>Trustworthy explanations: Improved decision support through well-calibrated uncertainty quantification
2023 (engelsk)Doktoravhandling, med artikler (Annet vitenskapelig)
Abstract [en]

The use of Artificial Intelligence (AI) has transformed fields like disease diagnosis and defence. Utilising sophisticated Machine Learning (ML) models, AI predicts future events based on historical data, introducing complexity that challenges understanding and decision-making. Previous research emphasizes users’ difficulty discerning when to trust predictions due to model complexity, underscoring addressing model complexity and providing transparent explanations as pivotal for facilitating high-quality decisions.

Many ML models offer probability estimates for predictions, commonly used in methods providing explanations to guide users on prediction confidence. However, these probabilities often do not accurately reflect the actual distribution in the data, leading to potential user misinterpretation of prediction trustworthiness. Additionally, most explanation methods fail to convey whether the model’s probability is linked to any uncertainty, further diminishing the reliability of the explanations.

Evaluating the quality of explanations for decision support is challenging, and although highlighted as essential in research, there are no benchmark criteria for comparative evaluations.

This thesis introduces an innovative explanation method that generates reliable explanations, incorporating uncertainty information supporting users in determining when to trust the model’s predictions. The thesis also outlines strategies for evaluating explanation quality and facilitating comparative evaluations. Through empirical evaluations and user studies, the thesis provides practical insights to support decision-making utilising complex ML models.

Abstract [sv]

Användningen av Artificiell intelligens (AI) har förändrat områden som diagnosticering av sjukdomar och försvar. Genom att använda sofistikerade maskininlärningsmodeller predicerar AI framtida händelser baserat på historisk data. Modellernas komplexitet resulterar samtidigt i utmanande beslutsprocesser när orsakerna till prediktionerna är svårbegripliga. Tidigare forskning pekar på användares problem att avgöra prediktioners tillförlitlighet på grund av modellkomplexitet och belyser vikten av att tillhandahålla transparenta förklaringar för att underlätta högkvalitativa beslut.

Många maskininlärningsmodeller erbjuder sannolikhetsuppskattningar för prediktionerna, vilket vanligtvis används i metoder som ger förklaringar för att vägleda användare om prediktionernas tillförlitlighet. Dessa sannolikheter återspeglar dock ofta inte de faktiska fördelningarna i datat, vilket kan leda till att användare felaktigt tolkar prediktioner som tillförlitliga. Därutöver förmedlar de flesta förklaringsmetoder inte om prediktionernas sannolikheter är kopplade till någon osäkerhet, vilket minskar tillförlitligheten hos förklaringarna.

Att utvärdera kvaliteten på förklaringar för beslutsstöd är utmanande, och även om det har betonats som avgörande i forskning finns det inga benchmark-kriterier för jämförande utvärderingar.

Denna avhandling introducerar en innovativ förklaringsmetod som genererar tillförlitliga förklaringar vilka inkluderar osäkerhetsinformation för att stödja användare att avgöra när man kan lita på modellens prediktioner. Avhandlingen ger också förslag på strategier för att utvärdera kvaliteten på förklaringar och underlätta jämförande utvärderingar. Genom empiriska utvärderingar och användarstudier ger avhandlingen praktiska insikter för att stödja beslutsfattande användande komplexa maskininlärningsmodeller.

sted, utgiver, år, opplag, sider
Jönköping: Jönköping University, Jönköping International Business School, 2023. s. 72
Serie
JIBS Dissertation Series, ISSN 1403-0470 ; 159
Emneord
Explainable Artificial Intelligence, Interpretable Machine Learning, Decision Support Systems, Uncertainty Estimation, Explanation Methods
HSV kategori
Identifikatorer
urn:nbn:se:hj:diva-62865 (URN)978-91-7914-031-1 (ISBN)978-91-7914-032-8 (ISBN)
Disputas
2023-12-12, B1014, Jönköping International Business School, Jönköping, 13:15 (engelsk)
Opponent
Veileder
Tilgjengelig fra: 2023-11-08 Laget: 2023-11-08 Sist oppdatert: 2023-11-08bibliografisk kontrollert

Open Access i DiVA

Fulltekst mangler i DiVA

Andre lenker

Forlagets fulltekst

Person

Löfström, HelenaHammar, KarlJohansson, Ulf

Søk i DiVA

Av forfatter/redaktør
Löfström, HelenaHammar, KarlJohansson, Ulf
Av organisasjonen

Søk utenfor DiVA

GoogleGoogle Scholar

doi
isbn
urn-nbn

Altmetric

doi
isbn
urn-nbn
Totalt: 175 treff
RefereraExporteraLink to record
Permanent link

Direct link
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annet format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annet språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf