W zależności od ilości danych do przetworzenia generowanie pliku może się wydłużyć.

Jeśli generowanie trwa zbyt długo można ograniczyć dane np. zmniejszając zakres lat.

Artykuł

Pobierz BibTeX

Tytuł

Why did AI get this one wrong? - Tree-based explanations of machine learning model predictions

Autorzy

[ 1 ] Instytut Informatyki, Wydział Informatyki i Telekomunikacji, Politechnika Poznańska | [ P ] pracownik

Dyscyplina naukowa (Ustawa 2.0)

[2.3] Informatyka techniczna i telekomunikacja

Rok publikacji

2023

Opublikowano w

Artificial Intelligence in Medicine

Rocznik: 2023 | Tom: vol. 135

Typ artykułu

artykuł naukowy

Język publikacji

angielski

Słowa kluczowe
EN
  • XAI
  • Black-box
  • Explanation
  • Local explanation
  • Interpretable
  • Explainable
  • Fidelity
  • Reliability
  • Post-hoc
  • Model agnostic
  • Surrogate model
Streszczenie

EN Increasingly complex learning methods such as boosting, bagging and deep learning have made ML models more accurate, but harder to interpret and explain, culminating in black-box machine learning models. Model developers and users alike are often presented with a trade-off between performance and intelligibility, especially in high-stakes applications like medicine. In the present article we propose a novel methodological approach for generating explanations for the predictions of a generic machine learning model, given a specific instance for which the prediction has been made. The method, named AraucanaXAI, is based on surrogate, locally-fitted classification and regression trees that are used to provide post-hoc explanations of the prediction of a generic machine learning model. Advantages of the proposed XAI approach include superior fidelity to the original model, ability to deal with non-linear decision boundaries, and native support to both classification and regression problems. We provide a packaged, open-source implementation of the AraucanaXAI method and evaluate its behaviour in a number of different settings that are commonly encountered in medical applications of AI. These include potential disagreement between the model prediction and physician’s expert opinion and low reliability of the prediction due to data scarcity.

Data udostępnienia online

01.12.2022

Strony (od-do)

102471-1 - 102471-9

DOI

10.1016/j.artmed.2022.102471

URL

https://www.sciencedirect.com/science/article/pii/S0933365722002238

Uwagi

Article Number: 102471

Typ licencji

CC BY-NC-ND (uznanie autorstwa - użycie niekomercyjne - bez utworów zależnych)

Tryb otwartego dostępu

czasopismo hybrydowe

Wersja tekstu w otwartym dostępie

ostateczna wersja opublikowana

Czas udostępnienia publikacji w sposób otwarty

przed opublikowaniem

Punktacja Ministerstwa / czasopismo

100

Impact Factor

7,5 [Lista 2022]

Ta strona używa plików Cookies, w celu zapamiętania uwierzytelnionej sesji użytkownika. Aby dowiedzieć się więcej przeczytaj o plikach Cookies i Polityce Prywatności.