Text

  • Studieort Gamma (Västerås campus)
Datum
  • 2024-01-30 13:15

Mir Riyanul Islam försvarar sin doktorsavhandling i datavetenskap

Mir Riyanul Islam försvarar sin doktorsavhandling i datavetenskap på MDU, kl. 13:15 den 30 januari 2024.

Avhandlingens titel är “Explainable Artificial Intelligence for Enhancing Transparency in Decision Support Systems”.

Utsedd opponent är Professor Kerstin Bach, Norwegian University of Science and Technology (Norge).

Betygsnämnden består av Professor Mark Sebastian Dougherty, Halmstads universitet; Professor Fredrik Heintz, Linköpings universitet; och Adjunct Professor Rafia Inam, KTH.

Reserv är Thomas Nolte, MDU.

Avhandlingen har serienummer 397.

 

Sammanfattning

Algoritmer för artificiell intelligens (AI) betraktas idag i allmänhet som avancerad teknik som hjälper till att fatta beslut med hög noggrannhet och precision. Dessa metoder ger dock ofta inte begriplig information om hur och varför beslutet fattades. På e-handelswebbplatser som Amazon, eBay etc. får användarna till exempel rekommendationer om att köpa vissa produkter utan att rekommendationerna motiveras eller förtydligas. Här behövs resonemang och förtydliganden för att göra AI-algoritmerna mer transparenta. Forskningsområdet eXplainable AI (XAI) omfattar metoder som avsevärt kommer att utöka den nuvarande karaktären hos AI-drivna beslutsstödsystem med ökad transparens. Beslutsstödsystem befinner sig fortfarande i utvecklingsfasen för många säkerhetskritiska områden, såsom luftfart, sjukvård, trafiksäkerhet etc. Den förbättrade transparensen hos beslutsstödsystem kommer att vara en viktig faktor för att göra dem operativa i verkliga tillämpningar genom att utesluta acceptans- och förtroendefrågor. Dessutom är det mindre troligt att certifieringsmyndigheter godkänner systemen för allmän användning efter det nuvarande mandatet om rätt till förklaring från Europeiska kommissionen.

Denna doktorsavhandling utnyttjar XAI-området med ett särskilt fokus på dess tillämpning för att förbättra transparensen inom beslutsstödsystem. Det centrala temat kretsar kring att överbrygga klyftan mellan de algoritmer som driver AI-system och behovet av transparens i beslutsprocesser. I studien undersöks flera avancerade XAI-metoder för att generera regler, orsaker och faktorer som förklaringar för att stödja ett beslut och göra dem begripliga för användarna. Dessutom utvecklas nya tillvägagångssätt och metoder för att generera bättre förklaringar för beslut och deras motsvarande utvärderingskriterier utvecklas också. Genom att använda dessa metoder och tekniker syftar forskningen till att ge slutanvändarna mänskligt begripliga förklaringar till de beslut som fattas av beslutsstödsystem. Studien utforskar inte bara de teoretiska grunderna för XAI utan undersöker också de praktiska implementeringarna och visar hur förklarade AI-system bidrar till användarnas förståelse och acceptans. Resultaten av detta avhandlingsarbete har demonstrerats med användningsfall för att integrera AI-modeller för att berika automatiserade beslutsprocesser inom tillämpningsdomänerna för trafiksäkerhet och flödeshantering av flygtrafik.

Kontaktinformation