The major challenges in implementing machine learning models in medical applications stemfrom ethical and accountability concerns, which arise from the lack of insight and understandingof the models' inner workings and reasoning. This opaqueness has resulted in the emergenceof a new subfield of machine learning called Explainability, which aims to develop and deploymethods to gain insight into how input data is weighted and propagated through a machinelearning algorithm.This paper aims to examine the viability of certain explainability methods when applied tocardiovascular diagnostics. The machine learning models that were implemented andsubsequently evaluated include Logistic Regression, Decision Trees, and Random Forests.Methods such as Feature Importance plots, Lasso Regularization (L1 norm), and SequentialFeature Selection were applied to achieve better interpretation of these models.The results indicate that different models and forms of regularization prioritize various inputfeatures more heavily than others, even when trained on identical data. A consistent findingacross all models, except for Logistic Regression with Lasso regularization, was the ability tosignificantly reduce the dimensionality of the input feature space without substantial loss inmodel test performance. This allows for the isolation of specific features, thereby enhancinginsight into and improving a model's interpretability.Systolic and diastolic blood pressure along with cholesterol values were the two main inputfeatures that determined a patients cardiovascular diagnosis.
De största utmaningarna vid implementering av maskininlärningsmodeller i medicinskatillämpningar härrör från etiska och ansvarsfrågor, som uppstår på grund av bristande insikt ochförståelse för modellernas inre funktion och resonemang. Denna opakhet har resulterat iframväxten av en ny underkategori inom maskininlärning kallad Förklarbarhet (Explainability),som syftar till att utveckla och tillämpa metoder för att få insikt i hur indataviktning och spridningsker genom en maskininlärningsalgoritm.Denna studie ämnar undersöka genomförbarheten av vissa förklarbarhetsmetoder när detillämpas på kardiovaskulär diagnostik. De maskininlärningsmodeller som implementerades ochutvärderades inkluderade logistisk regression, beslutsträd och random forests. Metoder såsomFeature Importance-diagram, Lasso-regularisering (L1-norm) och sekventiell egenskapsurvaltillämpades för att uppnå bättre tolkning av dessa modeller. Resultaten visar att olika modelleroch former av regularisering prioriterar olika indatavariabler mer än andra, även när de tränaspå identiska data. En konsekvent upptäckt för alla modeller, förutom logistisk regression medLasso-regularisering, var förmågan att avsevärt minska dimensionaliteten i indatavariabelrymden utan betydande förlust i modelltestprestanda. Detta möjliggör isolering avspecifika variabler, vilket förbättrar insikten och tolkningsbarheten för en modell. Systoliskt ochdiastoliskt blodtryck samt kolesterolvärden var de två huvudsakliga indatavariablerna somavgjorde en patients kardiovaskulära diagnos.