Explainable Artificial Intelligence for Telecommunications
2026 (English)Doctoral thesis, comprehensive summary (Other academic)
Sustainable development
SDG 9: Industry, innovation and infrastructure, SDG 12: Responsible consumption and production, SDG 5: Gender equality, SDG 10: Reduced inequalities, SDG 16: Peace, justice and strong institutions
Abstract [en]
Artificial Intelligence (AI) is a key driver of technological development in many industrial sectors. It is being embedded into many components of telecommunications networks to optimize their functionality in various ways. AI technologies are advancing rapidly, with increasingly sophisticated techniques being introduced. Therefore, understanding how an AI model operates and arrives at its output is crucial to ensure the integrity of the overall system. One way to achieve this is by applying Explainable Artificial Intelligence (XAI) techniques to generate information about the operation of an AI model. This thesis develops and evaluates XAI techniques to improve the transparency of AI models.
In supervised learning, several XAI methods that compute feature importance were applied to identify the root cause of network operation issues. Their characteristics were compared and analyzed for local, cohort, and global scopes. However, the generated attributive explanations do not provide actionable insight to resolve the underlying issue. Therefore, another type of explanation, namely counterfactual, was explored during the study. This type of explanation indicates the changes necessary to obtain a different result. Counterfactual explanations were utilized to prevent potential issues such as Service Level Agreement (SLA) violations from occurring. This method was shown to significantly reduce SLA violations in an emulated network, but requires explanation-to-action conversion.
Unlike the previous method, a Reinforcement Learning (RL) agent can perform an action in its environment to achieve its goal, eliminating the need for explanation-to-action conversion. Therefore, understanding its behavior becomes important, especially when it controls a critical infrastructure. In this thesis, two state-of-the-art Explainable Reinforcement Learning (XRL) methods, namely reward decomposition and Autonomous Policy Explanation (APE), were investigated and implemented to generate explanations for different users, technical and non-technical, respectively. While the reward decomposition explains the output of a model and the feature attribution explains the input, the connection between them was missing in the literature. In this thesis, the combination of feature importance and reward decomposition methods was proposed to generate detailed explanations as well as to identify and mitigate bias in the AI models. In addition, a detailed contrastive explanation can be generated to explain why an action is preferred over another. For non-technical users, APE was integrated with the attribution method to generate explanations for a certain condition. APE was also integrated with a counterfactual method to generate a meaningful explanation. However, APE has a limitation in scaling up with the number of predicates. Therefore, an alternative textual explainer, namely Clustering-Based Summarizer (CBS), was proposed to address this limitation. The evaluation of textual explanations is limited in the literature. Therefore, a rule extraction technique was proposed to evaluate textual explanations based on their characteristics, fidelity, and performance. In addition, two refinement techniques were proposed to improve the F1 score and reduce the number of duplicate conditions.
In summary, this thesis has developed the following contributions: a) implementation and analysis of different XAI methods; b) methods to utilize explanations and explainers; c) evaluation methods for AI explanations; and d) methods to improve explanation quality. This thesis revolves around network automation in the telecommunications field. The explainability methods for supervised learning were applied to a network slice assurance use case, and for reinforcement learning, it was applied to a network optimization use case (namely, Remote Electrical Tilt (RET)). In addition, applications in other open-source environments were also presented, showing broader applications in different use cases.
Abstract [sv]
Artificiell Intelligens (AI) är en viktig drivkraft för teknologisk utveckling inom många industriella sektorer. Den implementeras i många delar av telekommunikationsnätverk för att optimera deras funktionalitet på olika sätt. AI-teknologier utvecklats snabbt, med alltmer sofistikerade tekniker som introduceras. Därför är det avgörande att förstå hur en AI-modell fungerar och kommer fram till sitt resultat för att säkerställa systemets integritet. Ett sätt att uppnå detta är att tillämpa förklarbara-AI-tekniker för att generera information om en AI-modells funktion. Denna avhandling utvecklar och utvärderar förklarbara-AI-tekniker för att förbättra transparensen hos AI-modeller.
Inom övervakad inlärning tillämpades flera förklarbara-AI-metoder som beräknar variabelsviktighet för att identifiera den bakomliggande orsaken till nätverksdriftsproblem. Deras egenskaper jämfördes och analyserades på lokal, grupp- och global nivå. Dock ger de genererade attributiva förklaringarna ingen handlingsbar insikt för att lösa det underliggande problemet. Därför utforskades en annan typ av förklaring, nämligen kontrafaktisk, under studien. Den här typen av förklaring indikerar de förändringar som krävs för att erhålla ett annat resultat. Kontrafaktiska förklaringar användes för att förhindra potentiella problem, såsom brott mot servicenivåavtal (Service Level Agreements, SLA). Den här metoden visade sig minska SLA-överträdelser i ett emulerat nätverk avsevärt, men kräver en konvertering från förklaring till handling.
Till skillnad från den tidigare metoden kan en förstärkningsinlärningsagent utföra en handling i sin miljö för att uppnå sitt mål, vilket eliminerar behovet av konvertering från förklaring till handling. Därför blir det viktigt att förstå dess beteende, särskilt när den styr en kritisk infrastruktur. I denna avhandling undersöktes och implementerades två nya metoder för förklarbar förstärkningsinlärning, nämligen belöningsdekomposition och Autonomous Policy Explanation (APE), för att generera förklaringar för olika användare, tekniska och icke-tekniska. Medan belöningsdekomposition förklarar en modells utdata och variabelsattribution förklarar indata, saknades kopplingen mellan dessa i litteraturen. I denna avhandling föreslogs en kombination av metoder för variabelsviktighet och belöningsdekomposition för att generera detaljerade förklaringar samt för att identifiera och mildra bias i AI-modellerna. Dessutom kan en detaljerad kontrastiv förklaring genereras för att förklara varför en åtgärd föredras framför en annan. För icke-tekniska användare integrerades APE med attributmetoden för att generera förklaringar för ett visst tillstånd. APE integrerades också med en kontrafaktisk metod för att skapa en meningsfull förklaring. Dock har APE en begränsning när det gäller skalbarhet med antalet predikat. Därför föreslogs en alternativ textförklarare, nämligen Clustering-Based Summarizer (CBS), för att hantera denna begränsning. Utvärderingen av textuella förklaringar är begränsad i litteraturen. Därför föreslogs en regelutvinningsmetod för att utvärdera textuella förklaringar baserat på deras egenskaper, tillförlitlighet och prestanda.Dessutom föreslogs två förfiningstekniker för att förbättra F1-poängen och minska antalet duplicerade villkor.
Sammanfattningsvis, avhandlingen har utvecklat följande bidrag: a) implementering och analys av olika förklarbara-AI-metoder; b) metoder för att använda förklaringar och förklarare; c) utvärderingsmetoder för AI-förklaringar; och d) metoder för att förbättra förklaringars kvalitet. Avhandlingen kretsar kring nätverksautomation inom telekommunikationsområdet. Förklaringsbarhetsmetoderna för övervakad inlärning tillämpades på ett fall för nätverksskiveförsäkran, och för förstärkningsinlärning tillämpades de på ett nätverksoptimeringsfall (nämligen fjärrstyrd elektrisk tilt). Dessutom presenterades tillämpningar i andra öppna miljöer, vilket visar bredare användningsområden i olika tillämpningsfall.
Place, publisher, year, edition, pages
Stockholm, Sweden: KTH Royal Institute of Technology, 2026. , p. 68
Series
TRITA-ITM-AVL ; 2026:3
Keywords [en]
Artificial Intelligence, Explainability, Supervised Learning, Reinforcement Learning, Network Slice Assurance, Network Optimization, Telecommunications
Keywords [sv]
Artificiell intelligens, Förklarbarhet, Övervakad inlärning, Förstärkande inlärning, Nätverk Slice Assurance, Nätverksoptimering, Telekommunikation
National Category
Computer Sciences Telecommunications Artificial Intelligence
Research subject
Machine Design
Identifiers
URN: urn:nbn:se:kth:diva-375341ISBN: 978-91-8106-506-0 (print)OAI: oai:DiVA.org:kth-375341DiVA, id: diva2:2027356
Public defence
2026-02-06, F3 / https://kth-se.zoom.us/j/63010540491, Lindstedtsvägen 26 & 28, Stockholm, 09:30 (English)
Opponent
Supervisors
Funder
Wallenberg AI, Autonomous Systems and Software Program (WASP)2026-01-132026-01-122026-02-02Bibliographically approved
List of papers