Performance Analysis of GNNs Under Varying Model Depth and Hyperparameters
2025 (English)Independent thesis Basic level (degree of Bachelor), 10 credits / 15 HE credits
Student thesis
Abstract [en]
This project aimed to develop a solid understanding of the theory behind Graph Neural Networks (GNNs) and gain practical experience implementing them. A small-scale literature review of GNNs was first conducted in the form of a theoretical background, followed by implementing multiple models where model design and hyperparameters were varied using PyTorch Geometric. Graph Convolutional Networks (GCNs) were specifically implemented, varying the number of message passing layers, dropout rates, and optimizer choices to observe how these decisions affected performance. Model depth negatively impacted performance, likely due to over-smoothing. The other experimental results did not reveal large performance differences across different dropout rates and optimizers, but key limitations in the methodology were identified that likely influenced these outcomes. Nevertheless, the models performed very well compared to other implementations, with the best test accuracy at 81.9\%. This is close to state-of-the-art performance despite the relatively simple approach. The project highlights both the accessibility and the complexity of designing and training GNNs.
Abstract [sv]
Målet med detta projekt var att få en förståelse för teorin bakom Grafiska Neurala Nätverk (GNNs) samt att få praktisk erfarenhet av att implementera dem. Projektet började med en mindre litteraturstudie i form av en teoretisk bakgrund, följt av implementationen av flera modeller där designval och hyperparametrar varierades med hjälp av PyTorch Geometric. Graph Convolutional Networks (GCNs) implementerades specifikt, där antalet lager för message passing, dropout-nivåer och val av optimeringsalgoritm varierades för att undersöka hur dessa val påverkade prestandan. Modellens djup påverkade prestandan negativt, sannolikt på grund av "over-smooothing". De övriga experimentella resultaten visade inte stora prestandaskillnader mellan olika dropout-nivåer och optimeringsalgoritmer, men viktiga metodologiska begränsningar identifierades som sannolikt påverkade resultaten. Trots detta presterade modellerna mycket väl i jämförelse med andra implementationer, med den bästa "test-accuracy" på 81,9\%. Detta är nära state-of-the-art-prestanda trots den relativt enkla metoden. Projektet belyser både tillgängligheten och komplexiteten i att designa och träna GNNs.
Place, publisher, year, edition, pages
2025. , p. 427-435
Series
TRITA-EECS-EX ; 2025:141
National Category
Electrical Engineering, Electronic Engineering, Information Engineering
Identifiers
URN: urn:nbn:se:kth:diva-376124OAI: oai:DiVA.org:kth-376124DiVA, id: diva2:2034028
Supervisors
Examiners
Projects
Kandidatexamensarbete i Elektroteknik 2025, EECS, KTH2026-01-302026-01-30