kth.sePublikationer KTH
Driftmeddelande
För närvarande är det driftstörningar. Felsökning pågår.
Ändra sökning
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf
Similarity Learning for Spectral Clustering
KTH, Skolan för elektroteknik och datavetenskap (EECS), Datavetenskap, Programvaruteknik och datorsystem, SCS. Qamcom Research and Technology AB, Stockholm, Sweden.ORCID-id: 0000-0003-4984-029X
Uppsala University, Uppsala, Sweden.ORCID-id: 0000-0002-2891-5435
Qamcom Research and Technology AB, Stockholm, Sweden.ORCID-id: 0000-0001-6780-7755
KTH, Skolan för elektroteknik och datavetenskap (EECS), Datavetenskap, Programvaruteknik och datorsystem, SCS.ORCID-id: 0000-0003-4516-7317
2025 (Engelska)Ingår i: Discovery Science - 28th International Conference, DS 2025, Proceedings, Springer Nature , 2025, s. 207-221Konferensbidrag, Publicerat paper (Refereegranskat)
Abstract [en]

Spectral clustering is a widely adopted method capable of identifying complicated cluster boundaries. However, traditional spectral clustering requires the definition of a predefined similarity metric for constructing the Laplacian matrix, a requirement that limits flexibility and adaptability. Instead of predefining this metric upfront as a fixed parametric function, we introduce a novel approach that learns the optimal parameters of a similarity function through parameter optimization. This optimizes a similarity function to assign high similarity values to data pairs with shared discriminative features and low values to those without such features. Previous methods that adapt similarity measures typically treat their parameters as hyperparameters or rely on non-convex optimization strategies. However, these approaches are not well-suited for unsupervised scenarios, as they depend heavily on initial conditions and require labeled data for validation, which is unavailable in such settings. In contrast, our method employs convex optimization to learn the parameters of the similarity metrics directly, rather than treating them as hyperparameters. This enables robust and reliable unsupervised learning, making our approach particularly well-suited for spectral clustering. We validate the effectiveness and adaptability of our method on several benchmark datasets, demonstrating superior performance compared to existing techniques.

Ort, förlag, år, upplaga, sidor
Springer Nature , 2025. s. 207-221
Nyckelord [en]
Similarity Learning, Spectral Clustering
Nationell ämneskategori
Datavetenskap (datalogi) Datorgrafik och datorseende
Identifikatorer
URN: urn:nbn:se:kth:diva-372798DOI: 10.1007/978-3-032-05461-6_14Scopus ID: 2-s2.0-105020024626OAI: oai:DiVA.org:kth-372798DiVA, id: diva2:2014576
Konferens
28th International Conference on Discovery Science, DS 2025, Ljubljana, Slovenia, September 23-25, 2025
Anmärkning

Part of ISBN 9783032054609

QC 20251118

Tillgänglig från: 2025-11-18 Skapad: 2025-11-18 Senast uppdaterad: 2025-11-18Bibliografiskt granskad

Open Access i DiVA

Fulltext saknas i DiVA

Övriga länkar

Förlagets fulltextScopus

Person

Komini, VangjushGirdzijauskas, Sarunas

Sök vidare i DiVA

Av författaren/redaktören
Komini, VangjushKoriakina, NadezhdaRoy, DebadityaGirdzijauskas, Sarunas
Av organisationen
Programvaruteknik och datorsystem, SCS
Datavetenskap (datalogi)Datorgrafik och datorseende

Sök vidare utanför DiVA

GoogleGoogle Scholar

doi
urn-nbn

Altmetricpoäng

doi
urn-nbn
Totalt: 31 träffar
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf