Endre søk
RefereraExporteraLink to record
Permanent link

Direct link
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annet format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annet språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf
Topics on Large Deviations in Artificial Intelligence
KTH, Skolan för teknikvetenskap (SCI), Matematik (Inst.), Matematisk statistik.ORCID-id: 0000-0001-9147-4022
2023 (engelsk)Doktoravhandling, med artikler (Annet vitenskapelig)
Abstract [en]

Artificial intelligence has become one of the most important fields of study during the last decade. Applications include medical sciences, autonomous vehicles, finance and everyday life. Therefore the analysis of convergence and stability of these algorithms is of utmost importance. One way of analysing the stability and speed of convergence is by the large deviations theory. In large deviations theory, a rate function characterises the exponential rate of convergence of stochastic processes. For example, by evaluating the rate function for stochastic approximation algorithms for training neural networks, faster convergence can be achieved. This thesis consists of five papers that use ideas from large deviation theory to understand and improve specific machine-learning models. 

Paper I proves that a stochastic approximation algorithm satisfies the large deviation principle with a specific rate function. This class of stochastic approximation contains many interesting learning algorithms, such as stochastic gradient descent, persistent contrastive divergence and the Wang-Landau algorithm.

Analysing the rate function from Paper I is not straightforward. In Paper II, we use tools from weak KAM theory to characterise the rate function. The rate function takes the form of a Lagrangian and can be evaluated by calculating the viscosity solution to the corresponding Hamilton-Jacobi equations. In Paper II, we also identify the projected Aubry set, a set of great importance when it comes to describing the viscosity solutions.  

Papers III, IV and V all involve Variational autoencoders (VAE), a generative deep learning model with a latent space structure. In Paper III, we develop an evaluation metric for VAEs based on large deviation theory. The idea is to measure the difference between the induced empirical measure and the prior on the latent space. This is done by training an adversarial deep neural network and proving a modified version of Sanov's theorem. 

Using the adversarial network from Paper III, we develop a stochastic interpolation algorithm for VAEs in Paper IV. The interpolation uses bridge processes and the adversarial network to construct paths that respects both the prior and generate high-quality interpolation paths.

Finally, in Paper V, a clustering algorithm is introduced. The VAE induces a probability distribution on the data space, and in this paper, we introduce an algorithm to estimate the gradient of the distribution. This leads to a stochastic approximation algorithm that gathers data in clusters. 

Abstract [sv]

Artificiell intelligens har blivit en av de viktigaste forskningsfälten de senaste åren. Användningsområden finns inom medicin forskning, självkörande fordon, finans samt vardagsbruk. Analysen av stabilitet och konvergens av dessa algoritmer har därför aldrig varit viktigare. Ett sätt att analysera dessa algoritmer är med hjälp av stora avvikelser teori. I stora avvikelser teori, en hastighets-funktion som karakteriserar den exponentiella konvergens hastigheten för stokastiska processer. Till exempel, genom att evaluera hastighets-funktionen för stokastisk approximations algoritmer för träning av neurala nätverk, snabbare konvergens kan uppnås. Den här avhandlingen består av fem artiklar som tar idéer från stora avvikelser teori för att förstå och förbättra utvalda maskininlärnings modeller. 

Artikel I bevisar att en stokastisk approximations algoritm uppfyller stora avvikelser principen med en specifik hastighest-funktion. Den här klassen av stokastisk approximation innehåller många intressanta maskininlärmnings metoder såsom, stokastisk gradient nedstigning, persistent contrastive divergence och Wang-Landau algoritmen. 

Att analysera hastighetsfunktionen från artikel I är inte enkelt. I artikel II, använder vi verktyg från svag KAM teori för att karakterisera hastighetsfunktionen. Hastighetsfunktionen är på formen av en Lagrangian och kan evalueras genom att hitta viscositetslösningar till motsvarande Hamilton-Jacobi ekvation. I Artikel II så identifierar vi den projicerade Aubry mängden, en mängd som är av stor vikt när det kommer till att beskriva viscositetslönsingar.

Artiklarna III, IV, V behandlar alla Variational autoencers (VAE), en generativ djup inlärningsmodell med latent variabel struktur. I Artikel III, utveklar vi en evaluerings metrik för VAEs baserat på stora aviklser teori. Ideen är att mäta skillnaden mellan den inducerade empiriska måttet och priori fördelningen på latenta rummet. Det åstakoms genom att träna ett adversalt nätverk och genom att bevisa en modifierad version av Sanovs sats. 

Genom att använda det adversala nätverket från artikel III vi utvecklar en stochastisk intepolations algoritm i artikel IV. Interpolations artikeln använder brygg processer och adversala nätverket för att generera interpolationer som respekterar priori fördelningen och genererar hög-kvalitativa trajektorier. 

Slutligen i artikel IV, introduceras en klustringsalgoritm. VAE inducerar en sannolikhetsförednling på data rummet, och i denna artikel, vi introducerar en algoritm för att estimera gradienten av fördelningen. Detta leder till stokastisk approximations algoritm som samlar datan i olika kluster.  

sted, utgiver, år, opplag, sider
KTH Royal Institute of Technology, 2023. , s. 189
Serie
TRITA-SCI-FOU ; 2023:49
HSV kategori
Forskningsprogram
Tillämpad matematik och beräkningsmatematik, Matematisk statistik
Identifikatorer
URN: urn:nbn:se:kth:diva-337383ISBN: 978-91-8040-711-3 (tryckt)OAI: oai:DiVA.org:kth-337383DiVA, id: diva2:1801669
Disputas
2023-10-27, F3, Lindstedtsvägen 26, Stockholm, 13:00 (engelsk)
Veileder
Forskningsfinansiär
Wallenberg AI, Autonomous Systems and Software Program (WASP)
Merknad

QC 2023-10-03

Tilgjengelig fra: 2023-10-03 Laget: 2023-10-02 Sist oppdatert: 2023-10-09bibliografisk kontrollert
Delarbeid
1. A weak convergence approach to large deviations for stochastic approximations
Åpne denne publikasjonen i ny fane eller vindu >>A weak convergence approach to large deviations for stochastic approximations
(engelsk)Manuskript (preprint) (Annet vitenskapelig)
Abstract [en]

Large deviations for stochastic approximations is a well-studied field that yields convergence properties for many useful algorithms in statistics, machine learning and statistical physics. In this article, we prove, under certain assumptions, a large deviation principle for a stochastic approximation with state-dependent Markovian noise and with decreasing step size. Common algorithms that satisfy these conditions include stochastic gradient descent, persistent contrastive divergence and the Wang-Landau algorithm. The proof is based don't he weak convergence approach to the theory of large deviations and uses a representation formula to rewrite the problem into a stochastic control problem. The resulting rate function is an action potential over a local rate function that is the Fenchel-Legendre transform of a limiting Hamiltonian.

HSV kategori
Forskningsprogram
Tillämpad matematik och beräkningsmatematik, Matematisk statistik
Identifikatorer
urn:nbn:se:kth:diva-337358 (URN)
Forskningsfinansiär
Wallenberg AI, Autonomous Systems and Software Program (WASP)
Merknad

QC 20231002

Tilgjengelig fra: 2023-10-02 Laget: 2023-10-02 Sist oppdatert: 2023-10-02bibliografisk kontrollert
2. On the projected Aubry set of the rate function associated with large deviations for stochastic approximations
Åpne denne publikasjonen i ny fane eller vindu >>On the projected Aubry set of the rate function associated with large deviations for stochastic approximations
(engelsk)Manuskript (preprint) (Annet vitenskapelig)
Abstract [en]

In this article, we look at the problem of minimizing an action potential that arises from large deviation theory for stochastic approximations. The solutions to the minimising problem satisfy, in the sense of a viscosity solution, a Hamilton-Jacobi equation. From weak KAM theory, we know that these viscosity solutions are characterised by the projected Aubryset. The main result of this paper is that, for a specific rate function corresponding to the astochastic approximation algorithm, we prove that the projected Aubry set is equal to the forward limit set to the limit ODE.

HSV kategori
Identifikatorer
urn:nbn:se:kth:diva-337360 (URN)
Forskningsfinansiär
Wallenberg AI, Autonomous Systems and Software Program (WASP)
Merknad

QC 20231002

Tilgjengelig fra: 2023-10-02 Laget: 2023-10-02 Sist oppdatert: 2023-10-02bibliografisk kontrollert
3. Large Deviation Techniques for Evaluating Variational Autoencoders
Åpne denne publikasjonen i ny fane eller vindu >>Large Deviation Techniques for Evaluating Variational Autoencoders
(engelsk)Manuskript (preprint) (Annet vitenskapelig)
Abstract [en]

Evaluating generative models have become an important task in modern machine learn-ing. Despite this, most existing evaluation metrics are constricted to specific types of data orrequire a supervised setting, limiting their usefulness in the general case. In this article, wetake inspiration from large deviation theory, to propose an evaluation score for variationalautoencoders. The metric evaluates the latent space of the variational autoencoder and istherefore independent of the type of data and works in a completely unsupervised setting.Experimental results on MNIST and Fashion-MNIST prove that this new large deviationscore has a high correlation with other well know evaluation metrics.

HSV kategori
Forskningsprogram
Tillämpad matematik och beräkningsmatematik, Matematisk statistik
Identifikatorer
urn:nbn:se:kth:diva-337357 (URN)
Forskningsfinansiär
Wallenberg AI, Autonomous Systems and Software Program (WASP)
Merknad

QC 20231002

Tilgjengelig fra: 2023-10-02 Laget: 2023-10-02 Sist oppdatert: 2023-10-02bibliografisk kontrollert
4. Particle Filter Bridge Interpolation
Åpne denne publikasjonen i ny fane eller vindu >>Particle Filter Bridge Interpolation
(engelsk)Manuskript (preprint) (Annet vitenskapelig)
HSV kategori
Identifikatorer
urn:nbn:se:kth:diva-295218 (URN)
Merknad

QC 20210519

Tilgjengelig fra: 2021-05-18 Laget: 2021-05-18 Sist oppdatert: 2023-10-02bibliografisk kontrollert
5. Variational Auto Encoder Gradient Clustering
Åpne denne publikasjonen i ny fane eller vindu >>Variational Auto Encoder Gradient Clustering
(engelsk)Manuskript (preprint) (Annet vitenskapelig)
HSV kategori
Identifikatorer
urn:nbn:se:kth:diva-295219 (URN)
Merknad

QC 20210519

Tilgjengelig fra: 2021-05-18 Laget: 2021-05-18 Sist oppdatert: 2023-10-02bibliografisk kontrollert

Open Access i DiVA

Fulltext(21161 kB)901 nedlastinger
Filinformasjon
Fil FULLTEXT01.pdfFilstørrelse 21161 kBChecksum SHA-512
b4b6ddeb2f54ec079857c7c613e3d7ff4712d2b3d74bfc0b0f781d0c48bbb225947807e8c4d33d144e1d71a1e449817d62ccb62dd6d8b829e0c3d144a22c6b26
Type fulltextMimetype application/pdf
Summary(1276 kB)584 nedlastinger
Filinformasjon
Fil FULLTEXT02.pdfFilstørrelse 1276 kBChecksum SHA-512
809e37546db37884a4ad90d3eb40a6f88f4aacf2b305caa1333ff9ee6b2f83dafe6db58591922c4fffb656198506999b587caa2e7ad73def90d05ccd7d478f37
Type fulltextMimetype application/pdf

Søk i DiVA

Av forfatter/redaktør
Lindhe, Adam
Av organisasjonen

Søk utenfor DiVA

GoogleGoogle Scholar
Totalt: 1485 nedlastinger
Antall nedlastinger er summen av alle nedlastinger av alle fulltekster. Det kan for eksempel være tidligere versjoner som er ikke lenger tilgjengelige

isbn
urn-nbn

Altmetric

isbn
urn-nbn
Totalt: 1068 treff
RefereraExporteraLink to record
Permanent link

Direct link
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annet format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annet språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf