Endre søk
RefereraExporteraLink to record
Permanent link

Direct link
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annet format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annet språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf
Jämförande undersökning av Gemini Ultra och GPT-4 med avseende på integrering inom en matematiskt pedagogisk verksamhet
KTH, Skolan för elektroteknik och datavetenskap (EECS).
KTH, Skolan för elektroteknik och datavetenskap (EECS).
2024 (engelsk)Independent thesis Basic level (degree of Bachelor), 10 poäng / 15 hpOppgaveAlternativ tittel
Comparative Evaluation of Gemini Ultra and GPT-4 for Mathematical Pedagogical Integration (engelsk)
Abstract [en]

This study investigates the potential of two state-of-the-art AI-based language models, OpenAI’s GPT-4 and Google’s Gemini Ultra, to improve math performance among Swedish students. In light of the latest PISA 2022 results, which show a decline in mathematical performance, the need for innovative and effective educational tools more evident than ever. The study focuses on the implementation of these language models within Mattecoach.se, a digital platform offering math assistance, and evaluates their ability to deliver pedagogically relevant and mathematically accurate answers. By integrating AI into the education sector, the study explores opportunities to relieve teachers and create a more adaptive and responsive learning environment. To assess the mathematical competence of the language models, responses were generated for 136 different math questions from national exams at the secondary and high school levels. With the assistance of employees at Mattecoach.se, these responses were evaluated to determine both the mathematical accuracy and the pedagogical adequacy of the language models. The results of the study indicate that GPT-4 performed better in terms of mathematical accuracy, with 79% correct answers, while Gemini Ultra achieved only 57% correct answers. The inability to consistently produce correct answers is reflected in the operational feedback, as employees do not see as much value in using AI if the answers may not be reliable.

Abstract [sv]

Denna studie undersöker potentialen hos två state of the art AI-baserade språkmodeller, OpenAI:s GPT-4 och Google:s Gemini Ultra, för att förbättra matematikresultaten bland svenska grundskole- och gymnasieelever. Mot bakgrund av de senaste resultaten från PISA 2022, vilka visar på en nedgång i matematiska prestationer, är behovet av innovativa och effektiva pedagogiska verktyg tydligare än någonsin. Studien fokuserar på implementeringen av dessa språkmodeller inom Mattecoach.se, en digital plattform som erbjuder matematikhjälp, och utvärderar deras förmåga att leverera pedagogiskt relevanta och matematiskt korrekta svar. Genom att integrera AI i utbildningssektorn undersöker studien möjligheter att avlasta lärare och skapa en mer adaptiv och responsiv läromiljö. För att utvärdera språkmodellernas matematiska kompetens genererades svar till 136 olika matematikfrågor från nationella prov på högstadiet och gymnasienivå. Med assistans från anställda inom Mattecoach.se bedömdes dessa svar för att fastställa både den matematiska korrektheten och den pedagogiska skickligheten hos språkmodellerna. Resultatet av studien är att GPT-4 presterade bättre på matematisk korrekthet med 79% korrekta svar medan Gemini Ultra bara hade 57% korrekta svar. Bristen av att konsekvent kunna producera korrekta svar avspeglas i verksamheten i form av att medarbetarna inte ser lika stort värde i att använda AI om svaren kanske inte stämmer.

sted, utgiver, år, opplag, sider
2024. , s. 10
Serie
TRITA-EECS-EX ; 2024:416
Emneord [en]
Artificial Intelligence (AI), Educational Technology, Pedagogy, GPT-4, Gemini Ultra, AI in Education, Digital Learning Tools, Interactive Learning Environments, Personalized Learning, Online Learning Platforms, Human-Computer Interaction in Education, Computational Pedagogy, AI-Enhanced Learning, Mathematics Education, Semi-Automated Responses
HSV kategori
Identifikatorer
URN: urn:nbn:se:kth:diva-351223OAI: oai:DiVA.org:kth-351223DiVA, id: diva2:1886725
Veileder
Examiner
Tilgjengelig fra: 2024-09-19 Laget: 2024-08-03 Sist oppdatert: 2024-09-19bibliografisk kontrollert

Open Access i DiVA

fulltext(337 kB)63 nedlastinger
Filinformasjon
Fil FULLTEXT01.pdfFilstørrelse 337 kBChecksum SHA-512
2ac5bdf026c83f9cd3c23db4262c7b197991986acd935b972516aa2742f1c1a18d6fbe2f9d42c17149ce565a815b4be676be1cf79a953cb482df0fb9dea1e7e9
Type fulltextMimetype application/pdf

Av organisasjonen

Søk utenfor DiVA

GoogleGoogle Scholar
Totalt: 63 nedlastinger
Antall nedlastinger er summen av alle nedlastinger av alle fulltekster. Det kan for eksempel være tidligere versjoner som er ikke lenger tilgjengelige

urn-nbn

Altmetric

urn-nbn
Totalt: 170 treff
RefereraExporteraLink to record
Permanent link

Direct link
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annet format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annet språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf