Mid Sweden University

miun.sePublications
Change search
CiteExportLink to record
Permanent link

Direct link
Cite
Citation style
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Other style
More styles
Language
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Other locale
More languages
Output format
  • html
  • text
  • asciidoc
  • rtf
Djupinlärning och optimerarens inverkan: Jämförelse av optimerare i TensorFlow för CNN med användning av datamängder
Mid Sweden University, Faculty of Science, Technology and Media, Department of Computer and Electrical Engineering (2023-).
2023 (Swedish)Independent thesis Basic level (degree of Bachelor), 10 credits / 15 HE creditsStudent thesis
Abstract [sv]

Artificiell intelligens (AI) har under senaste åren blivit ett mer centralt begrepp hos allmänheten och används i flera olika områden såsom konstgenerering, artikelskrivande och underhållningsalgoritmer som väljer bäst lämpat innehåll för användaren. När det gäller att utveckla AI krävs maskininlärning och detta är vart rollen med optimerare kommer in. Optimerare uppdaterar det artificiella neurala nätverket där nätverket ligger till grund att maskininlärning fungerar. Det finns en mängd olika optimerare att välja emellan och olika optimerare har vissa skillnader på hur de påverkar nätverket. Ett typ av nätverk är faltande neurala nätverk (CNN) och används exempelvis till igenkänning och klassificering av bilder. Dess användbarhet finns i olika områden såsom ansiktsigenkänning, självkörande bilar och identifiering av objekt i bilder. Under arbetet skapades en faltande neuralt nätverk som testade olika optimerare för att sedan jämföra vilken som är bäst lämpad att använda för olika datamängder. Optimerarna som undersöktes var Adagrad, Adam, RMSProp och SGD. I slutet av arbetet märktes en annan påverkande faktor förutom datamängden vilket var inlärningshastigheten. Optimerarnas prestanda fungerade olika beroende på datamängden och inlärningshastigheten. Under arbetet studerades två olika inlärningshastigheter och två datamängder. En av datamängderna CIFAR10 fungerade bättre med olika optimerare beroende på olika ändamål. Den andra datamängden MNIST var bäst lämpad när optimerare RMSProp och Adam användes.

Abstract [en]

Artificial intelligence (AI) has in recent years become a more central concept in the public domain and is used in several different areas such as art generation, article writing and entertainment algorithms that select the most suitable content for the user. Machine learning is required when it comes to developing AI and this is where the optimizers role comes in. Optimizers updates the artificial neural network where the network is the foundation for machine learning to work. There are a variety of optimizers to choose from and different optimizers affect the network in different ways. One type of network is convolutional neural networks (CNN) and some usages are for example recognition and classification of images. It can be used in various fields such as facial recognition, self-driving cars and identification of objects in images. A convolutional neural network was constructed during the development of the project and various optimizers were tested. These optimizers where then compared to find which one was the most suited to use depending on different datasets. The optimizers that were studied was Adagrad, Adam, RMSProp and SGD. At the end of the study it was discovered that two factors affected the result which was the dataset and learning speed. These factors affected the performance of the optimizers. One of the datasets CIFAR10 performed better with different optimizers depending on different purposes it would be used for. The second dataset MNIST showed to be best suited when optimizers RMSProp and Adam were used.

Place, publisher, year, edition, pages
2023. , p. 77
National Category
Software Engineering
Identifiers
URN: urn:nbn:se:miun:diva-48585Local ID: DT-V23-G3-015OAI: oai:DiVA.org:miun-48585DiVA, id: diva2:1773391
Subject / course
Computer Engineering DT1
Educational program
Master of Science in Engineering - Computer Engineering TDTEA 300 higher education credits
Supervisors
Examiners
Available from: 2023-06-22 Created: 2023-06-22 Last updated: 2023-06-22Bibliographically approved

Open Access in DiVA

No full text in DiVA

Search in DiVA

By author/editor
Nilsson, Sofie
By organisation
Department of Computer and Electrical Engineering (2023-)
Software Engineering

Search outside of DiVA

GoogleGoogle Scholar

urn-nbn

Altmetric score

urn-nbn
Total: 73 hits
CiteExportLink to record
Permanent link

Direct link
Cite
Citation style
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Other style
More styles
Language
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Other locale
More languages
Output format
  • html
  • text
  • asciidoc
  • rtf