Metody vysvětlitelnosti chování neuronových sítí – Bc. Vojtěch Krajňanský
Bc. Vojtěch Krajňanský
Diplomová práce
Metody vysvětlitelnosti chování neuronových sítí
Neural Networks Explainability Methods
Anotace:
Velice komplexní hluboké neuronové sítě a další neprůhledné prediktivní modely se dnes stále častěji objevují jako součást softwarových produktů. Společně s tímto faktem roste potřeba schopnosti člověka vysvětlit jejich rozhodovací postupy. V posledních letech se rodí disciplína vysvětlitelné umělé inteligence, mezi jejími cíli zajištění korektnost procesů vedoucích k učinění rozhodnutí, odhalení nezamýšleně …víceAbstract:
As extremely complex deep neural networks and other opaque decision-making models become progressively ubiquitous, the need for the ability of humans to explain the decision making process is quickly gaining importance. The field of explainable artificial intelligence emerges, its goals to ensure the correctness of the process leading to a certain conclusion, detect unintended algorithmic biases or …více
Jazyk práce: angličtina
Datum vytvoření / odevzdání či podání práce: 7. 1. 2021
Identifikátor:
https://is.muni.cz/th/etz46/
Obhajoba závěrečné práce
- Obhajoba proběhla 10. 2. 2021
- Vedoucí: RNDr. Tomáš Rebok, Ph.D.
- Oponent: doc. RNDr. Petr Holub, Ph.D.
Plný text práce
Obsah online archivu závěrečné práce
Zveřejněno v Theses:- světu
Jak jinak získat přístup k textu
Instituce archivující a zpřístupňující práci: Masarykova univerzita, Fakulta informatikyMasarykova univerzita
Fakulta informatikyMagisterský studijní program / obor:
Aplikovaná informatika / Služby - výzkum, řízení a inovace
Práce na příbuzné téma
-
Histopathology analysis using Vision Transformers
Tomáš Repák -
Explainability of Deep Learning for Genomic sequences
Jakub Poláček -
Deep Reinforcement Learning for Decision Neuroscience
Faizanshaikh Abdulkhalil SHAIKH