Metody vysvětlitelnosti chování neuronových sítí – Bc. Vojtěch Krajňanský
Bc. Vojtěch Krajňanský
Master's thesis
Metody vysvětlitelnosti chování neuronových sítí
Neural Networks Explainability Methods
Abstract:
Velice komplexní hluboké neuronové sítě a další neprůhledné prediktivní modely se dnes stále častěji objevují jako součást softwarových produktů. Společně s tímto faktem roste potřeba schopnosti člověka vysvětlit jejich rozhodovací postupy. V posledních letech se rodí disciplína vysvětlitelné umělé inteligence, mezi jejími cíli zajištění korektnost procesů vedoucích k učinění rozhodnutí, odhalení nezamýšleně …moreAbstract:
As extremely complex deep neural networks and other opaque decision-making models become progressively ubiquitous, the need for the ability of humans to explain the decision making process is quickly gaining importance. The field of explainable artificial intelligence emerges, its goals to ensure the correctness of the process leading to a certain conclusion, detect unintended algorithmic biases or …more
Language used: English
Date on which the thesis was submitted / produced: 7. 1. 2021
Identifier:
https://is.muni.cz/th/etz46/
Thesis defence
- Date of defence: 10. 2. 2021
- Supervisor: RNDr. Tomáš Rebok, Ph.D.
- Reader: doc. RNDr. Petr Holub, Ph.D.
Citation record
Full text of thesis
Contents of on-line thesis archive
Published in Theses:- světu
Other ways of accessing the text
Institution archiving the thesis and making it accessible: Masarykova univerzita, Fakulta informatikyMasaryk University
Faculty of InformaticsMaster programme / field:
Applied Informatics / Service Science, Management and Engineering
Theses on a related topic
-
Histopathology analysis using Vision Transformers
Tomáš Repák -
Explainability of Deep Learning for Genomic sequences
Jakub Poláček -
Deep Reinforcement Learning for Decision Neuroscience
Faizanshaikh Abdulkhalil SHAIKH