On the Readability of Deep Learning Models: the role of Kernel-based Deep Architectures [chapter]

Danilo Croce, Daniele Rossini, Roberto Basili
2018 Proceedings of the Fifth Italian Conference on Computational Linguistics CLiC-it 2018  
English. Deep Neural Networks achieve state-of-the-art performances in several semantic NLP tasks but lack of explanation capabilities as for the limited interpretability of the underlying acquired models. In other words, tracing back causal connections between the linguistic properties of an input instance and the produced classification is not possible. In this paper, we propose to apply Layerwise Relevance Propagation over linguistically motivated neural architectures, namely Kernel-based
more » ... ely Kernel-based Deep Architectures (KDA), to guide argumentations and explanation inferences. In this way, decisions provided by a KDA can be linked to the semantics of input examples, used to linguistically motivate the network output. Italiano. Le Deep Neural Network raggiungono oggi lo stato dell'arte in molti processi di NLP, ma la scarsa interpretabilitá dei modelli risultanti dall'addestramento limita la comprensione delle loro inferenze. Noné possibile cioé determinare connessioni causali tra le proprietá linguistiche di un esempio e la classificazione prodotta dalla rete. In questo lavoro, l'applicazione della Layerwise Relevance Propagation alle Kernel-based Deep Architecture(KDA) e usata per determinare connessioni tra la semantica dell'input e la classe di output che corrispondono a spiegazioni linguistiche e trasparenti della decisione.
doi:10.4000/books.aaccademia.3250 fatcat:gaj42v6vvzd4rdyd743tsxliri