Optimisation par descente de gradient stochastique de systemes modulaires combinant reseaux de neurones et programmation dynamique. Application a la reconnaissance de la parole
暂无分享,去创建一个
Ce memoire est consacre a l'etude de systemes modulaires associant reseaux de neurones (mlp) et programmation dynamique (dp), ainsi qu'a leur application a la reconnaissance de la parole. Il est divise en trois parties. La premiere partie traite des fondements. Il arrive qu'un probleme n'ait pas trouve de solution analytique mais soit decrit par des exemples et par un critere d'erreur, permettant l'usage de procedures de descente de gradient stochastique. Nous etablissons un nouveau theoreme de convergence generalisant le theoreme de bottou. La reconnaissance des formes emploie generalement des criteres d'erreur constants par paliers, impropres a l'optimisation par descente de gradient. Il faut contourner le probleme, via les probabilites a posteriori ou via les vraissemblances conditionnelles ou encore en lissant le risque empirique: nous introduisons lvq2+. La deuxieme partie est consacree aux algorithmes, notamment systemes modulaires pour la reconnaissance de formes temporelles. Nous mettons en evidence le codage ponctuel, phenomene d'abberration propre aux systemes compose d'un filtre suivit d'un module de plus-proches voisins. Nous proposons deux familles de solutions dont l'usage de criteres d'erreur adimensionels tels que lvq2+. Ceci permet d'optimiser des systemes modulaires combinant un filtre neuronal mlp avec un module plus proche voisin dont la metrique est induite par la programmation dynamique dp. La troisieme partie est consacree a une tache reelle de reconnaissance de la parole. Nous comparons differents systemes: dp, reseaux neuronaux a delais, reseaux recurrents, kmeans, lvq nos systemes modulaires divisent par trois l'erreur des autres systemes. L'optimisation simultanee des differents modules permet au module dp de se contenter d'une reference par classe