Optimisation des hyperparamètres pour la classification des virus

Belarbi, Faten (2019). « Optimisation des hyperparamètres pour la classification des virus » Mémoire. Montréal (Québec, Canada), Université du Québec à Montréal, Maîtrise en informatique.

Fichier(s) associé(s) à ce document :
[img]
Prévisualisation
PDF
Télécharger (10MB)

Résumé

La plupart des algorithmes d'apprentissage automatique dépendent étroitement de la configuration manuelle de leurs hyperparamètres pour assurer une évaluation fiable de chaque ensemble de données particulier. Le choix des valeurs de ces hyperparamètres est rarement mis en valeur, il est présenté comme accessoire à l'algorithme mais ce choix est souvent étroitement lié à la qualité des résultats obtenus. Généralement, chaque fois qu'on change le problème, les données ou l'algorithme d'apprentissage, il devient nécessaire de réassigner les valeurs des hyperparamètres sans qu'il y ait une science exacte pour nous guider dans ce choix. Ce processus dépend de l'expérience personnelle de l'expert et repose beaucoup sur l'intuition. Il est assez difficile à le quantifier ou à le décrire. Ainsi étant donné que la performance d'une technique dépend de plusieurs choix, il est parfois difficile de trancher si elle est vraiment meilleure ou simplement mieux réglée. Dans ce travail, nous nous concentrons sur une tâche fondamentale dans l'apprentissage automatique : l'optimisation de la classification dans un ensemble ouvert. Nous travaillons sur des données de séquences virales comme un domaine d'application. Nous utilisons Galaxy-X, une approche de classification pour les problèmes de classification dans un espace ouvert comme exemple à optimiser. Pour chaque classe de l'ensemble d'apprentissage, cet outil crée une hypersphère de délimitation avec un rayon minimal qui englobe sa distribution en contenant toutes ses instances. De cette manière, il est capable de distinguer des instances appartenant à ces classes précédemment vues de celles qui sont nouvelles ou inconnues. Notre approche consiste à utiliser plusieurs méthodes d'optimisation et à comparer leurs résultats. Les méthodes présentées dans ce travail sont : la recherche exhaustive, l'algorithme de descente, l'optimisation bayésienne, ainsi qu'un nouvel algorithme que nous présentons : la recherche paramètre par paramètre. Les résultats expérimentaux sur les ensembles de données de référence et sur des données virales nous ont permis de faire une comparaison entre la performance de plusieurs algorithmes d'optimisation. _____________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : réglage automatique des hyperparamètres, classification dans un ensemble ouvert, optimisation des hyperparamètres, optimisation bayésienne, recherche exhaustive, algorithme de descente, apprentissage automatique automatisé, apprentissage autonome

Type: Mémoire accepté
Informations complémentaires: Le mémoire a été numérisé tel que transmis par l'auteur.
Directeur de thèse: Diallo, Abdoulaye Baniré
Mots-clés ou Sujets: Algorithmes d'apprentissage automatique / Classification automatique / Hyperparamètres / Virus -- Classification
Unité d'appartenance: Faculté des sciences > Département d'informatique
Déposé par: Service des bibliothèques
Date de dépôt: 15 juill. 2020 14:08
Dernière modification: 15 juill. 2020 14:08
Adresse URL : http://archipel.uqam.ca/id/eprint/13417

Statistiques

Voir les statistiques sur cinq ans...