• Medientyp: Sonstige Veröffentlichung; Elektronische Hochschulschrift; E-Book
  • Titel: Contributions to reliable machine learning via false discovery rate control ; Contributions à l'apprentissage automatique fiable via le contrôle du taux de fausses découvertes
  • Beteiligte: Marandon-Carlhian, Ariane [VerfasserIn]
  • Erschienen: theses.fr, 2023-09-29
  • Sprache: Englisch
  • Schlagwörter: Novelty detection ; Taux de fausses découvertes ; Multiple testing ; Clustering ; False discovery rate ; Link prediction ; Tests multiples ; Détection de nouveautés ; Prédiction de liens
  • Entstehung:
  • Anmerkungen: Diese Datenquelle enthält auch Bestandsnachweise, die nicht zu einem Volltext führen.
  • Beschreibung: La fiabilité des méthodes de ML est essentielle dans les applications qui impliquent une prise de décision. L'objectif de cette thèse est de proposer de nouvelles méthodes pour le contrôle du risque dans plusieurs tâches d'apprentissage : la détection de nouveautés, le clustering et la prédiction de liens. Notre idée générale est d'améliorer les méthodes de ML existantes pour ces tâches en développant une couche supplémentaire qui fournit une garantie interprétable sur le taux d'erreur. Pour ce faire, nous formalisons le contrôle du risque dans une tâche d'apprentissage donnée comme un certain problème de contrôle du taux de fausses découvertes (FDR) et nous utilisons des outils issus de la littérature sur les tests multiples pour le contrôle du FDR. Nos méthodes peuvent être considérées comme des enveloppes qui prenant en entrée une quelconque technique de ML, conçue pour une tâche d'apprentissage donnée, et qui renvoient un ensemble de décisions telles que le FDR est contrôlé à un niveau spécifié par l'utilisateur. ; The reliability of ML methods is critical in applications that involve decision making. The goal of this thesis is to propose new methods for risk control in several learning tasks: novelty detection, clustering, and link prediction. Our general idea is to enhance the best existing ML methods for these tasks by developing an additional layer on top of them that provides an interpretable guarantee on the error rate. This is achieved by formalizing risk control in a certain task as a type of false discovery rate (FDR) control problem, and by using tools from the multiple testing literature on FDR control. Our methods can be seen as wrappers that take as input an off-the-shelf ML technique, designed for a given learning task, and return a set of decisions such that the FDR is controlled at a user-specified level.
  • Zugangsstatus: Freier Zugang