Réseaux Antagonistes Génératifs (GAN) - Cadre d'Apprentissage Profond

Vue d'ensemble complète des Réseaux Antagonistes Génératifs, un cadre révolutionnaire pour l'estimation de modèles génératifs via l'apprentissage antagoniste.
aipowertoken.com | PDF Size: 0.5 MB

Résumé

Nous proposons un nouveau cadre pour l'estimation de modèles génératifs via un processus antagoniste, dans lequel nous entraînons simultanément deux modèles : un modèle génératif G qui capture la distribution des données, et un modèle discriminant D qui estime la probabilité qu'un échantillon provienne des données d'entraînement plutôt que de G. La procédure d'entraînement de G consiste à maximiser la probabilité que D commette une erreur. Ce cadre correspond à un jeu minimax à deux joueurs.

Dans l'espace des fonctions arbitraires G et D, une solution unique existe, avec G retrouvant la distribution des données d'entraînement et D égal à 1/2 partout. Dans le cas où G et D sont définis par des perceptrons multicouches, l'ensemble du système peut être entraîné par rétropropagation. Aucune chaîne de Markov ou réseau d'inférence déployé n'est nécessaire pendant l'entraînement ou la génération d'échantillons. Les expériences démontrent le potentiel du cadre grâce à une évaluation qualitative et quantitative des échantillons générés.

1. Introduction

La promesse de l'apprentissage profond est de découvrir des modèles riches et hiérarchiques représentant des distributions de probabilité sur les types de données rencontrés dans les applications d'intelligence artificielle, telles que les images naturelles, les formes d'onde audio contenant de la parole et les symboles dans les corpus de langue naturelle. Jusqu'à présent, les succès les plus marquants en apprentissage profond ont concerné des modèles discriminants, généralement ceux qui mappent une entrée sensorielle riche et de haute dimension à une étiquette de classe.

Les modèles génératifs profonds ont eu moins d'impact, en raison de la difficulté d'approximer de nombreux calculs probabilistes insolubles qui surviennent dans l'estimation du maximum de vraisemblance et des stratégies apparentées, et en raison de la difficulté à tirer parti des avantages des unités linéaires par morceaux dans un contexte génératif. Nous proposons une nouvelle procédure d'estimation de modèles génératifs qui contourne ces difficultés.

L'Analogie Faussaire-Policier

Dans le cadre des réseaux antagonistes proposé, le modèle génératif est opposé à un adversaire : un modèle discriminant qui apprend à déterminer si un échantillon provient de la distribution du modèle ou de la distribution des données. Le modèle génératif peut être considéré comme analogue à une équipe de faussaires, essayant de produire de la fausse monnaie et de l'utiliser sans être détectée, tandis que le modèle discriminant est analogue à la police, essayant de détecter la fausse monnaie. La compétition dans ce jeu pousse les deux équipes à améliorer leurs méthodes jusqu'à ce que les contrefaçons soient indiscernables des articles authentiques.

Ce cadre peut produire des algorithmes d'entraînement spécifiques pour de nombreux types de modèles et d'algorithmes d'optimisation. Dans cet article, nous explorons le cas particulier où le modèle génératif génère des échantillons en faisant passer du bruit aléatoire à travers un perceptron multicouche, et le modèle discriminant est également un perceptron multicouche. Nous référons à ce cas particulier comme réseaux antagonistes. Dans ce cas, nous pouvons entraîner les deux modèles en utilisant uniquement les algorithmes très efficaces de rétropropagation et d'abandon, et échantillonner à partir du modèle génératif en utilisant uniquement la propagation avant. Aucune inférence approximative ou chaîne de Markov n'est nécessaire.