- O que é discriminação de minibatch?
- Como você evita o colapso de GANs de modo?
- Como posso melhorar meu treinamento GAN?
- Por que GAN é instável?
O que é discriminação de minibatch?
Discriminação de minibatch é uma técnica discriminativa para redes adversárias geradoras, onde discriminamos entre minibatches inteiros de amostras, em vez de entre amostras individuais. Isso tem como objetivo evitar o colapso do gerador.
Como você evita o colapso de GANs de modo?
Uma taxa de aprendizagem cuidadosamente ajustada pode mitigar alguns problemas graves do GAN, como o colapso do modo. Especificamente, reduza a taxa de aprendizagem e refaça o treinamento quando ocorrer o colapso do modo. Também podemos experimentar diferentes taxas de aprendizagem para o gerador e o discriminador.
Como posso melhorar meu treinamento GAN?
Dicas e truques adicionais
- Correspondência de recursos. Desenvolva um GAN usando aprendizagem semissupervisionada.
- Discriminação de minibatch. Desenvolva recursos em várias amostras em um minibatch.
- Média histórica. Atualize a função de perda para incorporar o histórico.
- Suavização de etiqueta unilateral. ...
- Normalização de lote virtual.
Por que GAN é instável?
O fato de os GANs serem compostos por duas redes, e cada uma delas ter sua função de perda, resulta no fato de que os GANs são inerentemente instáveis - mergulhando um pouco mais fundo no problema, a perda do Gerador (G) pode levar à instabilidade do GAN , que pode ser a causa do problema de desaparecimento do gradiente quando o ...