Optimizer

Adam ist schnell aber tendiert zu over-fitting

SGD ist langsam aber erzielt bessere Resultate

RMSProp scheint manchmal die beste Wahl

SWA kann die Qualität verbessern

AdaTune https://github.com/awslabs/adatune von Amazon

Series Navigation<< LSTM SammelsuriumTransformer >>