Soms zie ik artikelen met hyperparameter-sweeps over 0.001, 0.003, 0.006, 0.01, enz. Veel hyperparameters worden beter uitgedrukt in negatieve gehele log2. Kleine waarden zoals leersnelheden direct, en waarden dicht bij 1 zoals EMA-factoren en TD lambda / gamma met 1-2**val. Het is interessant hoe veel parameters relatief ongevoelig zijn voor verdubbeling of halvering, en grotere veranderingen nodig hebben om de resultaten betrouwbaar te beïnvloeden.