Ibland ser jag artiklar med hyperparametersvep över 0,001, 0,003, 0,006, 0,01 osv. Många hyperparametrar uttrycks bättre i negativ integral log2. Små värden som inlärningshastigheter direkt och värden nära 1 som EMA-faktorer och TD lambda / gamma med 1-2**val. Det är intressant hur många parametrar som är relativt okänsliga för fördubbling eller halvering, och som behöver större förändringar för att resultaten ska kunna föras fram på ett tillförlitligt sätt.