Иногда я вижу статьи с перебором гиперпараметров, таких как 0.001, 0.003, 0.006, 0.01 и т.д. Многие гиперпараметры лучше выражать в отрицательном целочисленном логарифме по основанию 2. Малые значения, такие как скорости обучения, и значения, близкие к 1, такие как факторы EMA и TD lambda / gamma с 1-2**val. Интересно, как много параметров относительно нечувствительны к удвоению или уменьшению вдвое и требуют больших изменений, чтобы надежно повлиять на результаты.