Parfois, je vois des articles avec des balayages d'hyperparamètres sur 0,001, 0,003, 0,006, 0,01, etc. De nombreux hyperparamètres sont mieux exprimés en logarithme intégral négatif en base 2. Des valeurs petites comme les taux d'apprentissage directement, et des valeurs proches de 1 comme les facteurs EMA et TD lambda / gamma avec 1-2**val. Il est intéressant de voir combien de paramètres sont relativement insensibles à un doublement ou à une réduction de moitié, et nécessitent des changements plus importants pour déplacer les résultats de manière fiable.