Le Conseil de l'Expert
Stéphanie
Spécialiste Machine Learning et IA.
« Ce script illustre un concept fondamental mais souvent ignoré en modélisation : l'influence de la paramétrisation sur la convergence et la validité de l'inférence. Bien que les trois modèles ajustés par la PROC NLIN soient mathématiquement équivalents (ils décrivent la même courbe sigmoïde), leurs propriétés statistiques diffèrent radicalement.
En régression non linéaire, ne vous contentez pas d'une convergence réussie. Si le biais de Hougaard d'un paramètre dépasse 0.25, l'intervalle de confiance est suspect. Dans ce cas, changer la paramétrisation (comme passer de gamma à LD50) est souvent plus efficace que d'ajouter des données, car cela redresse la géométrie de la fonction de perte. »