Différence entre l'AIC et le BIC

Différence entre l'AIC et le BIC

AIC vs BIC

AIC et BIC sont largement utilisés dans les critères de sélection de modèles. L'AIC signifie les critères d'information d'Akaike et le BIC signifie les critères d'information bayésiens. Bien que ces deux termes traitent la sélection du modèle, ils ne sont pas les mêmes. On peut faire la différence peut entre les deux approches de sélection de modèles.

Les critères d'information d'Akaike ont été formés en 1973 et les critères d'information bayésiens en 1978. Hirotsugu alias a développé les critères d'information d'Akaike tandis que Gideon E. Schwarz a développé un critère d'information bayésien.

L'AIC peut être qualifié de mésaure de la bonté de l'ajustement de tout modèle statistique estimé. Le BIC est un type de sélection de modèle parmi une classe de modèles paramétriques avec différents nombres de paramètres.

Lorsque vous comparez les critères d'information bayésiens et les critères d'information d'Akaike, la pénalité pour des paramètres supplémentaires est plus en BIC que sur l'AIC. Contrairement à l'AIC, le BIC pénalise plus fortement les paramètres libres.

Les critères d'information d'Akaike essaient généralement de trouver un modèle inconnu qui a une réalité dimensionnelle élevée. Cela signifie que les modèles ne sont pas de vrais modèles en AIC. D'un autre côté, les critères d'information bayésiens ne rencontrent que de vrais modèles. On peut également dire que les critères d'information bayésiens sont cohérents alors que les critères d'information d'Akaike ne sont pas ainsi.

Lorsque les critères d'information d'Akaike présenteront le danger qu'il équivaudrait. Les critères d'information bayésiens présenteront le danger qu'elle sous-formera. Bien que le BIC soit plus tolérant par rapport à l'AIC, il montre moins de tolérance à des nombres plus élevés.

Les critères d'information d'Akaike sont bons pour rendre asymptotiquement équivalent à la validation croisée. Au contraire, les critères d'information bayésiens sont bons pour une estimation cohérente.

Résumé

1. L'AIC signifie les critères d'information d'Akaike et le BIC signifie les critères d'information bayésiens.

2. Les critères d'information d'Akaike ont été formés en 1973 et les critères d'information bayésiens en 1978.

3. Lorsque vous comparez les critères d'information bayésiens et les critères d'information d'Akaike, la pénalité pour des paramètres supplémentaires est plus en BIC que sur l'AIC.

4. Les critères d'information d'Akaike essaient généralement de trouver un modèle inconnu qui a une réalité dimensionnelle élevée. D'un autre côté, les critères d'information bayésiens ne rencontrent que de vrais modèles.

5. Les critères d'information bayésiens sont cohérents alors que les critères d'information d'Akaike ne l'est pas.

6. Les critères d'information d'Akaike sont bons pour rendre asymptotiquement équivalent à la validation croisée. Au contraire, les critères d'information bayésiens sont bons pour une estimation cohérente.

7. Bien que le BIC soit plus tolérant par rapport à l'AIC, il montre moins de tolérance à des nombres plus élevés.

8. Contrairement à l'AIC, le BIC pénalise plus fortement les paramètres libres.

//