Hyper-v

FIDLE / Optimiser l’apprentissage et réduire notre empreinte carbone



Dans l’apprentissage profond, plusieurs techniques sont essentielles
pour améliorer les performances des modèles.

Les techniques d’optimisation de la descente de gradient,
la recherche efficiente des hyperparamètres et l’apprentissage par transfert
jouent un rôle crucial. Elles contribuent à l’obtention de résultats optimaux
et à la réduction des coûts de calcul.

Ces approches aident également à minimiser le surajustement et à adapter
les modèles pré-entraînés à de nouvelles tâches.
En outre, elles facilitent l’expérimentation rapide.

Ces pratiques améliorent finalement la généralisation,
la robustesse et l’efficacité des systèmes d’intelligence artificielle.
Au menu de cette séquence :

– Techniques d’optimisation de la descente de gradient
– Quand le recyclage est une force : Le transfer learning
– Recherche d’hyperparamètres (HPO) efficiente
– Suivre et archiver ses entraînements pour les améliorer (outils de visualisation)

Durée : 2h00

Pour rappel, FIDLE est une Formation d’Introduction au Deep Learning, libre et gratuite.
Pour en savoir plus :

Cette vidéo est sous licence Créative Common CC BY-NC-ND 4.0



source

Related Articles

Leave a Reply

Back to top button