CSC 8607 – Introduction au deep learning

Portail informatique

CC2 : Préparation

    1. Sur quels splits est-on susceptible d’overfit ?
    2. À quoi faut-il faire attention quand on fait un découpage temporel ?
    3. J’ai de bons résultats sur mon train et val, mais de mauvais résultats sur mon test. Donnez deux raisons.
    4. Donner le nom de 5 métriques de classification.
    5. Citez deux méthodes pour faire de la régularisation L2.
    6. Quel mécanisme peut-on ajouter à la descente de gradient pour ajouter de l’inertie ?
    7. Donnez le nom de deux optimiseurs mettant en place la normalisation du gradient.
    8. Quel optimiseur fait à la fois le moment et la normalisation du gradient ?
    9. Qu’est-ce que le weight decay ?
    10. Quel est l’effet principal du weight decay sur les poids ?
    11. Quel type de régularisation consiste à arrêter l'entraînement quand la val ne s’améliore plus ?
    12. Dans le code d’early stopping, à quoi sert best_state = copy.deepcopy(...) ?
    13. Quelle condition arrête l’entraînement dans l’early stopping ?
    14. Quelle opération est apprise à chaque convolution ?
    15. Que faut-il ajouter pour chaîner les convolutions ?
    16. Quel hyperparamètre permet de ne pas perdre de taille d’image pendant une convolution ?
    17. Quel hyperparamètre gère les sauts entre deux positions du kernel ?
    18. Formule : taille de sortie avec padding P, stride S, kernel K et entrée N ?
    19. Combien de paramètres pour une couche Conv avec Cout filtres 3x3, Cin=3 ?
    20. Image 3×8×8, 10 filtres 3×3, stride=1, padding=1. Taille de sortie ?
    21. Image 3×8×8, 10 filtres 3×3, stride=1, padding=1. Nombre de paramètres ?
    22. Image 1×4×4, max pooling 2×2, stride=2. Taille de sortie ?
    23. Image 1×4×4, max pooling 2×2, stride=2. Nombre de paramètres ?
    24. Pourquoi les CNNs sont meilleurs que les MLPs sur les images ?
    25. Quel est l’intérêt du partage de poids dans un CNN ?
    26. Que signifie Cout dans une couche de convolution ?
    27. Comment augmenter le champ réceptif sans augmenter drastiquement le nombre de couches ?
    28. Formule du champ réceptif après L couches de taille K ?
    29. À quoi sert le padding dans une convolution ?
    30. Quelle est la convention de dimension d’image en PyTorch ?
    31. Combien de FLOPs approximatifs pour une couche Conv ?
    32. Que fait une convolution avec stride > 1 ?
    33. Pourquoi augmente-t-on Cout quand H et W diminuent ?
    34. Quel est le but principal du dropout ?
    35. Quand applique-t-on le dropout ?
    36. Pourquoi ne faut-il pas mettre de dropout sur la dernière couche ?
    37. Comment activer ou désactiver le dropout en PyTorch ?
    38. Quelle transformation rend le modèle plus robuste aux invariants des données ?
    39. Quelle est la différence entre preprocessing et augmentation ?
    40. Une transformation d’augmentation modifie-t-elle le label ?
    41. Citez deux exemples d’augmentation valides sur des images.
    42. Citez un exemple d’augmentation invalide.
    43. Pourquoi ne faut-il pas toujours faire un horizontal flip ?
    44. Quelles sont les stats utilisées pour normaliser une image ?
    45. Que fait CenterCrop ?
    46. Pourquoi recadrer une image ?
    47. Pourquoi utiliser des transformations aléatoires à l’entraînement ?