CSC 8607 – Introduction au deep learning

Portail informatique

CC1 : Préparation

    1. Donnez trois exemples de fonctions d’activation.
    2. Si un MLP a 3 neurones d’entrée, 4 neurones dans une couche cachée, et 2 neurones dans la couche de sortie, combien a-t-il de paramètres (sans compter les biais) ?
    3. Donnez le nom d’une fonction de coût pour la régression.
    4. Donnez le nom d’une fonction de coût pour la classification.
    5. Comment s’appelle l’algorithme qui ajuste les paramètres du réseau pour minimiser la perte ?
    6. Ma descente de gradient diverge. Comment le voir et que faire sur le learning rate ?
    7. Comment s’appelle la descente de gradient qui met à jour les paramètres après chaque exemple ?
    8. Comment s’appelle la variante qui met à jour à partir de petits sous-ensembles d’exemples ?
    9. Comment s’appelle l’algorithme qui permet de calculer efficacement les gradients dans un réseau ?
    10. Sur quelle règle mathématique repose la backpropagation ?
    11. Qu’est-ce qu’il faut avoir effectué avant de lancer la backpropagation ?
    12. Quelle structure de données représente le déroulement du calcul pour le forward et le backward ?
    13. Dans PyTorch, quelle classe étend-on pour définir un modèle de réseau de neurones ?
    14. Comment s’appelle une itération complète sur tout le jeu de données d’entraînement ?
    15. Pourquoi a-t-on besoin d’une fonction d’activation non linéaire dans un MLP ?
    16. À quoi sert le biais b dans un neurone ?
    17. Donnez la formule de sortie d’un perceptron pour une entrée x, des poids w et un biais b.
    18. (Forme matricielle) Pour une couche de M neurones, des entrées de taille N et un batch de m exemples, quelles sont les dimensions de W, X et b ?
    19. Donnez la dérivée de la fonction sigmoïde.
    20. Donnez la dérivée de tanh.
    21. Donnez la dérivée (presque partout) de ReLU.
    22. À quoi sert la fonction softmax en sortie d’un classifieur multiclasse ?
    23. Quelle règle de décision applique-t-on après un softmax pour prédire la classe ?
    24. Pour une classification binaire, quelle perte utilise-t-on avec une sortie sigmoïde ?
    25. Quelle variante de la BCE faut-il utiliser quand on manipule des logits (avant sigmoïde) en PyTorch ?
    26. Dans un classifieur binaire linéaire, quelle équation caractérise la frontière de décision quand σ(z)=0,5 ?
    27. Écrivez la mise à jour des poids en descente de gradient (pas η).
    28. Effet d’un learning rate trop petit vs trop grand (une phrase).
    29. (QCM) Laquelle des variantes suivantes utilise toutes les données à chaque mise à jour ?
      A) SGD   B) Mini-batch   C) Batch complet
    30. (QCM) Quel est l’avantage principal de la forme matricielle (vectorisation) pour le forward pass ?
      A) Simplicité mathématique   B) Accélération par calcul parallèle   C) Plus de précision numérique
    31. Pourquoi stocke-t-on les valeurs intermédiaires du forward dans le graphe de calcul ?
    32. Dans un graphe de calcul, que représentent nœuds et arêtes ?
    33. En PyTorch, comment active-t-on le calcul automatique des gradients pour un tenseur ?
    34. Quelle méthode déclenche la rétropropagation du gradient à partir d’un scalaire de perte ?
    35. Après l’appel à backward(), où PyTorch stocke-t-il les gradients des paramètres ?
    36. Lors d’une boucle d’entraînement manuelle, comment remet-on à zéro les gradients accumulés ?
    37. Quel type de tenseur PyTorch utilise-t-on pour représenter des indices de classes (multiclasse) ?
    38. Donnez la définition du risque (ou coût) empirique.
    39. Quelle est la sortie attendue d’un neurone pour un problème de régression vs classification binaire ?
    40. (QCM) Que sont les logits ?
      A) Des probabilités normalisées   B) Des scores non bornés avant softmax/sigmoïde   C) Des labels encodés
    41. (QCM) Laquelle est fausse ?
      A) Empiler des couches linéaires sans activation reste linéaire
      B) ReLU est non linéaire et parcimonieuse
      C) La dérivée de tanh est tanh(x)