CSC 8608 – Concepts avancés et applications du deep learning

Portail informatique

CC1 : Préparation

    1. En vision par ordinateur en production, quel est l’objectif d’optimisation prioritaire au-delà d’un score de benchmark ?
    2. Vous devez décrire un pipeline complet de vision de bout en bout. Quelle séquence est correcte ?
      A. Modèle → Prétraitement → Décision métier → Post-traitement
      B. Prétraitement → Modèle → Post-traitement → Décision métier
      C. Post-traitement → Modèle → Prétraitement → Décision métier
      D. Prétraitement → Post-traitement → Modèle → Décision métier
    3. En détection d’objets, que représente typiquement une prédiction (bi, ci, si) ?
    4. Lors du calcul d’AP/mAP en détection, dans quel cas une prédiction est-elle comptée comme True Positive (TP) ?
      A. La classe est correcte, indépendamment du recouvrement
      B. Le score est supérieur à 0.5, indépendamment du recouvrement
      C. L’IoU avec la vérité terrain est ≥ τ et la classe est correcte
      D. L’IoU avec la vérité terrain est ≤ τ et la classe est correcte
    5. Donnez la définition de l’IoU entre deux boîtes B et B′.
    6. Comment interprétez-vous « mAP élevé mais recall faible » en détection d’objets ?
    7. Quelle est la différence entre segmentation sémantique et segmentation d’instances ?
    8. Dans quels cas la métrique Dice est-elle particulièrement pertinente en segmentation, et pourquoi ?
    9. Dans un pipeline OCR / Document AI, quelles sont les trois grandes étapes fonctionnelles typiques ?
    10. Pour un système OCR où certains champs doivent être exacts (tolérance potentiellement nulle), quel indicateur est le plus aligné avec le KPI métier ?
      A. CER (Character Error Rate) global
      B. WER (Word Error Rate) global
      C. Exactitude des champs clés (ex. : total, date, identifiant)
      D. mIoU (mean IoU)
    11. En tracking vidéo « tracking-by-detection », quel réflexe de debug est recommandé pour diagnostiquer les erreurs ?
    12. Citez deux difficultés concrètes fréquentes qui dégradent les performances en production en vision (robustesse).
    13. Pourquoi les augmentations doivent-elles être déterministes lors de l’évaluation d’un modèle ?
    14. Dans un Vision Transformer (ViT), pour une image de taille H×W et des patchs de taille P, quel est le nombre de tokens N (hors token spécial) ?
      A. N = H·W·P
      B. N = H/P + W/P
      C. N = (H/P)·(W/P)
      D. N = (P/H)·(P/W)
    15. Quel est le coût clé (ordre de grandeur) de l’attention « full » d’un Transformer en fonction du nombre de tokens N ?
    16. Dans Swin Transformer, quel mécanisme rend l’attention plus efficace qu’une attention globale, et quel coût approximatif cela induit ?
    17. Quel est l’effet principal d’un FPN (Feature Pyramid Network) sur la détection d’objets, notamment pour les petits objets ?
    18. Dans DETR, quelle brique remplace conceptuellement le duo « anchors + NMS » pour obtenir des prédictions uniques ?
      A. Softmax température + top-k
      B. Hungarian matching (matching biparti)
      C. FPN (Feature Pyramid Network)
      D. Letterboxing + padding
    19. Donnez une différence opérationnelle entre « linear probe », « full fine-tune » et « adapters/LoRA » pour adapter un backbone pré-entraîné.
    20. Citez trois signaux concrets à monitorer / logger en production pour un service de vision afin d’attraper des problèmes système et des dérives.
    21. Dans un système de génération d’images, quels sont les 4 axes qui entrent souvent en tension quand on cherche à optimiser la génération ?
    22. Quelle proposition distingue correctement entraînement et sampling en génération d’images ?
      A) Entraînement : générer une image à partir d’un seed ; Sampling : ajuster les paramètres du modèle pour mieux coller aux données
      B) Entraînement : ajuster les paramètres du modèle pour rapprocher la distribution du modèle de celle des données ; Sampling : produire un échantillon (image) à partir du modèle (éventuellement conditionné)
      C) Entraînement : choisir un scheduler ; Sampling : calculer exactement la vraisemblance log(p(x))
      D) Entraînement : faire uniquement de l’inférence ; Sampling : faire uniquement de l’optimisation
    23. Quelle est la différence entre génération unconditional et conditional ?
    24. Donnez trois exemples de variables de conditionnement possibles c pour générer une image.
    25. Quel triplet “famille de modèles → signal d’apprentissage” est correctement associé ?
      A) VAE → adversarial ; GAN → reconstruction + KL ; Diffusion → prédiction de bruit/score
      B) VAE → reconstruction + régularisation ; GAN → adversarial ; Diffusion → prédiction de bruit/score
      C) VAE → prédiction de bruit/score ; GAN → densité explicite (log-likelihood) ; Diffusion → adversarial
      D) VAE → cross-attention ; GAN → ELBO ; Diffusion → truncation trick
    26. Pourquoi la génération directement en pixels est-elle considérée comme coûteuse, et quel est le principe de la génération en espace latent ?
    27. Dans un VAE, quels sont les deux objectifs pratiques combinés dans l’ELBO ?
    28. Dans un VAE, que diagnostique typiquement un terme KL ≈ 0 dans l’ELBO ?
      A) Un mismatch prior/posterior : échantillonner z∼p(z) devient mauvais car q(z|x) est trop éloigné
      B) Un “posterior collapse” : le décodeur ignore le latent z
      C) Un modèle implicite : on peut sampler mais pas calculer p(x)
      D) Une augmentation de diversité via un “truncation trick”
    29. Donnez la formule du reparameterization trick pour un latent Gaussien diagonal.
    30. Quel est l’effet principal d’un β-VAE quand on augmente β (dans le terme KL) ?
    31. Que signifie “modèle implicite” dans le contexte de la génération d’images ?
    32. Qu’appelle-t-on mode collapse dans les GAN, et quel impact cela a-t-il sur les échantillons générés ?
    33. Quel est l’objectif de WGAN-GP et quel mécanisme ajoute-t-il par rapport à WGAN “classique” ?
    34. Dans l’image-to-image, quelle différence structurelle sépare un modèle “paired” type pix2pix d’un modèle “unpaired” type CycleGAN ?
    35. Dans le processus forward d’un modèle de diffusion, à quoi correspond βt ?
    36. Dans la formule xt = √(ᾱt) x0 + √(1−ᾱt) ϵ, quelle est la loi de ϵ ?
      A) ϵ ∼ N(0, I)
      B) ϵ ∼ Uniform([0,1])
      C) ϵ ∼ Laplace(0, I)
      D) ϵ ∼ Bernoulli(0.5)
    37. Citez au moins 4 paramètres qui conditionnent la reproductibilité d’une génération par diffusion en pratique.
    38. En conditionnement texte via cross-attention dans un modèle de diffusion text-to-image, quelle correspondance est correcte ?
      A) queries = embeddings texte ; keys/values = features U-Net
      B) queries = features U-Net ; keys/values = embeddings texte
      C) queries = paramètres βt ; keys/values = seed
      D) queries = masque d’inpainting ; keys/values = scheduler
    39. Quand vous augmentez la guidance scale (CFG), quel compromis réglez-vous, et à quoi peut servir un negative prompt dans ce cadre ?
    40. Donnez un exemple de métrique distribution-level et un exemple de métrique sample-level, en précisant ce qu’elles évaluent.