Le projet a pour but de construire un programme pour détecter les visages et leurs émotions associées depuis une image ou une vidéo prise en temps réelle. Dans un second temps, il pourra être éventuellement amélioré avec la traduction des visages en avatar.
Le projet a pour but de construire un programme pour détecter les visages et leurs émotions associées depuis une image ou une vidéo prise en temps réelle. Les visages sont détectés et classifiés parmi 7 émotions : Angry, Disgust, Fear, Happy, Sad, Surprise et Neutral.
### Fonctions des différents fichiers :
### Fichiers python à lancer :
videoCapture.py : prend une vidéo en entrée, traite chaque frame avec imageProcess.py et renvoie la vidéo traitée ainsi
videoCapture.py : prend une vidéo en entrée, traite chaque frame avec imageProcess.py et renvoie la vidéo traitée ainsi. Les visages sont détectés et classifiés.
imageProcess.py : contient les fonctions pour traiter les images, qui font appel à faceAnalysis.py
faceAnalysis.py : contient les fonctions pour analyser les visages, utilise le modèle spécifié dans config.py
config.py : on y précise le modèle utilisé
utils.py : quelques fonctions utiles
data : contient les dataset, ignoré par git donc vous devez mettre les données dedans vous mêmes
models : contient les différents modèles utilisés
game.py : lance une capture de la vidéo et des smileys à imiter le plus rapidement possible.
Paramètres de game():
- playTime : durée du jeu
- dt_required : délai durant lequel l'émotion doit être reconnue en continu pour être validée
- n_photos : nombre de photos souvenirs que le modèle prendra pendant le jeu, affichées à la fin