Le projet a pour but de construire un programme pour détecter les visages et leurs émotions associées depuis une image ou une vidéo prise en temps réelle. Dans un second temps, il pourra être éventuellement amélioré avec la traduction des visages en avatar.
Le projet a pour but de construire un programme pour détecter les visages et leurs émotions associées depuis une image ou une vidéo prise en temps réelle. Les visages sont détectés et classifiés parmi 7 émotions : Angry, Disgust, Fear, Happy, Sad, Surprise et Neutral.
### Fonctions des différents fichiers :
### Fichiers python à lancer :
videoCapture.py : prend une vidéo en entrée, traite chaque frame avec imageProcess.py et renvoie la vidéo traitée ainsi
videoCapture.py : prend une vidéo en entrée, traite chaque frame avec imageProcess.py et renvoie la vidéo traitée ainsi. Les visages sont détectés et classifiés.
imageProcess.py : contient les fonctions pour traiter les images, qui font appel à faceAnalysis.py
game.py : lance une capture de la vidéo et des smileys à imiter le plus rapidement possible.
Paramètres de game():
faceAnalysis.py : contient les fonctions pour analyser les visages, utilise le modèle spécifié dans config.py
- playTime : durée du jeu
- dt_required : délai durant lequel l'émotion doit être reconnue en continu pour être validée
config.py : on y précise le modèle utilisé
- n_photos : nombre de photos souvenirs que le modèle prendra pendant le jeu, affichées à la fin
utils.py : quelques fonctions utiles
data : contient les dataset, ignoré par git donc vous devez mettre les données dedans vous mêmes