diff --git a/README.md b/README.md
index 7a4dae5be66d23ed318b7e81295f56555e1e530f..a193c697cbbcda92b06dd10711ed0142f6f65baf 100644
--- a/README.md
+++ b/README.md
@@ -1,21 +1,15 @@
-## Projet de détection d'expression faciales
-
-### Description :
-
-Le projet a pour but de construire un programme pour détecter les visages et leurs émotions associées depuis une image ou une vidéo prise en temps réelle. Dans un second temps, il pourra être éventuellement amélioré avec la traduction des visages en avatar.
-
-### Fonctions des différents fichiers :
-
-videoCapture.py : prend une vidéo en entrée, traite chaque frame avec imageProcess.py et renvoie la vidéo traitée ainsi
-
-imageProcess.py : contient les fonctions pour traiter les images, qui font appel à faceAnalysis.py
-
-faceAnalysis.py : contient les fonctions pour analyser les visages, utilise le modèle spécifié dans config.py
-
-config.py : on y précise le modèle utilisé
-
-utils.py : quelques fonctions utiles
-
-data : contient les dataset, ignoré par git donc vous devez mettre les données dedans vous mêmes
-
-models : contient les différents modèles utilisés
+## Projet de détection d'expression faciales
+
+### Description :
+
+Le projet a pour but de construire un programme pour détecter les visages et leurs émotions associées depuis une image ou une vidéo prise en temps réelle. Les visages sont détectés et classifiés parmi 7 émotions : Angry, Disgust, Fear, Happy, Sad, Surprise et Neutral.
+
+### Fichiers python à lancer :
+
+videoCapture.py : prend une vidéo en entrée, traite chaque frame avec imageProcess.py et renvoie la vidéo traitée ainsi. Les visages sont détectés et classifiés.
+
+game.py : lance une capture de la vidéo et des smileys à imiter le plus rapidement possible.
+Paramètres de game(): 
+    - playTime : durée du jeu   
+    - dt_required : délai durant lequel l'émotion doit être reconnue en continu pour être validée
+    - n_photos : nombre de photos souvenirs que le modèle prendra pendant le jeu, affichées à la fin