Visages Technologies « Face Tracking » et analyses

Les êtres humains, plutôt habitués, à pouvoir saisir, au mieux, des signaux verbaux des émotions faciales. Maintenant, les ordinateurs, eux aussi, également, a pouvoir être améliorés, pour pouvoir lire et interpréter les émotions.

Alors, comment l’ordinateur, pourrait-il détecter une émotion, par exemple, dans une image ou une vidéo ? Pouvoir utiliser un ensemble de ressources, matérielles et logicielles, « Open source » et des algorithmes « Face Emotion Recognition » (FER) de Kaggle et pouvoir ensuite construire un CNN, pour pouvoir détecter les émotions, celles-ci, à pouvoir être classées en 7 catégories : heureux, triste, peur, dégout, colère, neutre et surprise. D’après un modèle d’un réseau neuronaux convolutif ‘CNN) à 6 couches à Keras et l’utilisation des augmentations d’images pour améliorer les performances du modèle

Et ainsi, Brainwave-JCP (alias Joël Caserus), après avoir essayé et expérimenter de nombreux modèles différents, ayant couvert sa meilleure implémentation sur le lien : détection faciale, Recognition et détection émotions. A pouvoir utiliser notamment et particulièrement, ici, dans les champs de la biométrie, avec les biocapteurs d’ondes cérébrales, les micro-casques EEG, Mindwave, Mindwave Mobile et Mindwave Mobile 2.