Auteurs:
(1) Zhihang Ren, Université de Californie, Berkeley et ces auteurs ont contribué à parts égales à ce travail (E-mail : [email protected]) ;
(2) Jefferson Ortega, Université de Californie, Berkeley et ces auteurs ont contribué à parts égales à ce travail (E-mail : [email protected]) ;
(3) Yifan Wang, Université de Californie, Berkeley et ces auteurs ont contribué à parts égales à ce travail (E-mail : [email protected]) ;
(4) Zhimin Chen, Université de Californie, Berkeley (E-mail : [email protected]) ;
(5) Yunhui Guo, Université du Texas à Dallas (E-mail : [email protected]) ;
(6) Stella X. Yu, Université de Californie, Berkeley et Université du Michigan, Ann Arbor (E-mail : [email protected]) ;
(7) David Whitney, Université de Californie, Berkeley (E-mail : [email protected]).
Tableau des liens
- Résumé et introduction
- Wok connexe
- Ensemble de données VEATIC
- Expériences
- Discussion
- Conclusion
- En savoir plus sur les stimuli
- Détails des annotations
- Traitement des valeurs aberrantes
- Accord de sujet sur les vidéos
- Évaluations et références de familiarité et de plaisir
6. Conclusion
Dans cette étude, nous avons proposé le premier grand ensemble de données vidéo basé sur le contexte, VEATIC , pour la prédiction continue de la valence et de l'éveil. Diverses visualisations montrent la diversité de notre jeu de données et la cohérence de nos annotations. Nous avons également proposé un algorithme de base simple pour résoudre ce défi. Les résultats empiriques prouvent l'efficacité de notre méthode proposée et de l'ensemble de données VEATIC.
Cet article est disponible sur arxiv sous licence CC 4.0.