153 leituras

VEATIC: Rastreamento de emoção e afeto baseado em vídeo em conjunto de dados de contexto: detalhes da anotação

Muito longo; Para ler

Neste artigo, os pesquisadores apresentam o conjunto de dados VEATIC para reconhecimento de afeto humano, abordando as limitações dos conjuntos de dados existentes, permitindo inferência baseada no contexto.
featured image - VEATIC: Rastreamento de emoção e afeto baseado em vídeo em conjunto de dados de contexto: detalhes da anotação
Kinetograph: The Video Editing Technology Publication HackerNoon profile picture
0-item

Este artigo está disponível no arxiv sob licença CC 4.0.

Autores:

(1) Zhihang Ren, Universidade da Califórnia, Berkeley e estes autores contribuíram igualmente para este trabalho (E-mail: [email protected]);

(2) Jefferson Ortega, Universidade da Califórnia, Berkeley e estes autores contribuíram igualmente para este trabalho (E-mail: [email protected]);

(3) Yifan Wang, Universidade da Califórnia, Berkeley e estes autores contribuíram igualmente para este trabalho (E-mail: [email protected]);

(4) Zhimin Chen, Universidade da Califórnia, Berkeley (E-mail: [email protected]);

(5) Yunhui Guo, Universidade do Texas em Dallas (E-mail: [email protected]);

(6) Stella X. Yu, Universidade da Califórnia, Berkeley e Universidade de Michigan, Ann Arbor (E-mail: [email protected]);

(7) David Whitney, Universidade da Califórnia, Berkeley (E-mail: [email protected]).

Tabela de Links

8. Detalhes da anotação

No total, tivemos 192 participantes que anotaram os vídeos no conjunto de dados VEATIC. Oitenta e quatro participantes anotaram IDs de vídeo de 0 a 82. Cento e oito participantes anotaram os IDs de vídeo 83-123 antes do planejamento do conjunto de dados VEATIC. Em particular, cinquenta e um participantes anotaram as IDs de vídeo 83-94, vinte e cinco participantes anotaram as IDs de vídeo 95-97 e 32 participantes anotaram as IDs de vídeo 98-123.


Outra novidade do conjunto de dados VEATIC é que ele contém vídeos com personagens interagindo e classificações para personagens separados no mesmo vídeo. Esses vídeos são aqueles com IDs de vídeo 98-123. Para cada par de vídeo consecutivo, os quadros de vídeo são exatamente os mesmos, mas as classificações de emoção contínua são anotadas com base em diferentes caracteres selecionados. A Figura 11 mostra um exemplo. Neste estudo, propomos primeiro este processo de anotação porque ele fornece aos algoritmos futuros uma maneira de testar se os modelos aprendem a emoção dos personagens selecionados, dadas as interações entre os personagens e exatamente as mesmas informações de contexto. Um bom algoritmo de reconhecimento de emoções deve lidar com esta situação complicada.


Este artigo está disponível no arxiv sob licença CC 4.0.


Trending Topics

blockchaincryptocurrencyhackernoon-top-storyprogrammingsoftware-developmenttechnologystartuphackernoon-booksBitcoinbooks