Авторы:
(1) Чжихан Рен, Калифорнийский университет в Беркли, и эти авторы внесли равный вклад в эту работу (электронная почта: [email protected]);
(2) Джефферсон Ортега, Калифорнийский университет, Беркли, и эти авторы внесли равный вклад в эту работу (электронная почта: [email protected]);
(3) Ифань Ван, Калифорнийский университет в Беркли, и эти авторы внесли равный вклад в эту работу (электронная почта: [email protected]);
(4) Чжимин Чен, Калифорнийский университет, Беркли (электронная почта: [email protected]);
(5) Юнхуэй Го, Техасский университет в Далласе (электронная почта: [email protected]);
(6) Стелла X. Ю, Калифорнийский университет, Беркли и Мичиганский университет, Анн-Арбор (электронная почта: [email protected]);
(7) Дэвид Уитни, Калифорнийский университет, Беркли (электронная почта: [email protected]).
В этом исследовании мы предложили первый большой набор видеоданных на основе контекста, VEATIC , для непрерывного прогнозирования валентности и возбуждения. Различные визуализации показывают разнообразие нашего набора данных и согласованность наших аннотаций. Мы также предложили простой базовый алгоритм для решения этой проблемы. Эмпирические результаты доказывают эффективность предложенного нами метода и набора данных VEATIC.
Этот документ доступен на arxiv под лицензией CC 4.0.