Авторы:
(1) Чжихан Рен, Калифорнийский университет в Беркли, и эти авторы внесли равный вклад в эту работу (электронная почта: [email protected]);
(2) Джефферсон Ортега, Калифорнийский университет, Беркли, и эти авторы внесли равный вклад в эту работу (электронная почта: [email protected]);
(3) Ифань Ван, Калифорнийский университет в Беркли, и эти авторы внесли равный вклад в эту работу (электронная почта: [email protected]);
(4) Чжимин Чен, Калифорнийский университет, Беркли (электронная почта: [email protected]);
(5) Юнхуэй Го, Техасский университет в Далласе (электронная почта: [email protected]);
(6) Стелла X. Ю, Калифорнийский университет, Беркли и Мичиганский университет, Анн-Арбор (электронная почта: [email protected]);
(7) Дэвид Уитни, Калифорнийский университет, Беркли (электронная почта: [email protected]).
Таблица ссылок
- Аннотация и введение
- Похожие Вок
- Набор данных ВЕАТИК
- Эксперименты
- Обсуждение
- Заключение
- Подробнее о стимулах
- Подробности аннотации
- Обработка выбросов
- Предметное соглашение по видео
- Знакомство и удовольствие Оценки и ссылки
6. Заключение
В этом исследовании мы предложили первый большой набор видеоданных на основе контекста, VEATIC , для непрерывного прогнозирования валентности и возбуждения. Различные визуализации показывают разнообразие нашего набора данных и согласованность наших аннотаций. Мы также предложили простой базовый алгоритм для решения этой проблемы. Эмпирические результаты доказывают эффективность предложенного нами метода и набора данных VEATIC.
Этот документ доступен на arxiv под лицензией CC 4.0.