tác giả:
(1) Zhihang Ren, Đại học California, Berkeley và các tác giả này đã đóng góp như nhau cho công trình này (Email: [email protected]);
(2) Jefferson Ortega, Đại học California, Berkeley và các tác giả này đã đóng góp như nhau cho công trình này (Email: [email protected]);
(3) Yifan Wang, Đại học California, Berkeley và các tác giả này đã đóng góp như nhau cho công trình này (Email: [email protected]);
(4) Zhimin Chen, Đại học California, Berkeley (Email: [email protected]);
(5) Yunhui Guo, Đại học Texas tại Dallas (Email: [email protected]);
(6) Stella X. Yu, Đại học California, Berkeley và Đại học Michigan, Ann Arbor (Email: [email protected]);
(7) David Whitney, Đại học California, Berkeley (Email: [email protected]).
Bảng liên kết
- Tóm tắt và giới thiệu
- Chảo liên quan
- Bộ dữ liệu VEATIC
- Thí nghiệm
- Cuộc thảo luận
- Phần kết luận
- Thông tin thêm về kích thích
- Chi tiết chú thích
- Xử lý ngoại lệ
- Thỏa thuận chủ đề trên các video
- Đánh giá và tài liệu tham khảo về sự quen thuộc và thích thú
6. Kết luận
Trong nghiên cứu này, chúng tôi đã đề xuất tập dữ liệu video lớn dựa trên bối cảnh đầu tiên, VEATIC , để dự đoán hóa trị và kích thích liên tục. Nhiều hình ảnh trực quan khác nhau cho thấy sự đa dạng của tập dữ liệu và tính nhất quán của các chú thích của chúng tôi. Chúng tôi cũng đề xuất một thuật toán cơ sở đơn giản để giải quyết thách thức này. Kết quả thực nghiệm chứng minh tính hiệu quả của phương pháp đề xuất của chúng tôi và bộ dữ liệu VEATIC.
Bài viết này có sẵn trên arxiv theo giấy phép CC 4.0.