Use este identificador para citar ou linkar para este item:
http://riu.ufam.edu.br/handle/prefix/6258
Tipo de documento: | Trabalho de Conclusão de Curso |
Título: | Extração de características de narrativas audiovisuais a partir de elementos visuais e suas relações |
Título(s) alternativo(s): | Extraction of features from audiovisual narratives from visual elements and their relationships |
Autor(a): | Alencar, Elton Dione Nascimento de Alencar |
Orientador(a): | Mota, Edjard de Souza |
metadata.dc.contributor.referee1: | Pio, José Luiz de Souza |
metadata.dc.contributor.referee2: | Souto, Eduardo James Pereira |
Resumo: | Os vídeos compartilhados na internet representam mais da metade de todo o tráfego mundial. O YouTube foi considerada a segunda plataforma de compartilhamento de vídeos mais utilizada atualmente. Portanto, a otimização dos processos de análise do conteúdo presente nessas estruturas audiovisuais, é considerada uma solução para tornar esses processos mais efetivos. Sendo assim, este trabalho apresenta o desenvolvimento de uma ferramenta, em Python, que tem como objetivo automatizar o processo de extração de características visuais de vídeos publicados no YouTube. Para isso, foi validada uma arquitetura com os principais processos executados na ferramenta proposta, a qual faz a aplicação de dois modelos de deep-learning, pré-treinados, um para detecção de objetos e o outro para detecção de ações/movimentos presentes no vídeo. A ferramenta proposta pode ser integrada no processo de caracterização e análise de narrativas audiovisuais, uma vez que, de acordo com os resultados obtidos, as características extraídas pela ferramenta se relacionam com os principais elementos que compõem os recursos visuais da narrativa. |
Resumo em outro idioma: | Videos shared on the internet represent more than 80% of the traffic worldwide. YouTube is considered the second most used platform for video sharing. The optimization of the processes related to content analysis regarding these audiovisual structures is treated as a solution to make these processes more effective. For these reasons, this work presents a tool, developed in Python, which aims to automate the process of extracting visual features from videos shared on YouTube. For this, an architecture with the main processes executed in the proposed tool, which applies two pre-trained deep-lerning models, one for object detection and the other for action detection, was validated. Based on the result obtained, this approach can be integrated into the analysis process of audiovisual narratives, since the characteristics extracted by the tool are related to the main elements that compose the visual resources of the narrative. |
Palavras-chave: | Detecção de objetos Object detection Detecção de ação Action detection Composição de cena Scene description Modelos pré-treinados Video understanding Elementos de narrativas audiovisuais Audiovisual narrative Video Youtube |
Área de conhecimento - CNPQ: | CIENCIAS EXATAS E DA TERRA: CIENCIA DA COMPUTACAO: SISTEMAS DE COMPUTACAO: SOFTWARE BASICO |
Idioma: | por |
País de publicação: | Brazil |
Faculdade, Instituto ou Departamento: | FT - Faculdade de Tecnologia |
metadata.dc.publisher.course: | Engenharia da Computação - Bacharelado - Manaus |
Tipo de acesso: | Acesso Aberto |
metadata.dc.rights.uri: | An error occurred getting the license - uri. |
URI: | http://riu.ufam.edu.br/handle/prefix/6258 |
Grupo de pesquisa: | LIA - Laboratório de Inteligência Articial da UFAM |
Vocabulário controlado: | Youtube (Recurso eletrônico) Vídeos para Internet Vídeo digital - Processamento de dados Processamento de imagens |
Aparece nas coleções: | Trabalho de Conclusão de Curso - Graduação - Ciências Exatas e da Terra |
Arquivos associados a este item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
TCC_EltonAlencar.pdf | 11,27 MB | Adobe PDF | Visualizar/Abrir |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.