Use este identificador para citar ou linkar para este item: http://riu.ufam.edu.br/handle/prefix/6258
Tipo de documento: Trabalho de Conclusão de Curso
Título: Extração de características de narrativas audiovisuais a partir de elementos visuais e suas relações
Título(s) alternativo(s): Extraction of features from audiovisual narratives from visual elements and their relationships
Autor(a): Alencar, Elton Dione Nascimento de Alencar
Orientador(a): Mota, Edjard de Souza
metadata.dc.contributor.referee1: Pio, José Luiz de Souza
metadata.dc.contributor.referee2: Souto, Eduardo James Pereira
Resumo: Os vídeos compartilhados na internet representam mais da metade de todo o tráfego mundial. O YouTube foi considerada a segunda plataforma de compartilhamento de vídeos mais utilizada atualmente. Portanto, a otimização dos processos de análise do conteúdo presente nessas estruturas audiovisuais, é considerada uma solução para tornar esses processos mais efetivos. Sendo assim, este trabalho apresenta o desenvolvimento de uma ferramenta, em Python, que tem como objetivo automatizar o processo de extração de características visuais de vídeos publicados no YouTube. Para isso, foi validada uma arquitetura com os principais processos executados na ferramenta proposta, a qual faz a aplicação de dois modelos de deep-learning, pré-treinados, um para detecção de objetos e o outro para detecção de ações/movimentos presentes no vídeo. A ferramenta proposta pode ser integrada no processo de caracterização e análise de narrativas audiovisuais, uma vez que, de acordo com os resultados obtidos, as características extraídas pela ferramenta se relacionam com os principais elementos que compõem os recursos visuais da narrativa.
Resumo em outro idioma: Videos shared on the internet represent more than 80% of the traffic worldwide. YouTube is considered the second most used platform for video sharing. The optimization of the processes related to content analysis regarding these audiovisual structures is treated as a solution to make these processes more effective. For these reasons, this work presents a tool, developed in Python, which aims to automate the process of extracting visual features from videos shared on YouTube. For this, an architecture with the main processes executed in the proposed tool, which applies two pre-trained deep-lerning models, one for object detection and the other for action detection, was validated. Based on the result obtained, this approach can be integrated into the analysis process of audiovisual narratives, since the characteristics extracted by the tool are related to the main elements that compose the visual resources of the narrative.
Palavras-chave: Detecção de objetos
Object detection
Detecção de ação
Action detection
Composição de cena
Scene description
Modelos pré-treinados
Video understanding
Elementos de narrativas audiovisuais
Audiovisual narrative
Video
Youtube
Área de conhecimento - CNPQ: CIENCIAS EXATAS E DA TERRA: CIENCIA DA COMPUTACAO: SISTEMAS DE COMPUTACAO: SOFTWARE BASICO
Idioma: por
País de publicação: Brazil
Faculdade, Instituto ou Departamento: FT - Faculdade de Tecnologia
metadata.dc.publisher.course: Engenharia da Computação - Bacharelado - Manaus
Tipo de acesso: Acesso Aberto
metadata.dc.rights.uri: An error occurred getting the license - uri.
URI: http://riu.ufam.edu.br/handle/prefix/6258
Grupo de pesquisa: LIA - Laboratório de Inteligência Articial da UFAM
Vocabulário controlado: Youtube (Recurso eletrônico)
Vídeos para Internet
Vídeo digital - Processamento de dados
Processamento de imagens
Aparece nas coleções:Trabalho de Conclusão de Curso - Graduação - Ciências Exatas e da Terra

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
TCC_EltonAlencar.pdf11,27 MBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.