Trabalhos Disponíveis

TRABALHO Ações
Rede neural com conexões densas para previsão de séries temporais de longo prazo
Curso Doutorado em Ciência da Computação
Tipo Tese
Data 02/02/2024
Área CIÊNCIA DA COMPUTAÇÃO
Orientador(es)
  • Edson Takashi Matsubara
Orientando(s)
  • André Quintiliano Bezerra Silva
Banca
  • Bruno Magalhaes Nogueira
  • Diego Furtado Silva
  • Edson Takashi Matsubara
  • Jonathan de Andrade Silva
  • Wesley Nunes Goncalves
Resumo Previsões de séries temporais são essenciais para compreender e antecipar padrões em dados que variam ao longo do tempo. Essas previsões aplicam-se em uma variedade de campos, desde a meteorologia, onde são usadas para prever condições climáticas futuras, até o mercado financeiro, para antecipar movimentos de ações e moedas. Esta tese detalha a inovação trazida pela integração de redes densas, que visa melhorar tanto a modelagem quanto a precisão das previsões. Superando o modelo SCINet, que já era reconhecido por seus bons resultados em séries temporais univariadas e multivariadas, o estudo introduz o DESCINet. Este novo modelo resolve problemas identificados no SCINet, particularmente aqueles decorrentes do uso de downsampling, uma técnica que, apesar de útil, podia levar à perda de informações críticas e dependia fortemente do ajuste fino de hiperparâmetros. Além disso, a tese aborda a dificuldade do SCINet em manter a precisão em previsões de longo prazo devido à sua limitada capacidade de capturar padrões complexos em várias escalas temporais. O DESCINet, com sua abordagem de conexões residuais densas, promete superar essas barreiras, preservando informações detalhadas e aprimorando a capacidade de modelar dependências temporais complexas. Essa abordagem inovadora permite ao modelo manter um desempenho consistente ao longo de horizontes de previsão estendidos. A aplicação prática do DESCINet foi testada em uma ampla gama de conjuntos de dados, como ETT, Weather, Electricity, Illness, Traffic, and Exchange Rate. Em todos esses casos, o DESCINet demonstrou superioridade em relação ao SCINet, validando sua eficácia em contextos variados e complexos. A seleção desses conjuntos de dados ilustra a diversidade dos desafios inerentes à previsão de séries temporais e destaca a adaptabilidade e robustez do DESCINet. Este estudo adiciona uma contribuição para o campo de séries temporais ao explorar o potencial ainda pouco aproveitado das redes densas. A integração dessas redes em modelos de previsão de séries temporais abre caminho para avanços importantes, tanto em termos acadêmicos quanto em aplicações práticas. A proposta do DESCINet indica uma direção promissora para futuras pesquisas, sugerindo que a superação de limitações atuais na previsão de séries temporais está ao alcance. Ao concluir, esta tese oferece uma melhor compreensão sobre o impacto das conexões densas na previsão de séries temporais, encorajando a comunidade científica a investigar mais profundamente o DESCINet. Espera-se que o trabalho estimule pesquisas contínuas nesta área, pavimentando o caminho para novas inovações e práticas que aprimorem a modelagem de séries temporais, tornando-as mais eficazes e precisas.
Download
Preditor Híbrido de Estruturas Terciárias de Proteínas
Curso Doutorado em Ciência da Computação
Tipo Tese
Data 10/08/2023
Área CIÊNCIA DA COMPUTAÇÃO
Orientador(es)
  • Telma Woerle de Lima Soares
Orientando(s)
  • Alexandre Barbosa de Almeida
Banca
    Resumo
    Opinion Mining for App Reviews: Identifying and Prioritizing Emerging Issues for Software Maintenance and Evolution
    Curso Doutorado em Ciência da Computação
    Tipo Tese
    Data 14/07/2023
    Área CIÊNCIA DA COMPUTAÇÃO
    Orientador(es)
    • Ricardo Marcondes Marcacini
    Orientando(s)
    • Vitor Mesaque Alves de Lima
    Banca
    • Bruno Magalhaes Nogueira
    • Fabio Manoel Franca Lobato
    • Jacson Rodrigues Barbosa
    • Marcelo Augusto Santos Turine
    • Rafael Geraldeli Rossi
    • Ricardo Marcondes Marcacini
    • Solange Oliveira Rezende
    Resumo A mineração de opinião para avaliações de aplicativos tem como objetivo analisar os comentários dos usuários nas lojas de aplicativos para apoiar as atividades de engenharia de software, principalmente a manutenção e evolução de software. Identificar prontamente problemas emergentes, como bugs, é um dos principais desafios na manutenção da qualidade do software. No entanto, analisar manualmente esses comentários é um desafio devido à grande quantidade de dados textuais. Métodos baseados em aprendizado de máquina têm sido empregados para automatizar a mineração de opinião e lidar com essa questão. Embora métodos recentes tenham alcançado resultados promissores na extração e categorização de problemas a partir das opiniões dos usuários, os estudos existentes concentram-se principalmente em auxiliar os engenheiros de software a explorar o comportamento histórico dos usuários em relação às funcionalidades do aplicativo e não exploram mecanismos de deteção de tendências e classificação de risco de problemas emergentes. Além disso, os estudos anteriores não abrangem o processo completo de análise de problemas e riscos por meio de uma abordagem não supervisionada. Este projeto de doutorado avança o estado da arte na mineração de opinião para reviews de aplicativos, propondo uma abordagem não supervisionada para identificar e priorizar problemas emergentes. Nosso objetivo é minimizar o tempo entre a ocorrência de um problema e sua correção, permitindo uma rápida identificação do problema. Propomos duas novas abordagens que (i) identifica possíveis requisitos de software defeituosos e treina modelos preditivos para antecipar requisitos com maior probabilidade de avaliação negativa e (ii) detecta problemas a partir de avaliações, classifica-os em uma matriz de risco com níveis de priorização e monitora sua evolução ao longo do tempo. Adicionalmente, apresentamos uma abordagem de construção da matriz de risco usando os recentes Large Language Models (LLMs). Processamos mais de 6.6 milhões de comentários de usuários para avaliar nossa proposta, identificando e classificando o risco associado a quase 270.000 problemas. Os resultados demonstram a competitividade de nossa abordagem não supervisionada em comparação com modelos supervisionados existentes. Comprovamos que as opiniões extraídas dos comentários dos usuários fornecem percepções importantes sobre os problemas e riscos associados aos aplicativos, que podem ser detectados antecipadamente para mitigar seu impacto. Nosso processo de mineração de opinião implementa a análise automatizada de problemas, com priorização baseada em risco e monitoramento temporal.
    Download
    Abordagens Multimodais com Fusão de Dados em Aprendizado Profundo
    Curso Doutorado em Ciência da Computação
    Tipo Tese
    Data 16/06/2023
    Área CIÊNCIA DA COMPUTAÇÃO
    Orientador(es)
    • Edson Takashi Matsubara
    Orientando(s)
    • Lucas de Souza Rodrigues
    Banca
    • Anderson Vicoso de Araujo
    • Bruno Magalhaes Nogueira
    • Diego Furtado Silva
    • Edson Takashi Matsubara
    • Eraldo Luis Rezende Fernandes
    • Gustavo Enrique de Almeida Prado Alves Batista
    • Ricardo Marcondes Marcacini
    Resumo As redes neurais profundas, especialmente os modelos de linguagem e visão, têm sido amplamente utilizados em problemas reais nos últimos anos. Geralmente modelos aplicam o uso de apenas um tipo de dado/informação (texto, imagem, vídeo, áudio) em problemas de aprendizado, também chamados de modelos unimodais. No entanto, dada a quantidade crescente de informações não estruturadas e a variedade de formatos de dados existentes, novas abordagens têm sido desenvolvidas com o objetivo de estabelecer estratégias que viabilizem a utilização de múltiplos dados em um mesmo modelo de aprendizado. Este trabalho explora a fusão de dados em modelos de Aprendizado de Máquina Multimodal (AM). A proposta desta tese explora uma estratégia simples que utiliza operações matemáticas para fundir os diversos tipos de dados entre as camadas da arquitetura multimodal, mecanismos de atenção e conexões residuais. Uma outra proposta explora o uso da destilação de conhecimento multimodal para otimizar o desempenho de modelos de aprendizado profundo, transferindo conhecimento entre modalidades de um mesmo domínio. O principal avanço deste trabalho foi usar as operações aritméticas, mecanismos de atenção e conexões residuais em abordagens multimodais com a fusão de dados. Isso permitiu obter representações complementares sobre as modalidades, o que levou a uma melhor convergência sem diferença significativa com o estado-da-arte.
    Download
    Investigation of machine learning techniques to aid in the diagnosis of neurodegenerative diseases
    Curso Doutorado em Ciência da Computação
    Tipo Tese
    Data 20/03/2023
    Área CIÊNCIA DA COMPUTAÇÃO
    Orientador(es)
    • Hugo Alexandre Dantas do Nascimento
    Orientando(s)
    • Juliana Paula Felix
    Banca
    • Hugo Alexandre Dantas do Nascimento
    • Nilza Nascimento Guimarães
    • Renato de Freitas Bulcão Neto
    • Rogerio Lopes Salvini
    • Ronaldo Martins da Costa
    • Sérgio Teixeira De Carvalho
    Resumo Doenças neurodegenerativas (DND), como a Doença de Parkinson (DP), Doença de Huntington (DH) e Esclerose Lateral Amiotrófica (ELA) causam, entre outros sintomas, movimentos involuntários, fraqueza muscular e dificuldade em manter uma marcha estável. Em estágios avançados, essas doenças podem levar à morte. As DNDs não têm cura e diagnosticá-las é uma tarefa difícil porque muitas delas não possuem um único teste definitivo que permita confirmar a doença. Um diagnóstico precoce é ainda mais complexo dada a presença de sintomas comuns a muitas outras doenças, o que posterga intervenções precoces de tratamento e favorece a progressão dos processos degenerativos. Nesta tese, investigamos o uso de técnicas de aprendizado de máquina para auxiliar no diagnóstico e diferenciação de pacientes com DP, DH, ELA e indivíduos saudáveis a partir da marcha. Métodos computacionais alternativos, rápidos, e de baixo custo, são propostos para auxiliar nesta tarefa. Os métodos propostos inovam ao investigar, pela primeira vez na literatura, características obtidas a partir da distorção harmônica da série da marcha, além de prover uma análise detalhada do efeito dos parâmetros da marcha para a classificação desses sinais. Além disso, uma abordagem inovadora é proposta para priorizar os pacientes, reduzindo a quantidade de esforço físico necessário para o exame. Assim, propomos e investigamos a viabilidade de adotar intervalos de caminhada mais curtos, como um único minuto de caminhada, tendo em vista que pacientes com DNNs podem ter dificuldades em caminhar continuamente, mesmo por curtos períodos de tempo, e durante os estágios iniciais da doença. Os métodos propostos são validados com bases de dados públicas de marcha, coletadas por meio de sensores de força alocados nos pés de pessoas com DP, DH, ELA, e também de indivíduos saudáveis durante uma caminhada livre. Os resultados são comparados a estudos de estado da arte, e é possível observar a eficácia e eficiência dos métodos propostos, confirmando seu potencial para auxiliar no diagnóstico de DNDs e serem explorados na prática.
    Correspondência de Pontos em Formas 3D Baseada em Aprendizagem Profunda Multivisão
    Curso Doutorado em Ciência da Computação
    Tipo Tese
    Data 23/12/2022
    Área CIÊNCIA DA COMPUTAÇÃO
    Orientador(es)
      Orientando(s)
        Banca
        • Afonso Paiva Neto
        • Douglas Cedrim Oliveira
        • Eraldo Luis Rezende Fernandes
        • Hemerson Pistori
        • Paulo Aristarco Pagliosa
        • Renato Porfirio Ishii
        • Thales Miranda de Almeida Vieira
        • Thiago Oliveira dos Santos
        Resumo Na área de processamento geométrico, diversas técnicas propostas na literatura
        requerem que sejam estabelecidos pares de pontos de correspondência entre duas ou
        mais superfícies, isto é, dado um ponto sobre uma superfície fonte, é preciso associar
        qual é o ponto sobre uma superfície alvo que corresponde ao ponto dado. As aplicações
        incluem reconstrução de superfícies, parametrização cruzada, transferência de pose,
        transferência de texturas ou animações, reconhecimento e busca de formas, entre outras. A definição de uma função de mapeamento entre duas formas, mesmo para um número discreto de pontos característicos, nem sempre envolve somente relações geométricas ou estruturais, mas também relações semânticas. Uma vez que tal mapeamento em geral não pode ser diretamente expresso por abordagens puramente axiomáticas, em vários métodos de processamento geométrico a indicação de um conjunto inicial de pontos de correspondência é efetuada manualmente, através de processos que podem ser laboriosos e sujeitos a erros. De fato, descobrir relações semânticas entre formas quaisquer sem qualquer interação do usuário tratava-se de um problema ainda em aberto. Modelos de aprendizagem de máquina, em especial aprendizagem profunda, têm evoluído por sua capacidade de utilizar grandes conjuntos de dados para estimar a solução de problemas em diversas áreas do conhecimento, inclusive processamento geométrico. Este trabalho apresenta um método que utiliza aprendizagem multivisão profunda como parte do processamento responsável por encontrar automaticamente, isto é, sem a intervenção direta do usuário, pontos de correspondência entre superfícies de formas 3D, representadas por malhas de triângulos. O método é dividido em dois componentes: treinamento e correspondência. O primeiro trata-se de um treinamento multivisão que aprende, com o auxílio de uma CNN, a detectar pontos de interesse em imagens 2D oriundas de malhas de triângulos dos conjuntos de treinamento. O último, utiliza o resultado do treinamento para inferir correspondências semânticas com pontos de interesse (vértices) em formas 3D. A descoberta desses pontos não requer novo treinamento e nem interação humana durante o pipeline de correspondência.
        Correspondência de Pontos em Formas 3D Baseada em Aprendizagem Profunda Multivisão
        Curso Doutorado em Ciência da Computação
        Tipo Tese
        Data 23/12/2022
        Área CIÊNCIA DA COMPUTAÇÃO
        Orientador(es)
        • Paulo Aristarco Pagliosa
        Orientando(s)
        • Alexandre Soares da Silva
        Banca
        • Afonso Paiva Neto
        • Douglas Cedrim Oliveira
        • Eraldo Luis Rezende Fernandes
        • Hemerson Pistori
        • Paulo Aristarco Pagliosa
        • Renato Porfirio Ishii
        • Thales Miranda de Almeida Vieira
        • Thiago Oliveira dos Santos
        Resumo Na área de processamento geométrico, diversas técnicas propostas na literatura requerem que sejam estabelecidos pares de pontos de correspondência entre duas ou mais superfícies, isto é, dado um ponto sobre uma superfície fonte, é preciso associar qual é o ponto sobre uma superfície alvo que corresponde ao ponto dado. As aplicações incluem reconstrução de superfícies, parametrização cruzada, transferência de pose, transferência de texturas ou animações, reconhecimento e busca de formas, entre outras. A definição de uma função de mapeamento entre duas formas, mesmo para um número discreto de pontos característicos, nem sempre envolve somente relações geométricas ou estruturais, mas também relações semânticas. Uma vez que tal mapeamento em geral não pode ser diretamente expresso por abordagens puramente axiomáticas, em vários métodos de processamento geométrico a indicação de um conjunto inicial de pontos de correspondência é efetuada manualmente, através de processos que podem ser laboriosos e sujeitos a erros. De fato, descobrir relações semânticas entre formas quaisquer sem qualquer interação do usuário tratava-se de um problema ainda em aberto. Modelos de aprendizagem de máquina, em especial aprendizagem profunda, têm evoluído por sua capacidade de utilizar grandes conjuntos de dados para estimar a solução de problemas em diversas áreas do conhecimento, inclusive processamento geométrico. Este trabalho apresenta um método que utiliza aprendizagem multivisão profunda como parte do processamento responsável por encontrar automaticamente, isto é, sem a intervenção direta do usuário, pontos de correspondência entre superfícies de formas 3D, representadas por malhas de triângulos. O método é dividido em dois componentes: treinamento e correspondência. O primeiro trata-se de um treinamento multivisão que aprende, com o auxílio de uma CNN, a detectar pontos de interesse em imagens 2D oriundas de malhas de triângulos dos conjuntos de treinamento. O último, utiliza o resultado do treinamento para inferir correspondências semânticas com pontos de interesse (vértices) em formas 3D. A descoberta desses pontos não requer novo treinamento e nem interação humana durante o pipeline de correspondência.
        Download
        Segmentação de Imagens incluindo Contexto em Redes Neurais Convolucionais
        Curso Doutorado em Ciência da Computação
        Tipo Tese
        Data 19/12/2022
        Área CIÊNCIA DA COMPUTAÇÃO
        Orientador(es)
        • Wesley Nunes Goncalves
        Orientando(s)
        • Patrik Olã Bressan
        Banca
        • Hemerson Pistori
        • Jonathan de Andrade Silva
        • Jose Marcato Junior
        • Lucas Prado Osco
        • Wesley Nunes Goncalves
        Resumo Existe uma demanda significativa para a automação da localização e reconhecimento dos objetos e pessoas, desde a automação da agricultura até sistemas de mensuração automática do nível da água em rios, tudo realizado por sistemas de visão computacional. A atribuição dessas marcações ou rotulações é realizada atualmente em nível de pixel, técnica chamada de segmentação semântica. Porém, em uma única imagem podem existir várias classes, e frequentemente essas classes são muito parecidas, se tornando um desafio complexo a ser trabalhado. Recentemente, métodos baseados em Redes Neurais Convolucionais (CNN) alcançaram um sucesso impressionante em tarefas de segmentação semântica. Esse sucesso deve-se, entre outros fatores, à inclusão de algum contexto para auxiliar a rede, como por exemplo a informação que uma classe é mais frequente que a outra e/ou; a informação de que o dataset possui imagens com um alto nível de incerteza na rotulação dos pixels presentes nas bordas. Contudo, esses dois pontos mencionados, tanto o desequilíbrio das classes quanto à incerteza de rotulação de pixels, podem ser melhores explorados. Apresentamos uma abordagem que calcula e atribui um peso para o pixel, considerando sua classe e a incerteza durante o processo de rotulação. Os pesos dos pixels são usados durante o treinamento para aumentar ou diminuir a importância dos pixels. Alguns trabalhos são apresentados demonstrando a utilização de técnicas de segmentação semântica com inclusão de contexto, com resultados significativos em comparação com os métodos mais relevantes. Além disso, também apresentamos um método para a reconstrução da área do objeto de interesse, permitindo a reconstrução das bordas desse objeto. As técnicas aqui apresentadas podem ser utilizadas em uma ampla variedade de métodos de segmentação, melhorarando sua robustez.
        Acelerando Florestas de Decisão Paralelas em Processadores Gráficos para a Classificação de Texto
        Curso Doutorado em Ciência da Computação
        Tipo Tese
        Data 12/09/2022
        Área CIÊNCIA DA COMPUTAÇÃO
        Orientador(es)
        • Wellington Santos Martins
        Orientando(s)
        • Julio Cesar Batista Pires
        Banca
        • Fabrizzio Alphonsus Alves de Melo Nunes Soares
        • Júnio César de Lima
        • SÁVIO SALVARINO TELES DE OLIVEIRA
        • Wellington Santos Martins
        Resumo
        Download
          Counting and locating high-density objects using convolutional neural network
          Curso Doutorado em Ciência da Computação
          Tipo Tese
          Data 06/09/2022
          Área CIÊNCIA DA COMPUTAÇÃO
          Orientador(es)
          • Wesley Nunes Goncalves
          Orientando(s)
          • Mauro dos Santos de Arruda
          Banca
          • Bruno Brandoli Machado
          • Jonathan de Andrade Silva
          • Jose Marcato Junior
          • Keiller Nogueira
          • Lucas Prado Osco
          • Wesley Nunes Goncalves
          Resumo Contagem e detecção automática de objetos são essenciais em diferentes tipos de aplicações pois permitem melhorias desempenhos na execução das tarefas manuais. Métodos de aprendizado profundo estão se destacando cada vez mais nesse tipo de aplicação pois conseguem realizar boas caracterizações dos objetos. Entretanto, desafios como a sobreposição, oclusão, diferentes de escalas e alta densidade de objetos atrapalham o desempenho desses métodos, fazendo com que esse problema permaneça aberto. Tais métodos normalmente usam anotações por caixas delimitadoras, o que prejudica seu desempenho em cenas de alta densidade com adjacência de objetos. Para superar tais limitações, avançando o estado da arte, nós propomos um método de contagem e detecção de objetos usando mapas de confiança. A primeira aplicação permitiu definir um método baseado em redes neurais convolucionais que recebem como entrada uma imagem multiespectral e detecta os objetos a partir de picos no mapa de confiança. Em uma segunda aplicação, nós inserimos informações de contexto global e local através do módulo PPM, para a detecção de objetos em diferentes escalas. Além disso, melhoramos o refinamento sucessivo do mapa de confiança com múltiplos valores de sigma na fase MSS. Na terceira aplicação do método, nós propomos um módulo de seleção de bandas para trabalhar com imagens hiperespectrais. Em uma quarta aplicação, nós avaliamos o método proposto em imagens RGB de alta densidade de objetos e comparamos com métodos do estado da arte: YOLO, Faster R-CNN e RetinaNet. Por último, expandimos o método propondo uma arquitetura de duas ramificações permitindo a troca de informações entre eles. Essa melhoria permite que o método detecte simultaneamente plantas e linhas de plantio em diferentes conjuntos de dados. Os resultados descritos nesta tese mostram que a utilização de redes neurais convolucionais e mapas de confiança para a detecção e contagem de objetos permite alto desempenho. As contribuições descritas aqui, devem suportar avanços significativos nas áreas de detecção de objetos e aprendizado profundo.
          Multi-task Learning Applied to Computer Vision Problems
          Curso Doutorado em Ciência da Computação
          Tipo Tese
          Data 28/03/2022
          Área CIÊNCIA DA COMPUTAÇÃO
          Orientador(es)
          • Hemerson Pistori
          Orientando(s)
          • Diogo Nunes Gonçalves
          Banca
          • Hemerson Pistori
          • Jonathan de Andrade Silva
          • Jose Marcato Junior
          • Lucas Prado Osco
          • Paulo Eduardo Teodoro
          • Vanessa Aparecida de Moraes Weber
          Resumo O aprendizado profundo tem sido amplamente estudado, principalmente para resolver problemas considerados complexos. De forma geral, esses problemas podem ser descritos e divididos em um conjunto de tarefas. Essas tarefas são intrínsecas ao problema geral, ou seja, são definidas de forma natural por fazer parte da essência do problema. Além disso, elas podem ser aprendidas de forma isolada porém estão relacionadas para solução do problema geral. Outro fator importante é que para um problema maior de visão computacional, realizar as tarefas distintas individualmente se torna muito custoso em memória e tempo de inferência. Para solucionar esses problemas uma abordagem chamada Aprendizado Multitarefa (MTL) foi proposta. A ideia é simular o aprendizado humano, em que pessoas podem aprender novas tarefas através de experiências obtidas no aprendizado de tarefas similares. Essa abordagem permite o aprendizado das tarefas do problema de maneira simultânea, construindo uma relação entre elas. A partir desses direcionamentos, este trabalho na forma de coleção de artigos apresenta abordagens MTL para a resolução de problemas de visão computacional. Inicialmente, dois problemas foram abordados: detecção de linhas de plantação no primeiro artigo e detecção de alevinos no segundo. Na detecção de linhas de plantação a ideia é dividir o problema em identificar as plantas individualmente e detectar as linhas de plantação. Na detecção de alevinos as tarefas são divididas em detectar o alevino e identificar a direção desse alevino nos quadros subsequentes. Para ambos os problemas, um método foi proposto com um backbone que extrai as características iniciais para todas as tarefas. Tendo como entrada as características iniciais, ramos independentes aprendem a solução de cada tarefa. A troca de informações entre as tarefas ocorre por meio da concatenação das características extraídas em pontos específicos de cada ramo. Os resultados mostraram que o compartilhamento entre as tarefas é importante para a solução, alcançando resultados superiores ao estado-da-arte. Além das duas propostas, um novo método de segmentação semântica usando MTL e mecanismo de atenção foi proposto. O principal avanço foi o uso de pesos aprendidos por Transformers para indicar a importância de uma tarefa nas demais. Assim, apenas regiões da imagem consideradas relevantes influenciam em outras tarefas. Os resultados em dois problemas, segmentação de linhas e falhas de plantação, e segmentação da folha e desfolha, mostraram a eficácia da abordagem frente ao estado-da-arte.
          Download
          Desenvolvimento e Avaliação de Métodos de Interação com Dispositivos e Ambientes Inteligentes Utilizando Smartwatches: Uma Abordagem com Reconhecimento Contínuo de Gestos
          Curso Doutorado em Ciência da Computação
          Tipo Tese
          Data 06/12/2021
          Área CIÊNCIA DA COMPUTAÇÃO
          Orientador(es)
          • Fabrizzio Alphonsus Alves de Melo Nunes Soares
          Orientando(s)
          • Thamer Horbylon Nascimento
          Banca
          • Alexandre Cardoso
          • Deborah Silva Alves Fernandes
          • Fabrizzio Alphonsus Alves de Melo Nunes Soares
          • Fátima de Lourdes dos Santos Nunes Marques
          • Gélson da Cruz Júnior
          • Renato de Freitas Bulcão Neto
          • Ronaldo Martins da Costa
          Resumo
          Download
            Braces minimais e suas propriedades
            Curso Doutorado em Ciência da Computação
            Tipo Tese
            Data 27/10/2021
            Área CIÊNCIA DA COMPUTAÇÃO
            Orientador(es)
            • Marcelo Henriques de Carvalho
            Orientando(s)
            • Phelipe Araujo Fabres
            Banca
            • Alberto Alexandre Assis Miranda
            • Fabio Henrique Viduani Martinez
            • Francisco Eloi Soares de Araujo
            • José Coelho de Pina Junior
            • Marcelo Henriques de Carvalho
            Resumo McCuaig provou um teorema de geração para braces e o usou como uma ferramenta de indução
            para obter uma caracterização estrutural de braces Pfaffianos.
            Um brace é minimal se a remoção de qualquer aresta resulta em grafo que não é brace. A partir
            do teorema de geração de braces de McCuaig, nós provamos nosso teorema principal que pode ser visto
            como uma ferramenta de indução para braces minimais. Como uma aplicação, nós provamos que um
            brace minimal de ordem 2n (n ≥ 6) tem no máximo 5n − 10 arestas e apresentamos uma caracterização
            completa dos braces minimais para os quais esse limite superior ocorre com igualdade.
            Um trabalho similar foi realizado no contexto de bricks minimais por Norine-Thomas em que
            eles deduzem o resultado principal do teorema de geração de bricks provado pelos mesmos autores.
            No final deste trabalho, apresentamos um teorema único para a construção de bricks e braces minimais
            combinando uma prova alternativa do teorema de Norine-Thomas com o nosso teorema principal.
            Download
            String-Recommender: Combining temporal information with Collaborative Filtering using string-comparison measures
            Curso Doutorado em Ciência da Computação
            Tipo Tese
            Data 17/09/2021
            Área CIÊNCIA DA COMPUTAÇÃO
            Orientador(es)
            • Hugo Alexandre Dantas do Nascimento
            Orientando(s)
            • Luiz Mário Lustosa Pascoal
            Banca
            • Anderson da Silva Soares
            • Claudia Lage Rebello da Motta
            • Gustavo Post Sabin
            • Hugo Alexandre Dantas do Nascimento
            • Sílvio César Cazella
            • Telma Woerle de Lima Soares
            • Thierson Couto Rosa
            • Wellington Santos Martins
            Resumo
            Download
              Soluções de alto desempenho para a Ordenação Segmentada de Vetores e o Escalonamento de Tarefas
              Curso Doutorado em Ciência da Computação
              Tipo Tese
              Data 05/08/2021
              Área CIÊNCIA DA COMPUTAÇÃO
              Orientador(es)
              • Edson Norberto Caceres
              Orientando(s)
              • Rafael Freitas Schmid
              Banca
              • Edson Borin
              • Edson Norberto Caceres
              • Henrique Mongelli
              • Liana Dessandre Duenha Garanhani
              • Nalvo Franco de Almeida Junior
              • Philippe Olivier Alexandre Navaux
              • Ronaldo Alves Ferreira
              • Wellington Santos Martins
              Resumo O problema do escalonamento de tarefas consiste na distribuição de tarefas entre as máquinas disponíveis no ambiente. Uma das formas de resolver esse problema é usando a heurística min-min, que consegue resolvê-lo de forma rápida, ao mesmo tempo que entrega soluções eficientes. Neste trabalho, foram realizadas implementações da heurística min-min para o escalonamento de tarefas em múltiplas CPUs e uma implementação de mochila linear para o escalonamento de kernels em uma GPU. Além disso, essas duas estratégias foram unidas para resolver o escalonamento de kernels em múltiplas GPUs. O algoritmo mais eficiente da heurística min-min consiste em resolver o problema da ordenação segmentada de vetores. Dessa forma, foi realizado também um estudo sobre as implementações da ordenação segmentada existentes e comparadas com as novas sugeridas. Os estudos de escalonamento foram realizados em ambientes reais de desenvolvimento, bem como, em ambientes simulados de computação em nuvem, usando os frameworks Cloudsim e GPUCloudsim. Os resultados mostraram que o uso de heurísticas, como o min-min, pode otimizar a utilização dos recursos nesses ambientes.
              Download
              Classificação de Tecidos Epiteliais Tumorais Empregando Imagens Hiperespectrais e Infravermelho de Ondas Curtas
              Curso Doutorado em Ciência da Computação
              Tipo Tese
              Data 04/08/2021
              Área CIÊNCIA DA COMPUTAÇÃO
              Orientador(es)
              • Anderson da Silva Soares
              Orientando(s)
              • Daniel Vitor de Lucena
              Banca
              • Aldo André Díaz Salazar
              • Anderson da Silva Soares
              • Arlindo Rodrigues Galvão Filho
              • Clarimar José Coelho
              • Fabrizzio Alphonsus Alves de Melo Nunes Soares
              • Gustavo Teodoro Laureano
              • Isabela Jubé Wastowski
              • Rafael Viana de Carvalho
              Resumo
              Download
                Elementos de Contorno para Análise Isogeométrica de Sólidos Elásticos com Vincos
                Curso Doutorado em Ciência da Computação
                Tipo Tese
                Data 30/07/2021
                Área CIÊNCIA DA COMPUTAÇÃO
                Orientador(es)
                • Paulo Aristarco Pagliosa
                Orientando(s)
                • Márcio Artacho Peres
                Banca
                • Afonso Paiva Neto
                • Anderson Vicoso de Araujo
                • Fabiano Petronetto do Carmo
                • Marcelo Ferreira Siqueira
                • Marco Hiroshi Naka
                • Paulo Aristarco Pagliosa
                • Renato Porfirio Ishii
                Resumo O método dos elementos de contorno (MEC) é uma importante alternativa para solução numérica de diversos problemas derivados da mecânica do contínuo. Em mecânica dos sólidos, mais especificamente, o método é atrativo pois pode requerer somente uma discretização das superfícies dos corpos em análise, com consequente diminuição da dimensionalidade do sistema discreto. No contexto de análise isogeométrica (IGA), o MEC é ainda mais naturalmente atrativo, uma vez que a ideia da IGA é utilizar o modelo geométrico de um objeto - geralmente definido por retalhos de superfícies NURBS produzidos por uma ferramenta CAD - como o próprio modelo de análise, sem emprego de um processo particular de geração de malhas. Recentemente, vários trabalhos que comprovam a viabilidade da IGA podem ser encontrados na literatura. Contudo, ainda há uma série de limitações que impedem a utilização prática da IGA, decorrentes principalmente da dificuldade de imposição de condições de contorno não homogêneas.
                Nesta tese, efetua-se um estudo dessas limitações e propõe-se uma solução baseada no MEC para análise isogeométrica de sólidos elásticos. O arcabouço resultante permite a modelagem de descontinuidades de forças de superfície através de elementos descontínuos e/ou nós múltiplos, sendo a multiplicidade de um nó dada por regiões da superfície delimitadas por curvas de vincos.
                Os elementos de contorno são definidos como retalhos de Bézier associados às faces da malha elementar de uma superfície T-spline. T-splines foram empregadas no lugar de NURBS por permitirem malhas de pontos de controle não estruturadas com junções em T e pontos extraordinários, sem necessidade de curvas de recorte, mas qualquer representação da qual se possa extrair retalhos de Bézier pode ser adotada. Um procedimento de extração de Bézier para superfícies T-splines genéricas com vincos e um esquema robusto de integração numérica dos termos da equação integral de contorno são introduzidos. O arcabouço é implementado em C++. Um protótipo em MATLAB permite a seleção interativa de grupos de elementos para especificação de condições de contorno representando vínculos genéricos e carregamentos uniformemente distribuídos, pressões e torques, bem como a análise numérica e visualização dos resultados.
                Download
                  Framework conceitual para heurísticas modernas de busca: Uma abordagem utilizando teoria das topologias e hipergrafos
                  Curso Doutorado em Ciência da Computação
                  Tipo Tese
                  Data 22/07/2021
                  Área CIÊNCIA DA COMPUTAÇÃO
                  Orientador(es)
                  • Telma Woerle de Lima Soares
                  Orientando(s)
                  • Lucas de Almeida Ribeiro
                  Banca
                  • Alexandre Cláudio Botazzo Delbem
                  • Anderson da Silva Soares
                  • Celso Gonçalves Camilo Junior
                  • Danilo Sipoli Sanches
                  • Fernando Marques Federson
                  • Hugo Alexandre Dantas do Nascimento
                  • Paulo Henrique Ribeiro Gabriel
                  • Telma Woerle de Lima Soares
                  Resumo
                  Download
                    Graph to sequence syntactic pattern recognition for image classification problems
                    Curso Doutorado em Ciência da Computação
                    Tipo Tese
                    Data 22/06/2021
                    Área CIÊNCIA DA COMPUTAÇÃO
                    Orientador(es)
                    • Hemerson Pistori
                    Orientando(s)
                    • Gilberto Astolfi
                    Banca
                    • Anderson Vicoso de Araujo
                    • Edson Takashi Matsubara
                    • Hemerson Pistori
                    • Marco Antonio Alvarez Vega
                    • Marco Hiroshi Naka
                    • Ronaldo Cristiano Prati
                    • Wesley Nunes Goncalves
                    • Willian Paraguassu Amorim
                    Resumo Um interesse crescente na aplicação de modelos de Processamento de Linguagem Natural (PLN) em problemas de visão computacional tem emergido recentemente. Esse interesse é motivado pelo sucesso dos modelos de PLN em tarefas como tradução e sumarização de textos. Neste trabalho, um novo método para aplicação de PLN em problemas de classificação de imagens é proposto. O objetivo é representar os padrões visuais de objetos usando uma sequência de símbolos do alfabeto e, em seguida, treinar alguma forma de Gated Recurrent Unit (GRU), Long Short-Term Memory (LSTM) ou Transformer usando essas sequências para classificar objetos. A representação de padrões visuais de objetos de maneira sintática permite que os modelos PLN sejam aplicados a problemas de classificação de imagens de uma forma natural, ou seja, da mesma forma que são aplicados a problemas de linguagem natural. Duas abordagens de representação de padrões visuais de objetos de maneira sintática foram investigadas: representação usando pontos-chave e representação usando partes componentes de objetos. Na abordagem que usa pontos-chave, os pontos-chave são identificados nas imagens, associados a símbolos do alfabeto e, em seguida, relacionados usando um grafo para derivar sequências de símbolos das imagens. As sequências de símbolos são as entradas para treinar um codificador LSTM. Experimentos mostraram evidências de que a representação sintática de padrão pode representar variações visuais em imagens de superpixel capturadas por Veículos Aéreos não Tripulados, mesmo quando há um pequeno conjunto de imagens para treinamento. Na abordagem que usa partes componentes de objetos, as partes componentes são fornecidas por meio de caixas delimitadoras nas imagens. As partes componentes são associadas aos símbolos do alfabeto e relacionadas entre si para derivar uma sequência de símbolos do objeto para representar seu padrão visual. Então, alguma forma de GRU, LSTM ou Transformer são treinados para aprender a relação espacial entre as partes componentes dos objetos contidos nas sequências. Uma extensa avaliação experimental, usando um número limitado de amostras para treinamento, foi conduzida para comparar nosso método com a arquitetura de aprendizagem profunda ResNet-50. Os resultados alcançados pelo método proposto superam a ResNet-50 em todos os cenários de teste. Em um teste, o método apresenta acurácia média de 95,3% contra 89,9% da ResNet-50. Ambos os experimentos mostraram evidências de que a partir de um conjunto finito de estruturas primitivas é possível obter muitas variações no padrão visual do objeto mesmo quando há poucas amostras para treinamento. Além disso, os experimentos evidenciaram que os modelos PLN podem ser aplicados de forma natural a problemas de classificação de imagens em visão computacional.
                    Download
                    Operadores para Representações Baseadas em Codificação Nó-Profundidade em Algoritmos Evolutivos
                    Curso Doutorado em Ciência da Computação
                    Tipo Tese
                    Data 16/03/2021
                    Área CIÊNCIA DA COMPUTAÇÃO
                    Orientador(es)
                    • Telma Woerle de Lima Soares
                    Orientando(s)
                    • Gustavo Post Sabin
                    Banca
                    • Alexandre Cláudio Botazzo Delbem
                    • Anderson da Silva Soares
                    • Celso Gonçalves Camilo Junior
                    • Danilo Sipoli Sanches
                    • Hugo Alexandre Dantas do Nascimento
                    • João Bosco Augusto London Júnior
                    • Telma Woerle de Lima Soares
                    Resumo As Representações Baseadas em Codificação Nó-Profundidade (RBNP) são representa-
                    ções para algoritmos evolutivos aplicados a problemas modelados por árvores armazenando os nós e suas respectivas profundidades em uma lista adequadamente ordenada.
                    Uma das representações desse tipo foi a Representação Nó-Profundidade-Grau, cujos
                    operadores de inicialização, mutação e recombinação possuem baixa complexidade de
                    tempo em relação a outras representações que tratam o mesmo tipo de problema presentes na literatura. Embora os operadores atuais tenham obtido bons resultados, é desejável
                    que existam operadores com características não atendidas por eles. Este trabalho propõe
                    um operador de inicialização de baixa complexidade de tempo e não tendencioso, mas que
                    permita a inclusão de tendência ou atenda a restrições do problema com facilidade. Um
                    operador de mutação também é proposto, possuindo como principal diferencial a possibilidade de incluir qualquer aresta na solução, possuindo alta localidade, sempre gerando
                    soluções factíveis e sem a necessidade de qualquer mecanismo de correção. Por fim, um
                    operador de recombinação é proposto, com a capacidade de gerar soluções com a má-
                    xima hereditariedade possível, podendo recombinar quaisquer soluções da população a
                    qualquer momento, com o objetivo de melhorar a convergência da busca. Todos os operadores propostos podem ser aplicados em qualquer RBNP e possibilitam tratar problemas
                    modelados por florestas com uma ou mais árvores. Este estudo analisou a redundância
                    das RBNP e também efetuou uma investigação sobre a tendência, localidade e hereditariedade dos operadores propostos, mostrando que eles possuem características adequadas
                    para tratar problemas de alta dimensionalidade. Para verificar a adequação dos operadores propostos, foi implementado o Algoritmo Evolutivo com Hereditariedade Máxima
                    e aplicado em testes empíricos em três diferentes problemas: Optimal Communication
                    Spanning Tree Problem, One Max Tree Problem e One Max Forest Problem.
                    Download
                      Página 1 de 4 (20 de 64 registros).