Trabalhos Disponíveis

TRABALHO Ações
Exploração do Espaço de Projetos de Sistemas Heterogêneos Aplicada ao Problema de Alocação de Recursos em Nuvem
Curso Mestrado em Ciência da Computação
Tipo Dissertação
Data 01/07/2022
Área CIÊNCIA DA COMPUTAÇÃO
Orientador(es)
  • Ricardo Ribeiro dos Santos
Coorientador(es)
    Orientando(s)
    • Danillo Christi Almeida Arigoni
    Banca
    • César Augusto Fonticielha De Rose
    • Liana Dessandre Duenha Garanhani
    • Renato Porfirio Ishii
    • Ricardo Ribeiro dos Santos
    Resumo Os serviços de computação em nuvem oferecem uma gama de recursos computacionais disponíveis sob demanda. Contudo, encontrar a melhor configuração de recursos que reduza custos e atenda as exigências do usuário tornou-se um grande desafio. Este desafio compartilha características essenciais com um problema da área de arquitetura de computadores, a exploração de espaço de projetos - Design Space Exploration (DSE). Em DSE, o foco é escolher, dentre uma grande quantidade de soluções arquiteturais, qual a mais indicada para uma determinada demanda, buscando atender objetivos e cumprindo as restrições de projeto. Diante disso, este trabalho propõe a aplicação de técnicas de exploração de espaço de projeto como potencial solução para o problema de alocação de recursos em nuvem. Este trabalho projetou e desenvolveu a ferramenta MultiExplorer-VM, uma extensão da ferramenta de DSE MultiExplorer. Essa extensão possui um fluxo de execução adaptado para a resolução do problema de alocação de recursos em nuvem, utilizando e adaptando algoritmos e técnicas de exploração de espaço de projeto.
    Experimentos foram realizados visando a validação estatística e comparação com outro trabalho existente na literatura da área que utiliza a técnica Paramount Interation (PI). Os resultados mostram que MultiExplorer-VM possibilita alcançar configurações de recursos com melhorias significativas em relação a técnica de PI. Seguindo as restrições de um modelo de otimização, para algumas aplicações, as soluções obtidas por MultiExplorer-VM são similares às configurações ótimas obtidas por uma ferramenta de busca exaustiva de soluções aplicada ao mesmo problema.
    Download
    Exploração do Espaço de Projetos de Sistemas GP-GPU ciente de Dark Silicon
    Curso Mestrado em Ciência da Computação
    Tipo Dissertação
    Data 30/06/2022
    Área CIÊNCIA DA COMPUTAÇÃO
    Orientador(es)
    • Liana Dessandre Duenha Garanhani
    Coorientador(es)
      Orientando(s)
      • Rhayssa de Almeida Sonohata
      Banca
      • Eraldo Luis Rezende Fernandes
      • Jonathan de Andrade Silva
      • Liana Dessandre Duenha Garanhani
      • Ricardo Ribeiro dos Santos
      Resumo O alto potencial de paralelismo e de largura de banda oferecidos pelas GPUs, aliados à popularização das linguagens de programação CUDA e OpenCL, fizeram com que as unidades de processamento gráfico fossem utilizadas em aplicações distintas daquelas para as quais foram originalmente criadas, consolidando, assim, o conceito de GP-GPU ou Unidades de Processamento Gráfico para computação de propósito geral. A partir do crescente uso de sistemas que unem CPUs e GPUs para processamento de forma colaborativa, foram desenvolvidas ferramentas para explorar o desempenho e o consumo dos diversos parâmetros arquiteturais dos projetos de computação heterogênea. Entretanto, essas ferramentas são escassas, limitadas, computacionalmente custo-
      sas e precisam de parâmetros arquiteturais de difícil obtenção. Isso posto, este trabalho propõe o desenvolvimento e avaliação de modelos de predição de desempenho de sistemas heterogêneos GP-GPU usando técnicas de aprendizado de máquina, com objetivo de alcançar alta acurácia e substituir o custoso processo de simulação. Tais preditores foram validados a partir da integração a uma ferramenta de exploração de espaço de projeto ciente de dark-silicon,denominada MultiExplorer, que realiza a avaliação de alternativas arquiteturais para um projeto-base, buscando alcançar objetivos pré-estabelecidos como maximização de desempenho e minimização de área em dark-silicon, obedecendo restrições de área e consumo energético. Dependendo do espaço de projeto, tal ferramenta avalia centenas de milhares de alternativas arquiteturais e, portanto, os preditores de desempenho com baixo custo computacional e acurácia são essenciais.
      Medianas em genômica comparativa
      Curso Mestrado em Ciência da Computação
      Tipo Dissertação
      Data 27/05/2022
      Área CIÊNCIA DA COMPUTAÇÃO
      Orientador(es)
      • Fabio Henrique Viduani Martinez
      Coorientador(es)
        Orientando(s)
        • Helmuth Ossinaga Martines da Silva
        Banca
        • Carlos Henrique Aguena Higa
        • Diego Padilha Rubert
        • Fabio Henrique Viduani Martinez
        • Francisco Eloi Soares de Araujo
        • José Coelho de Pina Junior
        • Marco Aurelio Stefanes
        Resumo A inferência de genomas ancestrais é uma tarefa clássica em genômica comparativa. Aqui, estudamos o problema da mediana de genomas tal que, dado um conjunto de três ou mais genomas, queremos encontrar um novo genoma que minimize a soma das distâncias par a par entre esse e os genomas dados. A distância representa a quantidade de evolução observada no nível do genoma, para a qual determinamos o número mínimo de operações de rearranjos necessárias para transformar um genoma em outro. Para quase todas as operações de rearranjo conhecidas, o problema da mediana é NP-difícil, com exceção da operação single-cut-or-join (SCJ) que pode ser resolvido eficientemente para genomas multicromossomais circulares e mistos. Neste projeto, estudamos o problema da mediana sob uma medida de rearranjo restrita chamada distância-c4, que é estreitamente relacionada à distância SCJ e à DCJ (double-cut-and-join). Identificamos limitantes precisos e decomposers da mediana-c4 e implementamos algoritmos para a sua construção, dois algoritmo exatos baseados em PLI (Programação Linear Inteira) e três heurísticas combinatórias. Posteriormente, realizamos experimentos com conjunto de dados simulados. Nossos resultados sugerem que a distância-c4 é útil para estudo do problema da mediana de genomas, de perspectiva teórica e prática.
        Multi-task Learning Applied to Computer Vision Problems
        Curso Doutorado em Ciência da Computação
        Tipo Tese
        Data 28/03/2022
        Área CIÊNCIA DA COMPUTAÇÃO
        Orientador(es)
        • Hemerson Pistori
        Coorientador(es)
          Orientando(s)
          • Diogo Nunes Gonçalves
          Banca
          • Hemerson Pistori
          • Jonathan de Andrade Silva
          • Jose Marcato Junior
          • Lucas Prado Osco
          • Paulo Eduardo Teodoro
          • Vanessa Aparecida de Moraes Weber
          Resumo O aprendizado profundo tem sido amplamente estudado, principalmente para resolver problemas considerados complexos. De forma geral, esses problemas podem ser descritos e divididos em um conjunto de tarefas. Essas tarefas são intrínsecas ao problema geral, ou seja, são definidas de forma natural por fazer parte da essência do problema. Além disso, elas podem ser aprendidas de forma isolada porém estão relacionadas para solução do problema geral. Outro fator importante é que para um problema maior de visão computacional, realizar as tarefas distintas individualmente se torna muito custoso em memória e tempo de inferência. Para solucionar esses problemas uma abordagem chamada Aprendizado Multitarefa (MTL) foi proposta. A ideia é simular o aprendizado humano, em que pessoas podem aprender novas tarefas através de experiências obtidas no aprendizado de tarefas similares. Essa abordagem permite o aprendizado das tarefas do problema de maneira simultânea, construindo uma relação entre elas. A partir desses direcionamentos, este trabalho na forma de coleção de artigos apresenta abordagens MTL para a resolução de problemas de visão computacional. Inicialmente, dois problemas foram abordados: detecção de linhas de plantação no primeiro artigo e detecção de alevinos no segundo. Na detecção de linhas de plantação a ideia é dividir o problema em identificar as plantas individualmente e detectar as linhas de plantação. Na detecção de alevinos as tarefas são divididas em detectar o alevino e identificar a direção desse alevino nos quadros subsequentes. Para ambos os problemas, um método foi proposto com um backbone que extrai as características iniciais para todas as tarefas. Tendo como entrada as características iniciais, ramos independentes aprendem a solução de cada tarefa. A troca de informações entre as tarefas ocorre por meio da concatenação das características extraídas em pontos específicos de cada ramo. Os resultados mostraram que o compartilhamento entre as tarefas é importante para a solução, alcançando resultados superiores ao estado-da-arte. Além das duas propostas, um novo método de segmentação semântica usando MTL e mecanismo de atenção foi proposto. O principal avanço foi o uso de pesos aprendidos por Transformers para indicar a importância de uma tarefa nas demais. Assim, apenas regiões da imagem consideradas relevantes influenciam em outras tarefas. Os resultados em dois problemas, segmentação de linhas e falhas de plantação, e segmentação da folha e desfolha, mostraram a eficácia da abordagem frente ao estado-da-arte.
          Download
          Predição de nível de rios da Região Hidrográfica do Rio Paraguai utilizando algoritmos de Aprendizado de Máquina
          Curso Mestrado em Ciência da Computação
          Tipo Dissertação
          Data 25/02/2022
          Área CIÊNCIA DA COMPUTAÇÃO
          Orientador(es)
          • Renato Porfirio Ishii
          Coorientador(es)
            Orientando(s)
            • Rogério Alves dos Santos Antoniassi
            Banca
            • Bruno Magalhaes Nogueira
            • Carlos Roberto Padovani
            • Edson Takashi Matsubara
            • Omar Andres Carmona Cortes
            • Renato Porfirio Ishii
            Resumo O Pantanal faz parte da Região Hidrográfica do Rio Paraguai (RH-Paraguai) e possui, como característica, a inundação de uma parcela de sua área em determinadas épocas do ano. Essa inundação gera uma série de problemas socioeconômicos à população que vive em seu entorno. Problemas estes que podem ser mitigados quando há previsão de sua ocorrência com antecedência. Nesse sentido, este trabalho investiga a aplicação de técnicas de Aprendizado de Máquina (AM) para a predição de níveis dos rios da RH-Paraguai, utilizando dados diários de estações a montante para previsão do nível de estações a jusante. Nessa perspectiva, a modelagem com técnicas de AM demonstra-se eficaz nas predições, na medida que trabalhos similares aparecem na literatura correlata. Dessa maneira, é utilizada uma fonte de dados com valores de níveis diários, sendo selecionada uma amostra de três estações. Em seguida, foi retirada a defasagem do tempo entre o pico de cheia de uma estação e outra, pesquisados os hiperparâmetros ideais para as redes Long Short Term Memory (LSTM), Gated Recurrent Unit (GRU) e Bidirectional Long Short Term Memory (BiLSTM) e submetidos ao processo de treinamento. Posteriormente, foram selecionados os modelos de melhores resultados de cada algoritmo, os quais foram comparados com a técnica de Regressão utilizada atualmente. Os resultados mostram que os três modelos testados podem ser utilizados para a tarefa de predição, em que, os três apresentam melhorias em relação ao modelo atual. O modelo com o algoritmo GRU se destacou por apresentar as menores taxas de erro e por ser 23,84% mais preciso que o modelo de Regressão, já LSTM e BiLSTM são, respectivamente, 18,09% e 19,16% mais precisos que o modelo de Regressão. Os modelos de LSTM e BiLSTM se aproximam mais do valor real nos picos de níveis máximos e mínimos, quando comparados ao de Regressão e ao GRU.
            Download
            Problema de roteamento em anéis de dois níveis
            Curso Mestrado em Ciência da Computação
            Tipo Dissertação
            Data 16/12/2021
            Área CIÊNCIA DA COMPUTAÇÃO
            Orientador(es)
            • Edna Ayako Hoshino
            Coorientador(es)
              Orientando(s)
              • Cecília Lescano Osório
              Banca
              • Edna Ayako Hoshino
              • Fabio Henrique Viduani Martinez
              • Fábio Luiz Usberti
              • Francisco Eloi Soares de Araujo
              • Henrique Mongelli
              • Vagner Pedrotti
              Resumo Nesta dissertação de mestrado estudamos o problema do roteamento em anéis de dois níveis, que consiste em, dado um grafo e custos associados às arestas, projetar uma rede hierárquica em dois níveis em que ambos os níveis são anéis. Apresentamos um modelo em programação linear inteira para o problema e propomos um algoritmo exato branch-and-price para resolvê-lo. Uma vez que o modelo proposto faz uso de um número exponencial de variáveis, utilizamos o método da geração de colunas para resolver a relaxação linear do modelo. Propomos também uma relaxação para a geração de colunas e heurísticas para melhorar o desempenho do algoritmo proposto.
              Download
              Desenvolvimento e Avaliação de Métodos de Interação com Dispositivos e Ambientes Inteligentes Utilizando Smartwatches: Uma Abordagem com Reconhecimento Contínuo de Gestos
              Curso Doutorado em Ciência da Computação
              Tipo Tese
              Data 06/12/2021
              Área CIÊNCIA DA COMPUTAÇÃO
              Orientador(es)
              • Fabrizzio Alphonsus Alves de Melo Nunes Soares
              Coorientador(es)
                Orientando(s)
                • Thamer Horbylon Nascimento
                Banca
                • Alexandre Cardoso
                • Deborah Silva Alves Fernandes
                • Fabrizzio Alphonsus Alves de Melo Nunes Soares
                • Fátima de Lourdes dos Santos Nunes Marques
                • Gélson da Cruz Júnior
                • Renato de Freitas Bulcão Neto
                • Ronaldo Martins da Costa
                Resumo
                Download
                  Braces minimais e suas propriedades
                  Curso Doutorado em Ciência da Computação
                  Tipo Tese
                  Data 27/10/2021
                  Área CIÊNCIA DA COMPUTAÇÃO
                  Orientador(es)
                  • Marcelo Henriques de Carvalho
                  Coorientador(es)
                    Orientando(s)
                    • Phelipe Araujo Fabres
                    Banca
                    • Alberto Alexandre Assis Miranda
                    • Fabio Henrique Viduani Martinez
                    • Francisco Eloi Soares de Araujo
                    • José Coelho de Pina Junior
                    • Marcelo Henriques de Carvalho
                    Resumo McCuaig provou um teorema de geração para braces e o usou como uma ferramenta de indução
                    para obter uma caracterização estrutural de braces Pfaffianos.
                    Um brace é minimal se a remoção de qualquer aresta resulta em grafo que não é brace. A partir
                    do teorema de geração de braces de McCuaig, nós provamos nosso teorema principal que pode ser visto
                    como uma ferramenta de indução para braces minimais. Como uma aplicação, nós provamos que um
                    brace minimal de ordem 2n (n ≥ 6) tem no máximo 5n − 10 arestas e apresentamos uma caracterização
                    completa dos braces minimais para os quais esse limite superior ocorre com igualdade.
                    Um trabalho similar foi realizado no contexto de bricks minimais por Norine-Thomas em que
                    eles deduzem o resultado principal do teorema de geração de bricks provado pelos mesmos autores.
                    No final deste trabalho, apresentamos um teorema único para a construção de bricks e braces minimais
                    combinando uma prova alternativa do teorema de Norine-Thomas com o nosso teorema principal.
                    Download
                    String-Recommender: Combining temporal information with Collaborative Filtering using string-comparison measures
                    Curso Doutorado em Ciência da Computação
                    Tipo Tese
                    Data 17/09/2021
                    Área CIÊNCIA DA COMPUTAÇÃO
                    Orientador(es)
                    • Hugo Alexandre Dantas do Nascimento
                    Coorientador(es)
                    • Thierson Couto Rosa
                    Orientando(s)
                    • Luiz Mário Lustosa Pascoal
                    Banca
                    • Anderson da Silva Soares
                    • Claudia Lage Rebello da Motta
                    • Gustavo Post Sabin
                    • Hugo Alexandre Dantas do Nascimento
                    • Sílvio César Cazella
                    • Telma Woerle de Lima Soares
                    • Thierson Couto Rosa
                    • Wellington Santos Martins
                    Resumo
                    Download
                      PUL-SSC: Aprendizado baseado em umaúnica classe com agrupamentosemissupervisionado
                      Curso Mestrado em Ciência da Computação
                      Tipo Dissertação
                      Data 02/09/2021
                      Área CIÊNCIA DA COMPUTAÇÃO
                      Orientador(es)
                      • Bruno Magalhaes Nogueira
                      Coorientador(es)
                        Orientando(s)
                        • Shih Ting Ju
                        Banca
                        • Bruno Magalhaes Nogueira
                        • Diego Furtado Silva
                        • Edson Takashi Matsubara
                        • Rafael Geraldeli Rossi
                        • Ricardo Marcondes Marcacini
                        • Solange Oliveira Rezende
                        Resumo A grande quantidade de dados disponíveis atualmente é uma fonte de extração de informações para fins comerciais e acadêmicos. Uma abordagem para extrair conhecimento em bases de dados que ganhou destaque é a classificação de uma única classe (em inglês, One-class Classification - OCC). O uso de OCC para classificar se um exemplo é de uma classe específica é apropriado em conjuntos de dados em que as classes são desbalanceadas ou apenas os dados da classe de interesse estão presentes durante o treinamento. Vários algoritmos de OCC encontrados na literatura utilizam agrupamento não supervisionado para delimitar a fronteira da classe de interesse. Esses algoritmos conseguem ter resultados competitivos com aqueles apresentados por outros algoritmos de OCC. Embora o aprendizado semissupervisionado tenha mostrado a possibilidade de alcançar melhores resultados em várias áreas do que com o agrupamento semissupervisionado, o agrupamento semissupervisionado ainda é pouco explorado para OCC. Uma abordagem para OCC é o Positive and Unlabeled Learning (PUL), em que o aprendizado ocorre apenas com dados positivos (interesse) e não rotulados. Os algoritmos de PUL procuram encontrar uma delimitação da classe positiva. Este trabalho de mestrado propõe um novo algoritmo PUL-SSC (Positive and Unlabeled Learning with Semi-Supervised Clustering) que aprende a delimitar a classe de interesse através da criação e utilização de restrições must-link e cannot-link, agrupamento de dados com algoritmo semisupervisionado e um processo de aprendizado transdutivo para propagação de rótulos. Foram explorados dois algoritmos de agrupamento semissupervisionados amplamente usados: PCKMeans e MPCK-Means. Na avaliação experimental, os algoritmos semissupervisionados superaram o algoritmo baseado em k-Means e o SVM de uma classe (OC-SVM) na maioria dos cenários. Em particular, o algoritmo baseado em distância MPCK-Means foi dominante na maioria das comparações usando conjuntos de dados numéricos e textuais.
                        Download
                        Contagem de Fluxo de Pessoas Utilizando Aprendizado Profundo
                        Curso Mestrado em Ciência da Computação
                        Tipo Dissertação
                        Data 25/08/2021
                        Área CIÊNCIA DA COMPUTAÇÃO
                        Orientador(es)
                        • Edson Takashi Matsubara
                        Coorientador(es)
                        • Raul Queiroz Feitosa
                        Orientando(s)
                        • Pedro Henrique de Moraes
                        Banca
                        • Bruno Magalhaes Nogueira
                        • Edson Takashi Matsubara
                        • Jonathan de Andrade Silva
                        • Rafael Geraldeli Rossi
                        • Wesley Nunes Goncalves
                        Resumo A contagem do fluxo de clientes é a contabilização da quantidade de pessoas que entram no estabelecimento. Esta contagem permite extrair diferentes métricas do negócio como taxa de conversão das ações de marketing, duração das visitas e tráfego de pessoas. O objetivo principal desta dissertação é propor, desenvolver e avaliar uma solução para contar clientes utilizando câmeras de segurança. A proposta consiste em combinar algoritmos de aprendizado profundo para contagem das pessoas. Adicionalmente identificar pessoas que não devem entrar na contagem, como funcionários e colaboradores. A partir de vídeos coletados em dois locais distintos que foram anotados manualmente foi definido a contagem Real. Posteriormente foram submetidos à Yolov5 para a definição da contagem por Pessoas e RetinaFace por Face. A contagem realizada pela proposta foi comparada com a contagem manual utilizando teste de significância. Segundo o teste houve não diferença significativa entre as contagens de Pessoa e Real. Sendo assim a técnica da solução proposta foi validada e a viabilidade econômica apresentou custo de 24,4USD por mês, considerando 10 horas de vídeo diárias para processamento em nuvem. A solução proposta não necessita de inserção de hardware específico e modificações nos espaços dos lojistas, sendo uma alternativa promissora para esse o problema.
                        Download
                        Soluções de alto desempenho para a Ordenação Segmentada de Vetores e o Escalonamento de Tarefas
                        Curso Doutorado em Ciência da Computação
                        Tipo Tese
                        Data 05/08/2021
                        Área CIÊNCIA DA COMPUTAÇÃO
                        Orientador(es)
                        • Edson Norberto Caceres
                        Coorientador(es)
                          Orientando(s)
                          • Rafael Freitas Schmid
                          Banca
                          • Edson Borin
                          • Edson Norberto Caceres
                          • Henrique Mongelli
                          • Liana Dessandre Duenha Garanhani
                          • Nalvo Franco de Almeida Junior
                          • Philippe Olivier Alexandre Navaux
                          • Ronaldo Alves Ferreira
                          • Wellington Santos Martins
                          Resumo O problema do escalonamento de tarefas consiste na distribuição de tarefas entre as máquinas disponíveis no ambiente. Uma das formas de resolver esse problema é usando a heurística min-min, que consegue resolvê-lo de forma rápida, ao mesmo tempo que entrega soluções eficientes. Neste trabalho, foram realizadas implementações da heurística min-min para o escalonamento de tarefas em múltiplas CPUs e uma implementação de mochila linear para o escalonamento de kernels em uma GPU. Além disso, essas duas estratégias foram unidas para resolver o escalonamento de kernels em múltiplas GPUs. O algoritmo mais eficiente da heurística min-min consiste em resolver o problema da ordenação segmentada de vetores. Dessa forma, foi realizado também um estudo sobre as implementações da ordenação segmentada existentes e comparadas com as novas sugeridas. Os estudos de escalonamento foram realizados em ambientes reais de desenvolvimento, bem como, em ambientes simulados de computação em nuvem, usando os frameworks Cloudsim e GPUCloudsim. Os resultados mostraram que o uso de heurísticas, como o min-min, pode otimizar a utilização dos recursos nesses ambientes.
                          Download
                          Classificação de Tecidos Epiteliais Tumorais Empregando Imagens Hiperespectrais e Infravermelho de Ondas Curtas
                          Curso Doutorado em Ciência da Computação
                          Tipo Tese
                          Data 04/08/2021
                          Área CIÊNCIA DA COMPUTAÇÃO
                          Orientador(es)
                          • Anderson da Silva Soares
                          Coorientador(es)
                            Orientando(s)
                            • Daniel Vitor de Lucena
                            Banca
                            • Aldo André Díaz Salazar
                            • Anderson da Silva Soares
                            • Arlindo Rodrigues Galvão Filho
                            • Clarimar José Coelho
                            • Fabrizzio Alphonsus Alves de Melo Nunes Soares
                            • Gustavo Teodoro Laureano
                            • Isabela Jubé Wastowski
                            • Rafael Viana de Carvalho
                            Resumo
                            Download
                              Elementos de Contorno para Análise Isogeométrica de Sólidos Elásticos com Vincos
                              Curso Doutorado em Ciência da Computação
                              Tipo Tese
                              Data 30/07/2021
                              Área CIÊNCIA DA COMPUTAÇÃO
                              Orientador(es)
                              • Paulo Aristarco Pagliosa
                              Coorientador(es)
                                Orientando(s)
                                • Márcio Artacho Peres
                                Banca
                                • Afonso Paiva Neto
                                • Anderson Vicoso de Araujo
                                • Fabiano Petronetto do Carmo
                                • Marcelo Ferreira Siqueira
                                • Marco Hiroshi Naka
                                • Paulo Aristarco Pagliosa
                                • Renato Porfirio Ishii
                                Resumo O método dos elementos de contorno (MEC) é uma importante alternativa para solução numérica de diversos problemas derivados da mecânica do contínuo. Em mecânica dos sólidos, mais especificamente, o método é atrativo pois pode requerer somente uma discretização das superfícies dos corpos em análise, com consequente diminuição da dimensionalidade do sistema discreto. No contexto de análise isogeométrica (IGA), o MEC é ainda mais naturalmente atrativo, uma vez que a ideia da IGA é utilizar o modelo geométrico de um objeto - geralmente definido por retalhos de superfícies NURBS produzidos por uma ferramenta CAD - como o próprio modelo de análise, sem emprego de um processo particular de geração de malhas. Recentemente, vários trabalhos que comprovam a viabilidade da IGA podem ser encontrados na literatura. Contudo, ainda há uma série de limitações que impedem a utilização prática da IGA, decorrentes principalmente da dificuldade de imposição de condições de contorno não homogêneas.
                                Nesta tese, efetua-se um estudo dessas limitações e propõe-se uma solução baseada no MEC para análise isogeométrica de sólidos elásticos. O arcabouço resultante permite a modelagem de descontinuidades de forças de superfície através de elementos descontínuos e/ou nós múltiplos, sendo a multiplicidade de um nó dada por regiões da superfície delimitadas por curvas de vincos.
                                Os elementos de contorno são definidos como retalhos de Bézier associados às faces da malha elementar de uma superfície T-spline. T-splines foram empregadas no lugar de NURBS por permitirem malhas de pontos de controle não estruturadas com junções em T e pontos extraordinários, sem necessidade de curvas de recorte, mas qualquer representação da qual se possa extrair retalhos de Bézier pode ser adotada. Um procedimento de extração de Bézier para superfícies T-splines genéricas com vincos e um esquema robusto de integração numérica dos termos da equação integral de contorno são introduzidos. O arcabouço é implementado em C++. Um protótipo em MATLAB permite a seleção interativa de grupos de elementos para especificação de condições de contorno representando vínculos genéricos e carregamentos uniformemente distribuídos, pressões e torques, bem como a análise numérica e visualização dos resultados.
                                Download
                                  Uso de redes neurais para o problema de previsão de pacientes de alto custo
                                  Curso Mestrado em Ciência da Computação
                                  Tipo Dissertação
                                  Data 26/07/2021
                                  Área CIÊNCIA DA COMPUTAÇÃO
                                  Orientador(es)
                                  • Renato Porfirio Ishii
                                  Coorientador(es)
                                    Orientando(s)
                                    • Franklin Messias Barbosa
                                    Banca
                                    • Bruno Magalhaes Nogueira
                                    • Eraldo Luis Rezende Fernandes
                                    • Luciano Jose Senger
                                    • Omar Andres Carmona Cortes
                                    • Renato Porfirio Ishii
                                    Resumo O crescente envelhecimento da população mundial, juntamente com diversos fatores ambientais, sociais e econômicos, acabam gerando grandes desafios para a saúde pública em geral. Dentro deste cenário é de interesse tanto
                                    para operadoras de planos de saúde privados quanto para gestores da saúde
                                    pública um melhor gerenciamento dos recursos disponíveis, a fim de atingir a
                                    maior parcela possível da sociedade. Para isso, tendo em mente a quantidade
                                    de informações produzidas diariamente, fica evidente também, a necessidade
                                    do uso de tecnologias de processamento de dados e auxílio à tomada de decisões para que tal gerenciamento seja feito de maneira satisfatória.
                                    Este trabalho tem como objetivo analisar a aplicação de técnicas de machine learning na área da saúde. Uma das possíveis aplicações inclui a detecção de possíveis pacientes de alto custo a partir de dados históricos, a fim de
                                    melhor direcionar intervenções que venham a evitar a transição de pacientes
                                    regulares em pacientes de alto custo, ou, no caso daqueles que já estão nessa
                                    condição, permitir abordagens apropriadas ao invés de genéricas. Em ambos
                                    os casos, a detecção de tais pacientes pode ser benéfica, reduzindo custos
                                    evitáveis e melhorando a condição dos pacientes.
                                    A fim de realizar tais detecções, este trabalho se concentrou no uso de técnicas de machine learning, especificamente, Redes Neurais, juntamente com
                                    um conjunto de dados composto por respostas de pesquisas aplicadas pelo
                                    governo dos Estados Unidos, denominado Medical Expenditure Panel Survey
                                    (MEPS) e atributos coletados a partir da literatura.
                                    O modelo final escolhido para prever a condição de alto custo foi uma rede
                                    neural sequencial totalmente conectada, com 3 camadas ocultas e 3 camadas
                                    de dropout. Esta rede obteve 88% nas métricas de accuracy e f1 score, 91%
                                    na métrica de recall, 86% de precision e 84% de specificity, demonstrando a
                                    capacidade do modelo de prever corretamente exemplos de ambas as classes.
                                    Este trabalho teve também como objetivo facilitar a criação e o teste dessas
                                    redes, disponibilizando as ferramentas desenvolvidas durante sua evolução no GitHub.
                                    Download
                                    Framework conceitual para heurísticas modernas de busca: Uma abordagem utilizando teoria das topologias e hipergrafos
                                    Curso Doutorado em Ciência da Computação
                                    Tipo Tese
                                    Data 22/07/2021
                                    Área CIÊNCIA DA COMPUTAÇÃO
                                    Orientador(es)
                                    • Telma Woerle de Lima Soares
                                    Coorientador(es)
                                    • Anderson da Silva Soares
                                    Orientando(s)
                                    • Lucas de Almeida Ribeiro
                                    Banca
                                    • Alexandre Cláudio Botazzo Delbem
                                    • Anderson da Silva Soares
                                    • Celso Gonçalves Camilo Junior
                                    • Danilo Sipoli Sanches
                                    • Fernando Marques Federson
                                    • Hugo Alexandre Dantas do Nascimento
                                    • Paulo Henrique Ribeiro Gabriel
                                    • Telma Woerle de Lima Soares
                                    Resumo
                                    Download
                                      Graph to sequence syntactic pattern recognition for image classification problems
                                      Curso Doutorado em Ciência da Computação
                                      Tipo Tese
                                      Data 22/06/2021
                                      Área CIÊNCIA DA COMPUTAÇÃO
                                      Orientador(es)
                                      • Hemerson Pistori
                                      Coorientador(es)
                                        Orientando(s)
                                        • Gilberto Astolfi
                                        Banca
                                        • Anderson Vicoso de Araujo
                                        • Edson Takashi Matsubara
                                        • Hemerson Pistori
                                        • Marco Antonio Alvarez Vega
                                        • Marco Hiroshi Naka
                                        • Ronaldo Cristiano Prati
                                        • Wesley Nunes Goncalves
                                        • Willian Paraguassu Amorim
                                        Resumo Um interesse crescente na aplicação de modelos de Processamento de Linguagem Natural (PLN) em problemas de visão computacional tem emergido recentemente. Esse interesse é motivado pelo sucesso dos modelos de PLN em tarefas como tradução e sumarização de textos. Neste trabalho, um novo método para aplicação de PLN em problemas de classificação de imagens é proposto. O objetivo é representar os padrões visuais de objetos usando uma sequência de símbolos do alfabeto e, em seguida, treinar alguma forma de Gated Recurrent Unit (GRU), Long Short-Term Memory (LSTM) ou Transformer usando essas sequências para classificar objetos. A representação de padrões visuais de objetos de maneira sintática permite que os modelos PLN sejam aplicados a problemas de classificação de imagens de uma forma natural, ou seja, da mesma forma que são aplicados a problemas de linguagem natural. Duas abordagens de representação de padrões visuais de objetos de maneira sintática foram investigadas: representação usando pontos-chave e representação usando partes componentes de objetos. Na abordagem que usa pontos-chave, os pontos-chave são identificados nas imagens, associados a símbolos do alfabeto e, em seguida, relacionados usando um grafo para derivar sequências de símbolos das imagens. As sequências de símbolos são as entradas para treinar um codificador LSTM. Experimentos mostraram evidências de que a representação sintática de padrão pode representar variações visuais em imagens de superpixel capturadas por Veículos Aéreos não Tripulados, mesmo quando há um pequeno conjunto de imagens para treinamento. Na abordagem que usa partes componentes de objetos, as partes componentes são fornecidas por meio de caixas delimitadoras nas imagens. As partes componentes são associadas aos símbolos do alfabeto e relacionadas entre si para derivar uma sequência de símbolos do objeto para representar seu padrão visual. Então, alguma forma de GRU, LSTM ou Transformer são treinados para aprender a relação espacial entre as partes componentes dos objetos contidos nas sequências. Uma extensa avaliação experimental, usando um número limitado de amostras para treinamento, foi conduzida para comparar nosso método com a arquitetura de aprendizagem profunda ResNet-50. Os resultados alcançados pelo método proposto superam a ResNet-50 em todos os cenários de teste. Em um teste, o método apresenta acurácia média de 95,3% contra 89,9% da ResNet-50. Ambos os experimentos mostraram evidências de que a partir de um conjunto finito de estruturas primitivas é possível obter muitas variações no padrão visual do objeto mesmo quando há poucas amostras para treinamento. Além disso, os experimentos evidenciaram que os modelos PLN podem ser aplicados de forma natural a problemas de classificação de imagens em visão computacional.
                                        Download
                                        Alinhamento Global de Várias Sequências Biológicas utilizando Cluster de GPUs
                                        Curso Mestrado em Ciência da Computação
                                        Tipo Dissertação
                                        Data 07/05/2021
                                        Área CIÊNCIA DA COMPUTAÇÃO
                                        Orientador(es)
                                        • Marco Aurelio Stefanes
                                        Coorientador(es)
                                          Orientando(s)
                                          • Rodrigo Albuquerque de Oliveira Siqueira
                                          Banca
                                          • David Corrêa Martins Junior
                                          • Fabio Henrique Viduani Martinez
                                          • Francisco Eloi Soares de Araujo
                                          • Luiz Carlos da Silva Rozante
                                          • Marco Aurelio Stefanes
                                          Resumo O alinhamento de múltiplas sequências é uma ferramenta importante para o estudo e a representação de similaridades entre conjuntos de sequências biológicas – como DNAs, RNAs e proteínas. Este estudo permite a obtenção de informações relevantes destas sequências, como suas relações funcionais, evolucionárias e estruturas internas. Devido a sua importância, vários métodos foram propostos como solução a este problema. Entretanto, a complexidade inerente do problema, que é apresentado como computacionalmente NP-Difícil, conduz a tempos de execução proibitivos em cenários com muitas sequências longas.
                                          Neste trabalho, apresentamos uma implementação completa para o método heurístico de Alinhamento Progressivo utilizando paralelismo híbrido para ambientes com múltiplas GPUs. Esta abordagem permite a construção de alinhamentos globais entre bases com muitas sequências de comprimentos longos em tempo razoável.
                                          Nossa implementação atinge resultados expressivos, apresentando speedups de até 380 quando comparado ao alinhador paralelo ClustalW-MPI para sequências reais obtidas do banco de dados do NCBI.
                                          Detecção de Hiperônimos com BERT e Padrões de Hearst
                                          Curso Mestrado em Ciência da Computação
                                          Tipo Dissertação
                                          Data 01/04/2021
                                          Área CIÊNCIA DA COMPUTAÇÃO
                                          Orientador(es)
                                          • Eraldo Luis Rezende Fernandes
                                          Coorientador(es)
                                            Orientando(s)
                                            • Gabriel Escobar Paes
                                            Banca
                                            • Anderson Vicoso de Araujo
                                            • Bruno Magalhaes Nogueira
                                            • Edson Takashi Matsubara
                                            • Eraldo Luis Rezende Fernandes
                                            • Rafael Geraldeli Rossi
                                            Resumo A relação de hiperônimo é uma importante relação semântica entre palavras que é útil para resolver problemas como resolução de correferência, extração de relações, textual entailment, dentre outros. Um hiperônimo é uma palavra de sentido mais genérico, enquanto um hipônimo é uma palavra de
                                            sentido mais específico. Por exemplo, cidade é hiperônimo de roma, e cachorro é hipônimo de animal. Neste trabalho, propomos um algoritmo não-supervisionado para a tarefa de detecção de hiperônimo que combina os chamados padrões de Hearst com o modelo de linguagem BERT. Padrões de Hearst são padrões linguísticos como banana é um tipo de fruta, o qual é um
                                            indício que fruta é um hiperônimo de banana. Uma limitação deste tipo de abordagem é o problema de escassez (sparsity), comum a métodos baseados em padrões linguísticos.
                                            O modelo de linguagem BERT é um modelo profundo de representação contextual que é treinado para predizer palavras mascaradas na sequência de entrada.
                                            Nós combinamos esta característica do BERT com padrões de Hearst para derivar um algoritmo de detecção de hiperônimo que obtém os melhores resultados da literatura em 7 de 13 datasets considerados.
                                            Dentre estes datasets, estão os três primeiros datasets em português e
                                            que foram desenvolvidos neste trabalho. Nós comparamos nosso método com
                                            o algoritmo DIVE, uma extensão do conhecido algoritmo word2vec que detinha os melhores resultados na maioria dos datasets em inglês para detecção
                                            de hiperônimo. Nosso método alcança um desempenho 3 pontos acima do
                                            DIVE na média dos treze datasets considerados.
                                            Download
                                            Operadores para Representações Baseadas em Codificação Nó-Profundidade em Algoritmos Evolutivos
                                            Curso Doutorado em Ciência da Computação
                                            Tipo Tese
                                            Data 16/03/2021
                                            Área CIÊNCIA DA COMPUTAÇÃO
                                            Orientador(es)
                                            • Telma Woerle de Lima Soares
                                            Coorientador(es)
                                              Orientando(s)
                                              • Gustavo Post Sabin
                                              Banca
                                              • Alexandre Cláudio Botazzo Delbem
                                              • Anderson da Silva Soares
                                              • Celso Gonçalves Camilo Junior
                                              • Danilo Sipoli Sanches
                                              • Hugo Alexandre Dantas do Nascimento
                                              • João Bosco Augusto London Júnior
                                              • Telma Woerle de Lima Soares
                                              Resumo As Representações Baseadas em Codificação Nó-Profundidade (RBNP) são representa-
                                              ções para algoritmos evolutivos aplicados a problemas modelados por árvores armazenando os nós e suas respectivas profundidades em uma lista adequadamente ordenada.
                                              Uma das representações desse tipo foi a Representação Nó-Profundidade-Grau, cujos
                                              operadores de inicialização, mutação e recombinação possuem baixa complexidade de
                                              tempo em relação a outras representações que tratam o mesmo tipo de problema presentes na literatura. Embora os operadores atuais tenham obtido bons resultados, é desejável
                                              que existam operadores com características não atendidas por eles. Este trabalho propõe
                                              um operador de inicialização de baixa complexidade de tempo e não tendencioso, mas que
                                              permita a inclusão de tendência ou atenda a restrições do problema com facilidade. Um
                                              operador de mutação também é proposto, possuindo como principal diferencial a possibilidade de incluir qualquer aresta na solução, possuindo alta localidade, sempre gerando
                                              soluções factíveis e sem a necessidade de qualquer mecanismo de correção. Por fim, um
                                              operador de recombinação é proposto, com a capacidade de gerar soluções com a má-
                                              xima hereditariedade possível, podendo recombinar quaisquer soluções da população a
                                              qualquer momento, com o objetivo de melhorar a convergência da busca. Todos os operadores propostos podem ser aplicados em qualquer RBNP e possibilitam tratar problemas
                                              modelados por florestas com uma ou mais árvores. Este estudo analisou a redundância
                                              das RBNP e também efetuou uma investigação sobre a tendência, localidade e hereditariedade dos operadores propostos, mostrando que eles possuem características adequadas
                                              para tratar problemas de alta dimensionalidade. Para verificar a adequação dos operadores propostos, foi implementado o Algoritmo Evolutivo com Hereditariedade Máxima
                                              e aplicado em testes empíricos em três diferentes problemas: Optimal Communication
                                              Spanning Tree Problem, One Max Tree Problem e One Max Forest Problem.
                                              Download
                                                Página 3 de 15 (20 de 283 registros).