Trabalhos Disponíveis

TRABALHO Ações
SeSGx-BT: Modelagem de Tópicos utilizando Transformers aplicada em Estudos Secundários
Curso Mestrado em Ciência da Computação
Tipo Dissertação
Data 01/08/2024
Área CIÊNCIA DA COMPUTAÇÃO
Orientador(es)
  • Bruno Magalhaes Nogueira
Coorientador(es)
    Orientando(s)
    • DEMETRIUS MOREIRA PANOVITCH
    Banca
    • Bruno Magalhaes Nogueira
    • Edson Takashi Matsubara
    • Ricardo Marcondes Marcacini
    Resumo Estudos secundários agregam literatura relevante à algum tema para avaliá-los, fornecer uma visão geral, interpretá-los, entre outros fins. No entanto, seu desenvolvimento tem um custo elevado em termos de tempo e recurso, além de estar sujeito ao viés do pesquisador em algumas etapas, como na identificação de estudos primários. Isso pode comprometer a qualidade e acurácia da revisão. Neste trabalho, é proposta uma abordagem automatizada para uma das etapas principais de um estudo secundário: formulação e refinamento de strings de busca. A abordagem, chamada SeSGx-BT, utiliza de um algoritmo baseado em aprendizado profundo, chamado BERTopic, para modelagem de tópicos em um conjunto de estudos utilizado como um Quasi-Gold Standard. Os tópicos são utilizados para construir strings de busca para serem aplicadas em uma estratégia de busca híbrida, que inclui as estratégias de busca em bases e snowballing. Os resultados mostraram que a SeSGx-BT é capaz de encontrar um alto número de estudos relevantes, e um baixo número de estudos irrelevantes em ambientes de busca híbrida, resultando numa maior revocação e precisão, respectivamente, quando comparada à SeSGx-LDA, uma abordagem similar que utiliza o LDA para extração de tópicos. Esses resultados sugerem que abordagens baseadas em aprendizado profundo podem capturar tópicos com maior semântica, minimizando o esforço humano na etapa de identificação de estudos primários. Com base nas métricas de precisão e revocação obtidas a partir de experimentos executados com 10 bases de dados, a SeSGx-BT se apresenta como uma solução promissora para a automação da formulação e refinamento de strings de busca para estudos secundários, obtendo um aumento de até 270% na precisão, e de até 20% na revocação.
    Abordagem baseada em Cenários para Extração de Requisitos de Interoperabilidade de Sistemas-de-Sistemas a partir de Processos-de-Processos de Negócio
    Curso Mestrado em Ciência da Computação
    Tipo Dissertação
    Data 30/04/2024
    Área CIÊNCIA DA COMPUTAÇÃO
    Orientador(es)
    • Maria Istela Cagnin Machado
    Coorientador(es)
      Orientando(s)
      • Murilo Gustavo Nabarrete Costa
      Banca
      • Awdren de Lima Fontao
      • Marcelo Fantinato
      • Maria Istela Cagnin Machado
      • Valdemar Vicente Graciano Neto
      Resumo Contexto: A partir da concepção de novas alianças de organizações que podem ocorrer por meio de parcerias, fusões ou aquisições, é visto um desafio para integrar os processos de negócios de suas organizações-membro com a finalidade de alcançar os objetivos de negócios mais amplos que antes não poderiam ser viabilizados. Essa integração resulta na criação de novos processos de negócio complexos e dinâmicos, conhecidos como Processos-de-Processos de Negócio (PoP). Geralmente, esses processos são automatizados por sistemas de software distintos, que, durante o processo de integração, passam a interoperar entre si para executar funcionalidades mais amplas do que aquelas que poderiam ser executadas por um único sistema de software, resultando assim, na formação de Sistemas-de-Sistemas (SoS). Problema: O domínio de SoS apresenta novos desafios para a extração de requisitos, de modo especial, requisitos de interoperabilidade devido às características destes tipos de sistema, como independência gerencial e operacional, bem como a sua arquitetura dinâmica. Os requisitos de interoperabilidade são fundamentais para garantir uma comunicação adequada entre os sistemas constituintes que compõem o SoS. No entanto, os trabalhos encontrados na literatura geralmente fornecem soluções para a extração de requisitos de interoperabilidade em fases mais avançadas do ciclo de vida do SoS, como a fase de projeto arquitetural. Esses trabalhos também tendem a não considerar as informações contidas em nível de negócio como fonte de informação para a extração dos requisitos, uma vez que são essenciais para uma compreensão adequada da interoperabilidade e para garantir alinhamento com o nível técnico. Objetivo: A principal contribuição deste trabalho de mestrado é propor uma abordagem baseada em cenários na notação BPMN (Business Process Model and Notation) para a extração sistemática de requisitos de interoperabilidade. Modelos que representam PoP foram utilizados como fonte de informação. A abordagem inclui um metamodelo, que contém classes para representar a interoperabilidade entre os processos de negócio do PoP utilizando elementos da notação BPMN, e um conjunto de diretrizes para a extração sistemática e automatizada de requisitos de interoperabilidade com base em classes desse metamodelo. Método de pesquisa: O trabalho foi conduzido utilizando o método de pesquisa Design Science Research, resultando na produção dos seguintes artefatos: seis cenários abstratos, uma variante dos cenários abstratos, um metamodelo e um conjunto de diretrizes para extração de requisitos de interoperabilidade de SoS. Resultado: Abordagem automatizada para a extração e especificação de requisitos de interoperabilidade durante a Engenharia de Requisitos de SoS. Essa abordagem utiliza modelos do PoP em conformidade com cenários abstratos de interoperabilidade definidos neste trabalho que visam mitigar os desafios existentes ao realizar o tratamento adequado do dinamismo da interoperabilidade entre os processos do PoP e, consequentemente, entre os constituintes do SoS. Com isso, a abordagem garante alinhamento entre os níveis de negócio e técnico, contribuindo diretamente para o alcance de seus objetivos estratégicos de negócio.
      Download
      Abordagem baseada em Cenários para Extrair Requisitos de Tolerância a Falhas de Sistemas-de-Sistemas a partir de Processos-de-Processos de Negócio
      Curso Mestrado em Ciência da Computação
      Tipo Dissertação
      Data 29/04/2024
      Área CIÊNCIA DA COMPUTAÇÃO
      Orientador(es)
      • Maria Istela Cagnin Machado
      Coorientador(es)
        Orientando(s)
        • Sidny de Almeida Molina Pereira
        Banca
        • Debora Maria Barroso Paiva
        • Elisa Yumi Nakagawa
        • Maria Istela Cagnin Machado
        • Rodrigo Pereira dos Santos
        Resumo Contexto: Sistemas-de-Sistemas (do inglês, Systems-of-Systems ou SoS) se referem a um agrupamento de sistemas de software, denominados sistemas constituintes, de diversas organizações que têm seus processos de negócios específicos. Quando esses processos são reunidos para alcançar objetivos estratégicos de alianças de organizações (tais como parcerias, fusões ou aquisições de empresas), surgem processos de negócios complexos e dinâmicos que são normalmente automatizados por SoS e são denominados Processos-de-Processos de Negócio (do inglês, Processes-of-Business Processes ou PoP). Sob essa perspectiva, para alcançar os objetivos estratégicos das alianças, os sistemas constituintes interoperam entre eles para obter comportamentos não fornecidos por um único sistema de software. Problema: Falhas podem ocorrer durante essa interoperabilidade afetando o funcionamento e a confiabilidade do SoS como um todo. Apesar da importância dos requisitos de tolerância a falhas para a estabilidade do SoS, eles ainda não são muito explorados na literatura. Os trabalhos existentes geralmente consideram esses requisitos apenas durante o design arquitetural, negligenciando a importância do tratamento de requisitos ao longo de todo o ciclo de vida do SoS, bem como o alinhamento entre os níveis técnico e de negócio. Objetivo: Este trabalho de mestrado visa definir uma abordagem baseada em cenários na notação BPMN (Business Process Model and Notation) para extrair sistematicamente requisitos de tolerância a falhas de SoS, relacionados a problemas de comunicação entre sistemas constituintes, a partir de informação útil de PoP. Essa abordagem consiste de um metamodelo baseado em elementos de tratamento de exceções da notação BPMN, comumente utilizados para representar falhas de comunicação entre processos de negócio de alianças de organizações, e de um conjunto de diretrizes de extração automática de requisitos de tolerância a falhas de SoS baseadas em elementos desse metamodelo. Os elementos de tratamento de exceções desse metamodelo foram identificados a partir da análise de cenários abstratos de tratamento de exceção de envio e de recebimento de mensagens, que foram construídos com base no conhecimento adquirido a partir da modelagem de cinco cenários concretos de PoP reais de quatro domínios distintos (ou seja, educacional, agronegócio, emergência e saúde hospitalar). Método de pesquisa: O trabalho foi desenvolvido com base no método de pesquisa Design Science Research, obtendo-se os seguintes artefatos: dois cenários abstratos, um metamodelo e um conjunto de diretrizes de extração de requisitos de tolerância a falhas de SoS. Resultado: O trabalho apoia especialmente as etapas de extração e especificação de requisitos de tolerância a falhas durante a Engenharia de Requisitos de SoS, a partir de informações obtidas em modelos de PoP. Com isso, é possível alcançar alinhamento entre os níveis técnico e de negócio sob a perspectiva de tolerância a falhas durante a comunicação entre os constituintes, podendo favorecer a competitividade e lucratividade de alianças de organizações.
        Download
        Classificação da Disponibilidade de Vagas de Estacionamento Usando Aprendizagem Profunda
        Curso Mestrado em Ciência da Computação
        Tipo Dissertação
        Data 25/03/2024
        Área CIÊNCIA DA COMPUTAÇÃO
        Orientador(es)
        • Wesley Nunes Goncalves
        Coorientador(es)
          Orientando(s)
          • Calebe Pereira Lemos
          Banca
          • Jose Marcato Junior
          • Patrik Ola Bressan
          • Wesley Nunes Goncalves
          Resumo A emissão proveniente de veículos automotores é uma das mais consideráveis para poluição atmosférica. Neste contexto, conhecer a disponibilidade de vagas de estacionamento desempenha um papel importante para redução da poluição do ar, pois o tempo de busca é menor. Além disso, esses sistemas podem contribuir para a melhoria da eficiência do tráfego, pois evitam que os motoristas circulem sem necessidade em busca de uma vaga. Entretanto, a automatização dessa tarefa apresenta desafios, principalmente relacionados com a captura da imagem com diferentes iluminações, estações climáticas e visão obstruída. Este trabalho tem como objetivo avaliar métodos recentes de aprendizagem profunda para classificação de vagas de estacionamento disponíveis a partir de imagens. Os resultados mostraram destaque para o Res2Net, com acurácia superior a 99% nos experimentos com o dataset público (CNR-Park+EXT) e 100% para o dataset construído (UFMS-Park).
          Download
          Detecção de Desmatamento no Estado de Mato Grosso do Sul utilizando Segmentação Semântica em imagens bi-temporais dos satélites Landsat 8 e Sentinel 2
          Curso Mestrado em Ciência da Computação
          Tipo Dissertação
          Data 29/02/2024
          Área CIÊNCIA DA COMPUTAÇÃO
          Orientador(es)
          • Edson Takashi Matsubara
          Coorientador(es)
            Orientando(s)
            • Paulo Augusto Arantes Vilela
            Banca
            • Anderson Bessa da Costa
            • Edson Takashi Matsubara
            • Jose Marcato Junior
            Resumo A supressão da vegetação nativa sem autorização no Estado de Mato Grosso do Sul tem ameaçado a conservação dos biomas locais como o Cerrado e a Mata Atlântica. Neste contexto, é relevante salientar que a Constituição Brasileira de 1988 fixou como dever do Estado e da Coletividade a defesa do meio ambiente, atribuindo ao Ministério Público funções de atuação para a proteção ambiental. A exemplo, o Ministério Público do Estado de Mato Grosso do Sul, por meio do Programa DNA Ambiental, têm monitorado e identificado pontos de desmatamento sem autorização ambiental, em seu Núcleo de Geotecnologias (NUGEO), promovendo ações e providências para a punição e reparação de eventuais danos causados. Atualmente, este mapeamento tem sido realizado através da análise visual, não automatizada, de imagens de diversos satélites, especialmente dos satélites Landsat-8 e Sentinel-2, demandando consideráveis horas de trabalho e mão de obra especializada. Entretanto, com a evolução de técnicas de Deep Learning, novos algoritmos podem ser capazes de automatizar o processo de análise multitemporal de imagens de satélites, promovendo agilidade, ganho de eficiência e possibilitando a alocação de recursos humanos para outros serviços. Este trabalho tem por objetivo apresentar uma proposta de automatização do processo de identificação de desmatamentos utilizando as redes neurais profundas DeepLabv3+, U-Net e Multi-Scale Attention for Semantic Segmentation, para segmentação semântica em imagens bi-temporais de satélite, disponibilizando um modelo de inteligência artificial treinado, com a capacidade de mapear áreas desmatadas em qualquer cena dos biomas Cerrado e Mata Atlântica. Para tanto, buscou-se um conjunto de dados apropriado para essa finalidade. O primeiro dataset foi gerado a partir de arquivo shapefile com polígonos de áreas desmatadas pré-determinadas, associado ao recorte manual de duas cenas do satélite Landasat-8, resultando em um conjunto de dados com poucas amostras e muito ruído. O segundo dataset foi obtido a partir de um novo arquivo shapefile de desmatamentos e cenas do satélite Sentinel-2, cujo download e recortes foram realizados de forma automatizada utilizando-se um framework desenvolvido com APIs e infraestrutura em nuvem do projeto Planetary Computer, associadas a aplicação de uma curadoria especializada, produzindo um conjunto com maior número de amostras e ruído reduzido, com o qual obteve-se os melhores resultados nos treinamentos preliminares utilizando-se a rede neural U-net, adotada como baseline, sendo então escolhido para o treinamento das demais redes neurais artificiais avaliadas neste estudo. Ainda, foi realizado experimento para mitigar o problema do balanceamento dos dados, empregando-se diferentes funções de perda. Assim sendo, as principais contribuições desta dissertação são: (1) um conjunto de dados de desmatamento público rotulado e com curadoria; (2) uma avaliação experimental usando as redes neurais U-Net, DeepLabv3+ e Multi-Scale Attention para segmentação semântica em imagens bi-temporais do satélite Sentinel 2; e (3) uma avaliação experimental das funções de perda Binary-Cross-Entropy, Weighted Binary-Cross-Entropy e Focal Loss. Os resultados mais favoráveis foram obtidos com a arquitetura Multi-Scale Attention for Semantic Segmentation, com a função de perda Weighted Binary Cross-Entropy. Por fim, esse modelo foi disponibilizado ao MPMS, que procederá a sua implantação e implementação de procedimentos para validação dos resultados, bem como aprimoramento da amostra e evolução do modelo.
            Uma Ferramenta para Ensino e Aprendizado de Exploração de Espaço de Projeto de Arquiteturas de Processadores na Era de Dark-Silicon
            Curso Mestrado em Ciência da Computação
            Tipo Dissertação
            Data 15/12/2023
            Área CIÊNCIA DA COMPUTAÇÃO
            Orientador(es)
            • Liana Dessandre Duenha Garanhani
            Coorientador(es)
              Orientando(s)
              • Erick Rocha Amorim
              Banca
              • Amaury Antonio de Castro Junior
              • Awdren de Lima Fontao
              • Liana Dessandre Duenha Garanhani
              • Ricardo Ribeiro dos Santos
              Resumo A exploração de espaço de projeto é uma atividade útil em diversos contextos de engenharia, e especificamente considerada crucial para o projeto de MPSoCs, usualmente empregados em dispositivos eletrônicos portáteis e sistemas embarcados. Portanto, o tópico é relevante para a formação dos futuros profissionais da indústria brasileira de microeletrônicos. O MultiExplorer é uma ferramenta inicialmente proposta para auxiliar a pesquisa no campo de exploração de espaço de projeto de arquiteturas de processadores na era de dark-silicon. Uma série de estudos foram publicados em periódicos científicos e conferências internacionais, utilizando o MultiExplorer em uma gama de aplicações, desde a mitigação de dark-silicon em arquiteturas multi-núcleo, exploração de espaço de projeto com arquiteturas heterogêneas baseadas em utilização de unidades de processamento gráfico para computação de propósito geral (GPGPU), até alocação de recursos de computação em nuvem. Entretanto, a despeito de sua relevância para o desenvolvimento industrial, e das recomendações curriculares da ACM (Association for Computing Machinery), o tópico de exploração de espaço de projeto não parece ser abordado com frequência nos programas de graduação em Engenharia de Computação e Ciência da Computação no Brasil. Dado o contexto, este trabalho tem como objetivo fomentar a abordagem do tópico a nível de graduação a partir da disponibilização de uma versão aberta da ferramenta MultiExplorer
              que permita a exposição do tópico em um nível de abstração acessível para os alunos. O trabalho resultou no amadurecimento da arquitetura de software da ferramenta, abertura do código-fonte, estabelecimento de uma interface gráfica para melhor interação dos alunos com a ferramenta. Um estudo de caso avaliou o uso da ferramenta para aprendizado na graduação, por meio de um minicurso, e o prospecto foi positivo.
              Download
              Um modelo baseado em habilidades para formação de profissionais de DevRel
              Curso Mestrado em Ciência da Computação
              Tipo Dissertação
              Data 15/09/2023
              Área CIÊNCIA DA COMPUTAÇÃO
              Orientador(es)
              • Awdren de Lima Fontao
              Coorientador(es)
                Orientando(s)
                • ANA ELISA DA SILVA CUNHA
                Banca
                • Awdren de Lima Fontao
                • Bruno Barbieri de Pontes Cafeo
                • Davi Viana dos Santos
                • Rodrigo Pereira dos Santos
                Resumo Developer Relations (DevRel, em português, Relações com desenvolvedores) é uma área organizacional responsável por manter a sinergia entre comunidades de desenvolvedores e organizações. Essa área é presente em empresas como Amazon, Apple, Google e Microsoft, como uma estratégia de governança de desenvolvedo- res em ecossistemas de Software (ECOS). A falta de clareza quanto à natureza e conjunto de habilidades necessárias para um profissional DevRel pode impactar negativamente no desempenho das atividades relacionadas ao profissional e, conse- quentemente, na saúde do ECOS. Tanto a indústria como a academia trouxeram definições sobre DevRel. Contudo, não há estudos suficientes para consolidar um modelo de formação para DevRel. Neste sentido, a proposta deste trabalho de mes- trado é estabelecer um modelo envolvendo um conjunto de passos, dimensões, pa- péis e habilidades para a formação de profissionais de DevRel que seja entendível, compreensível e ajustável para que qualquer pessoa ou organização seja capaz de desenvolver as habilidades inerentes à profissão.
                Download
                A Multi-Faceted Analysis of How Organizations Create and Maintain Code Samples
                Curso Mestrado em Ciência da Computação
                Tipo Dissertação
                Data 15/09/2023
                Área CIÊNCIA DA COMPUTAÇÃO
                Orientador(es)
                • Bruno Barbieri de Pontes Cafeo
                Coorientador(es)
                  Orientando(s)
                  • Matheus Albuquerque de Melo
                  Banca
                  • Awdren de Lima Fontao
                  • Bruno Barbieri de Pontes Cafeo
                  • Elder José Reioli Cirilo
                  • Hudson Silva Borges
                  • Maria Istela Cagnin Machado
                  Resumo Code samples, como artefatos presentes no contexto dos ecossistemas de software, a qual tem a função de auxiliar os desenvolvedores, exemplificando o uso de APIs, bibliotecas e outros recursos começaram a ser explorados na literatura recentemente, por volta de 2019. Estudos propuseram a compreender as características estruturais do código desses artefatos, bem como como eles passam por manutenções e evoluem ao longo do tempo. Em 2020, também houve exploração do público-alvo que consome este artefato por meio de perguntas no StackOverflow. Este presente estudo foi dividido em duas partes. Na primeira, investigamos repositórios de code samples no GitHub e analisamos como as organizações lidam com as contribuições de desenvolvedores externos dentro desse ambiente. Na segunda parte, realizamos uma pesquisa com desenvolvedores que produzem code samples dentro das organizações. Isso nos permitiu compreender melhor a visão e as perspectivas deles em relação aos code samples, além de analisar suas experiências com code samples e a dedicação a esses artefatos. As propostas de ambas as partes do estudo não haviam sido exploradas anteriormente no contexto de code samples. Nossas descobertas revelaram alguns pontos como a demora na revisão de pull requests, especialmente os que foram rejeitados, e gargalos na distribuição das atividades de revisão entre os mantenedores. Essas constatações resultaram em uma publicação. Além disso, descobrimos que os objetivos dos code samples vão além dos propósitos educacionais, conforme sugerido pelos desenvolvedores das organizações. Também identificamos que desenvolvedores experientes estão envolvidos no desenvolvimento de code samples nas organizações, dedicando geralmente algumas horas mensais ou semanais para essa atividade. Por fim, notamos a presença de problemas de divergência de opiniões entre os desenvolvedores das organizações, em relação ao público-alvo dos code samples, ao processo de desenvolvimento e à garantia da qualidade desses artefatos.
                  Problema da coloração de vértices com pesos dissonantes e restrições de cores
                  Curso Mestrado em Ciência da Computação
                  Tipo Dissertação
                  Data 21/08/2023
                  Área CIÊNCIA DA COMPUTAÇÃO
                  Orientador(es)
                  • Edna Ayako Hoshino
                  Coorientador(es)
                  • Vagner Pedrotti
                  Orientando(s)
                  • Edison Gabriel Gonçalves Borghezan
                  Banca
                  • Diego Padilha Rubert
                  • Edna Ayako Hoshino
                  • Fabio Henrique Viduani Martinez
                  • Francisco Eloi Soares de Araujo
                  • Henrique Mongelli
                  Resumo O problema de coloração de vértices com pesos dissonantes e restrições de cores é uma generalização do problema de coloração de vértices e vários outros
                  problemas de coloração podem ser reduzidos a ele. Neste trabalho é proposta uma variação do problema de coloração de vértices, e também três modelos
                  matemáticos utilizando programação linear inteira, um modelo cujo número de variáveis e restrições é polinomial, um segundo, no qual o número de variáveis é exponencial em relação ao número de restrições e um terceiro modelo bastante semelhante ao segundo mas que aproveita-se de uma propriedade que permite algumas cores serem aglutinadas almejando uma execução mais rápida. Para os modelos estendidos, são propostos algoritmos de geração de colunas para lidar com o número exponencial de variáveis do problema, assim como heurísticas, tanto para gerar novas colunas quanto para encontrar soluções inteiras em cada nó da árvore de enumeração para acelerar o desempenho de um algoritmo exato de branch-and-price. Um conjunto de instâncias foi proposto e foi possível identificar características das instâncias difíceis para este problema.
                  Segmentação de Documentos Jurídicos usando Supervisão Fraca
                  Curso Mestrado em Ciência da Computação
                  Tipo Dissertação
                  Data 22/03/2023
                  Área CIÊNCIA DA COMPUTAÇÃO
                  Orientador(es)
                  • Eraldo Luis Rezende Fernandes
                  Coorientador(es)
                    Orientando(s)
                    • Marlon Daltro Tosta
                    Banca
                    • Bruno Magalhaes Nogueira
                    • Edson Takashi Matsubara
                    • Eraldo Luis Rezende Fernandes
                    • Leandro Guimarães Marques Alvim
                    • Valeria Quadros dos Reis
                    Resumo Milhões de processos estão em tramitação no sistema judiciário brasileiro.
                    Os acórdãos são decisões colegiadas de tribunais brasileiros e, por conta disto,
                    são fundamentais na uniformização do entendimento entre os magistrados e entre diferentes tribunais.
                    Portanto, desenvolver e implementar soluções tecnológicas eficazes para auxiliar
                    juízes,
                    desembargadores e
                    outros profissionais envolvidos no processo judicial
                    a lidar com o crescente volume de processos judiciais no Brasil.
                    Essas soluções devem ser capazes de acelerar a tomada de decisões e reduzir a carga de trabalho,
                    garantindo a eficiência do sistema judiciário e a satisfação dos cidadãos que dependem dele.
                    Os acórdãos dos tribunais brasileiros estão disponíveis publicamente,
                    entretanto, como estes documentos não estão em formato estruturado,
                    o processamento automático deles é dificultado.

                    Um dos primeiros passos para o processamento de acórdãos é
                    a segmentação destes documentos que são compostos por diversas seções com diferentes informações sobre a decisão.
                    Neste trabalho, foram coletados mais de 960 mil
                    documentos contendo o inteiro teor de acórdãos de cinco tribunais de diferentes esferas do judiciário brasileiro.
                    Estes documentos estão em formato PDF e foram coletados nos portais de busca dos tribunais.
                    Após a coleta, o conteúdo textual e características de layout de 624.161 acórdãos
                    foram extraídos utilizando diferentes ferramentas.
                    Adicionalmente, um método de segmentação automática foi desenvolvido para cada tribunal
                    e todos os documentos foram segmentados em cinco seções obrigatórias em acórdãos de tribunais brasileiros.
                    A segmentação de 100 documentos de cada tribunal (500 no total) foi manualmente revisada
                    para servirem como validação e teste de modelos de Aprendizado de Máquina (AM).
                    Modelos de AM clássicos e baseados em aprendizado profundo foram avaliados utilizando estes datasets.
                    Todos os modelos foram treinados usando os dados anotados automaticamente (supervisão fraca).
                    Diversos experimentos foram realizados para avaliar diferentes aspectos do problema de segmentação de acórdãos.
                    Particularmente, um aspecto analisado foi a capacidade de generalização dos modelos para tribunais não vistos no treinamento.
                    Outro aspecto considerado nos experimentos foi o impacto de características de layout dos documentos em alguns modelos de AM.
                    Mais especificamente, foram analisados modelos baseados em aprendizado profundo,
                    propostos recentemente na literatura,
                    que consideram como entrada tanto o conteúdo textual quanto algumas características de layout.
                    Modelos de segmentação com incorporação de layout alcançam, em alguns casos,
                    desempenho superior aos métodos desenvolvidos especificamente para um tribunal.
                    Modelos que são treinados e testados no mesmo tribunal também tendem a apresentar um desempenho comparável
                    ou até superior aos métodos de anotação automática.
                    No entanto, quando se trata de modelos treinados em um tribunal e testados em outro,
                    o desempenho depende da correlação encontrada entre eles.
                    Em alguns casos, a perda de desempenho é substancial.
                    Neste trabalho, são disponibilizados diversos recursos que podem ser usados em trabalhos futuros.
                    Todos os documentos coletados em formato PDF,
                    assim como os correspondentes arquivos TSV e JSON com as anotações automáticas,
                    estão disponíveis livremente.
                    Também estão disponíveis os scripts de segmentação automática,
                    assim como os scripts usados para treinamento e avaliação de modelos.
                    Por fim, também estão disponíveis as anotações revisadas manualmente de 500 documentos (100 de cada tribunal).
                    Download
                    Análise Isogeométrica com Elementos de Contorno e Superfícies de Subdivisão
                    Curso Mestrado em Ciência da Computação
                    Tipo Dissertação
                    Data 03/03/2023
                    Área CIÊNCIA DA COMPUTAÇÃO
                    Orientador(es)
                    • Paulo Aristarco Pagliosa
                    Coorientador(es)
                      Orientando(s)
                      • Bárbara Santos Munhão
                      Banca
                      • Afonso Paiva Neto
                      • Anderson Vicoso de Araujo
                      • Marcio Artacho Peres
                      • Paulo Aristarco Pagliosa
                      Resumo O método dos elementos de contorno (MEC), muito utilizado para solução numérica de problemas de mecânica do contínuo, depende de uma malha para a análise e essa malha tem impacto direto na precisão da solução numérica do problema considerado. Quando adotado junto à análise isogeométrica, a escolha de uma representação geométrica adequada é crucial, visto que o modelo de análise deriva diretamente do modelo geométrico. Um tipo de representação amplamente utilizado — que hoje é o padrão na indústria de animação, após forte incentivo da Pixar com o lançamento da API OpenSubdiv — são as superfícies de subdivisão, as quais possibilitam a construção de formas complexas e fornecem aproximações tão boas quanto se queira da forma do objeto a ser representado. Dada tamanha relevância das superfícies de subdivisão, com utilização crescente em diversas áreas, que incluem aplicações CAD (do inglês, Computer-aided Design), e tendo em vista que as simulações físicas não mais se restringem às áreas de ciências e engenharias, com papel importante em outros campos da computação gráfica, tais como jogos digitais, animações e efeitos especiais, neste trabalho foi proposta uma solução para a análise isogeométrica elastostática com elementos de contorno para sólidos representados por superf´ıcies de subdivisão. São introduzidos como parte central desta solução um método de posicionamento de pontos de colocação e um método de extração de elementos curvos para superfícies de subdivisão com bordas, pontos extraordinários e curvas de vinco. A solução proposta se mostrou adequada e equiparável às encontradas na literatura, e se estabelece como uma extensão ao modelo de análise no qual baseia-se este trabalho.

                      Palavras-chave: superfícies de subdivisão, análise isogeométrica, método dos elementos de contorno.
                      Deep Learning Approaches to Segment Eucalyptus Tree Images
                      Curso Mestrado em Ciência da Computação
                      Tipo Dissertação
                      Data 17/02/2023
                      Área CIÊNCIA DA COMPUTAÇÃO
                      Orientador(es)
                      • Wesley Nunes Goncalves
                      Coorientador(es)
                        Orientando(s)
                        • Mário de Araújo Carvalho
                        Banca
                        • Camilo Carromeu
                        • Celso Soares Costa
                        • Jose Marcato Junior
                        • Wesley Nunes Goncalves
                        Resumo O agronegócio é uma das principais fontes de riqueza e emprego do Brasil, representando uma parcela significativa do Produto Interno Bruto (PIB) nacional. Em 2021, o setor do agronegócio atingiu 27,4% do PIB brasileiro, a maior participação desde 2004, quando atingiu 27,53%. A indústria de base florestal é um importante segmento do agronegócio, pois fornece insumos vitais para diversos setores industriais, como produtos de madeira, móveis e papel. As florestas plantadas desempenham um papel essencial na captura de carbono e outros serviços ecossistêmicos, sendo o eucalipto a árvore mais utilizada, com 7,3 milhões de hectares de florestas de eucalipto em 2021. O mapeamento de árvores é vital para a economia e o meio ambiente, e as soluções baseadas em inteligência artificial são valiosas ferramentas de apoio à decisão em agricultura e mapeamento de árvores. Consequentemente, há um forte incentivo para buscar soluções mais abrangentes que utilizem tecnologias avançadas de aprendizado profundo para essa área. Assim, este trabalho tem como objetivo avaliar redes neurais convolucionais de aprendizado profundo eficientes para segmentação de imagens de troncos de eucalipto e apresentar uma proposta de segmentação específica para troncos de eucalipto que pode beneficiar aplicações agrícolas ou ferramentas de apoio à decisão para mapeamento de árvores. Este trabalho foi dividido em duas etapas principais para avaliar as redes de segmentação e criar uma técnica de pós-processamento. A primeira etapa deste estudo avaliou a eficiência de redes de aprendizado profundo na segmentação semântica de troncos de eucalipto em imagens panorâmicas em cores RGB capturadas no nível do solo. As redes de aprendizado profundo FCN, GCNet, ANN e PointRend foram avaliadas nesta etapa para segmentação de imagens de troncos de eucalipto. O treinamento e a avaliação das redes foram realizados usando uma abordagem de validação cruzada de cinco etapas, usando um conjunto de dados composto por imagens anotadas manualmente de uma floresta de eucalipto. O conjunto de dados inicial foi criado usando um campo de visão esférico da câmera. Ele incluiu uma variedade de eucaliptos com características distintas, como variações nas distâncias entre os troncos e mudanças na curvatura, tamanhos e diâmetros dos troncos, que representam desafios significativos para métodos de aprendizado profundo em tarefas de segmentação semântica. Para a primeira etapa deste estudo, o modelo FCN apresentou o melhor desempenho, com precisão de pixel de 78,87% e mIoU de 70,06%, além de obter um bom tempo de inferência. As redes GCNet e ANN também tiveram desempenho semelhante ao FCN, mas com impactos negativos em sua capacidade de generalizar tarefas em contextos específicos. O estudo conclui que o FCN foi o mais robusto, dentre os métodos avaliados, para segmentação semântica de imagens de árvores em imagens panorâmicas. Essa avaliação das redes de segmentação pode ser um passo crucial para o desenvolvimento de outras ferramentas relevantes no manejo florestal, como a estimativa de altura e diâmetro do tronco. A segunda etapa deste trabalho foi criar e avaliar uma técnica de pós-processamento de imagens RGB-D para melhorar os resultados das redes semânticas atuais para segmentação em imagens de eucalipto. Criamos uma nova imagem de conjunto de dados a partir de imagens obtidas de uma câmera estéreo, que capturou não apenas as informações de cor (RGB), mas também as informações de profundidade, o que permitiu uma visão ainda mais completa da floresta de eucalipto. Após a construção do novo banco de imagens, sua anotação foi realizada por especialistas. A próxima etapa deste estudo foi a avaliação de seis redes de segmentação semântica de imagens e a comparação com os resultados antes e depois da aplicação da técnica de pós-processamento. Treinamos, avaliamos e testamos as redes FCN, ANN, GCNet, SETR, SegFormer e DPT nas imagens anotadas. A técnica de pós-processamento melhorou significativamente os resultados das redes de segmentação de imagens testadas, com um ganho significativo de 24,13% em IoU e 13,11% em F1-score para redes baseadas em convolução e 12,49% para IoU e 6,56% em F1-score para redes baseadas em transformadores. A rede SegFormer obteve os melhores resultados em todos os testes antes e após a aplicação da técnica. A técnica também corrigiu com eficácia falhas de segmentação, erosão e erros de dilatação, resultando em bordas mais precisas e troncos mais bem delimitados. O custo computacional médio da técnica foi de 0,019 segundos, indicando que ela pode ser aplicada em redes de segmentação sem comprometer o desempenho. Os resultados obtidos pela aplicação da técnica de pós-processamento propõem uma abordagem inovadora com baixo custo computacional e melhorias significativas para as redes de segmentação existentes.
                        Simulação de fluidos com PIC usando RBF-FD e grades adaptativas balanceadas
                        Curso Mestrado em Ciência da Computação
                        Tipo Dissertação
                        Data 10/02/2023
                        Área CIÊNCIA DA COMPUTAÇÃO
                        Orientador(es)
                        • Paulo Aristarco Pagliosa
                        Coorientador(es)
                          Orientando(s)
                          • Bianca Namie Sakiyama
                          Banca
                          • Afonso Paiva Neto
                          • Anderson Vicoso de Araujo
                          • Marcio Artacho Peres
                          • Paulo Aristarco Pagliosa
                          Resumo Em animações baseadas em física, a simulação de fluido por métodos híbridos, ou seja, empregando tanto uma discretização material quanto espacial, é normalmente baseada na subdivisão do espaço por uma grade regular. Essa abordagem, a depender da resolução adotada, pode gerar um grande número de células que não contém fluido e não precisam ser processadas, mas que ainda assim serão visitadas. Com o intuito de contornar esse problema, grades adaptativas foram introduzidas para eliminar células vazias. Nas grades regulares, o cálculo dos operadores diferenciais, que é necessário para a resolver a simulação, pode ser feito pelo método das diferenças finitas. O método aproxima o valor da derivada em um ponto com base em seus vizinhos --- que devem estar alinhados ao ponto em relação aos eixos do domínio e a uma distância do ponto sendo avaliado --- e essa vizinhança é chamada de estêncil. Como nas grades adaptativas os tamanhos das células podem ser diferentes, os estênceis gerados não são aptos para o uso do método das diferenças finitas como na grade regular. Uma alternativa para calcular os operadores diferenciais em uma grade adaptativa é o uso do método de diferenças finitas baseada em funções de base radial (RBF-FD), mas esse método é mais complexo e computacionalmente extensivo que o usado nas grades regulares. A fim de manter os benefícios de uma grade adaptativa e acelerar o cálculo dos operadores diferenciais com RBF-FD, este trabalho propõe o uso de grades adaptativas balanceadas, ou seja, grades em que a diferença de nível entre duas células vizinhas não seja maior que um. O objetivo é, uma vez identificado os estênceis gerados com tal condição, definir um dicionário cujas entradas contém funções que permitem o cálculo acelerado do RBF-FD para cada um desses estênceis possíveis.
                          Download
                          Mineração de Textos usando Word Embeddings com Contexto Geográfico
                          Curso Mestrado em Ciência da Computação
                          Tipo Dissertação
                          Data 27/10/2022
                          Área CIÊNCIA DA COMPUTAÇÃO
                          Orientador(es)
                          • Ricardo Marcondes Marcacini
                          Coorientador(es)
                            Orientando(s)
                            • Antônio Ronaldo da Silva
                            Banca
                            • Bruno Magalhaes Nogueira
                            • Camila Vaccari Sundermann
                            • Diego Furtado Silva
                            • Rafael Geraldeli Rossi
                            • Ricardo Marcondes Marcacini
                            Resumo Muitos fenômenos importantes estão relacionados a um contexto geográfico, como eventos extraídos de bases textuais na área da economia, saúde pública, violência urbana e questões sociais. A análise de eventos de maneira manual seria impraticável considerando a sua grande quantidade e as diversas formas nas quais os dados são encontrados. Assim, passou-se a ter a necessidade de processos baseados em métodos computacionais inteligentes como a Mineração de Textos que, por meio das suas etapas, torna capaz a exploração do conteúdo textual com informação geográfica e retorna padrões que não seriam encontrados por modelos tradicionais. O modelo tradicional para analisar a relação entre termos e regiões é o de calcular a probabilidade de um termo ser utilizado em textos associados a uma região, em geral, por meio da frequência de termos em regiões. No entanto, é reconhecido que essa abordagem falha para novos termos apresentados a um modelo, bem como para textos com termos ambíguos. Nesse contexto, modelos baseados em Word Embeddings são reconhecidos por melhorar a identificação das relações entre uma palavra e o possível local associado. Nesse sentido, neste projeto são investigadas representações textuais baseadas em Word Embeddings do modelo BERT (Bidirectional Encoder Representations from Transformers) em um processo de ajuste fino, na qual as informações georreferenciadas dos textos são utilizadas como contexto, culminando na proposta deste trabalho denominada GeoTransformers Language Model. Um dos diferenciais da proposta é automaticamente identificar macrorregiões e microrregiões a partir dos eventos e utilizá-las como contexto para ajuste fino de um modelo de linguagem. Os resultados gerados pelo modelo GeoTransformers, em comparação com outros modelos da literatura, apresentaram maiores valores para métricas de precisão, revocação, F1-Score. Além disso, o modelo proposto foi o único capaz de lidar com regiões com menor quantidade de eventos e difíceis de classificar.
                            Download
                            Modelagem e Desenvolvimento de Algoritmo para o Problema de Roteamento Dinâmico de Veículos
                            Curso Mestrado em Ciência da Computação
                            Tipo Dissertação
                            Data 09/09/2022
                            Área CIÊNCIA DA COMPUTAÇÃO
                            Orientador(es)
                            • Ricardo Ribeiro dos Santos
                            Coorientador(es)
                              Orientando(s)
                              • Wilton Gustavo Gomes da Costa
                              Banca
                              • Bianca de Almeida Dantas
                              • Fillipe Goulart Silva Mendes
                              • Ricardo Ribeiro dos Santos
                              • Willy Alves de Oliveira Soler
                              Resumo Encontrar rotas eficientes para uma frota de forma a minimizar a distância percorrida e o tempo de viagem e maximizar o lucro do serviço são alguns objetivos almejados na resolução do Problema de Roteamento de Veículos (PRV). O PRV e suas variantes são amplamente estudados na literatura técnica especializada, com diversas propostas de modelos, algoritmos e técnicas (métodos) de resolução. Neste trabalho de mestrado, o objetivo é resolver a variante do PRV, denominada Problema de Roteamento Dinâmico de Veículos (PRDV). O PRDV considera que os itens a serem entregues não são conhecidos a priori e podem aparecer para o roteamento de maneira dinâmica. Este é um problema atual e de interesse das empresas de logística, especialmente aquelas com enfoque em marketplace, que precisam lidar com milhares de itens de produtos para entregas ao longo do dia e possuem limitações de frotas de veículos e de horários para entrega. Neste trabalho foram desenvolvidos um algoritmo dinâmico, denominado Dynamic Search per Neighbors Routes (DSNR), e um algoritmo estático, denominado Kmeans, Relax-and-Fix and Optimizations (K-RFO). O cenário para o problema consiste em explorar o roteamento dinâmico a partir de lotes de pacotes para serem entregues em uma jornada de trabalho do mesmo dia. A técnica implementada no algoritmo DSNR é baseada em busca local associada a uma implementação de uma heurística denominada 2-Opt**, visando re-otimizar rotas vizinhas. Quando comparada com os algoritmos dinâmicos QRP-Sweep (QRPS) e Kmeans-Greedy (KG), disponibilizados no repositório Loggibud, observaram-se economias de 17% nos custos de transporte e operacionais, ao utilizar a técnica DSNR.
                              Exploring code samples characteristics and their impacts on software ecosystems
                              Curso Mestrado em Ciência da Computação
                              Tipo Dissertação
                              Data 23/08/2022
                              Área CIÊNCIA DA COMPUTAÇÃO
                              Orientador(es)
                              • Bruno Barbieri de Pontes Cafeo
                              Coorientador(es)
                              • Andre Cavalcante Hora
                              Orientando(s)
                              • Gabriel Santana de Menezes
                              Banca
                              • Andre Cavalcante Hora
                              • Awdren de Lima Fontao
                              • Bruno Barbieri de Pontes Cafeo
                              • Davy de Medeiros Baía
                              • Eiji Adachi Medeiros Barbosa
                              • Hudson Silva Borges
                              Resumo Os sistemas de software modernos são geralmente construídos sobre frameworks, bibliotecas e APIs (plataformas).
                              Ambientes onde existem relações entre as organizações que mantêm essas plataformas
                              e os clientes que utilizam recursos dessas plataformas são conhecidos como Ecossistema de Software.
                              Nesse contexto, as organizações desenvolvem code samples para ajudar seus clientes com as barreiras de aprendizado.
                              Code samples são pequenos projetos de software, com fins educacionais, e ensinam como usar os recursos da plataforma.
                              No entanto, sabemos pouco sobre as características de code samples e sua relação com organizações e clientes.
                              Neste trabalho, pretendemos preencher essas lacunas avaliando quatro aspectos diferentes. Primeiro, comparando code samples com projetos convencionais através de seu código-fonte. Segundo, explorando o uso de code samples via Stack Overflow e GitHub. Terceiro, avaliando o perfil dos atores que interagem com code samples. Quarto, manutenção de code samples e seu impacto nos clientes.
                              Descobrimos que os code samples são menores e mais simples do que os projetos convencionais. Também descobrimos que code samples mudam com menos frequência, mas atualiza mais rapidamente para novas versões de plataforma do que os projetos convencionais. Em relação ao uso de code samples, descobrimos que a abordagem copiar/colar é pouco utilizada pelos clientes. Além disso, notamos que o problema mais comum enfrentado pelos clientes é quando eles tentam modificar a code samples e as melhorias são a necessidade mais comum dos clientes. Em relação aos atores em torno dos code samples, descobrimos que o público-alvo dos code samples pode variar de clientes inexperientes a clientes experientes. Além disso, notamos que plataformas de diferentes organizações parecem ter diferentes públicos-alvo. Além disso, os mantenedores de code samples são antigos e impopulares no GitHub.
                              Por fim, sobre a manutenção de code samples, descobrimos que a modificação de código é a atividade de manutenção mais comum de code samples, mas o gerenciamento de Pull Rquests desempenha um papel essencial no tempo de manutenção. Também descobrimos que os code samples se tornam menos complexas, mas maiores e menos legíveis ao longo do tempo.
                              Towards an expertise-related metric to preprocessor-based configurable software systems
                              Curso Mestrado em Ciência da Computação
                              Tipo Dissertação
                              Data 22/08/2022
                              Área CIÊNCIA DA COMPUTAÇÃO
                              Orientador(es)
                              • Bruno Barbieri de Pontes Cafeo
                              Coorientador(es)
                                Orientando(s)
                                • Karolina Martins Milano Neves
                                Banca
                                • Awdren de Lima Fontao
                                • Bruno Barbieri de Pontes Cafeo
                                • Elder José Reioli Cirilo
                                • Hudson Silva Borges
                                • Maria Istela Cagnin Machado
                                Resumo Contexto: Métricas relacionadas à experiência dos desenvolvedores nos permitem encontrar os melhores desenvolvedores para uma tarefa específica em
                                um arquivo. Sistemas configuráveis usam a variabilidade de código como
                                unidade de abstração para gerar diferentes membros de uma família de programas. Esse desalinhamento entre os arquivos usados pelas métricas relacionadas à experiência e as variabilidades usadas pelos sistemas configuráveis pode impossibilitar o uso conjunto delas.
                                Objetivo: O objetivo é duplo. O primeiro é explorar como o trabalho em código mandatório e variável é dividido entre os desenvolvedores e se as métricas
                                relacionadas à expertise podem indicar um desenvolvedor com expertise para
                                uma tarefa envolvendo código variável. O segundo é propor uma métrica relacionada à experiência com conhecimento em variabilidades para indicar desenvolvedores com experiência em código variável.
                                Método: Foram investigados 49 sistemas configuráveis baseados em pré-processadores, sendo analisadas como as mudanças nas variabilidades são dstribuídas entre os desenvolvedores, e se esses desenvolvedores seriam os principais desenvolvedores indicados por métricas relacionadas a experiência do desenvolvedor em arquivos de código. Foram utilizadas técnicas de feature selection e regressão linear múltipla para propor uma métrica relacionada a experiência
                                do desenvolvedor em relação ao conhecimento de variabilidades de código. A métrica proposta foi validada comparando-a com duas métricas já conhecidas.
                                Resultados: Poucos desenvolvedores são especialistas em código variável. Foi identificado que poucos desenvolvedores concentram a maioria das alterações
                                em código variável. Os resultados também sugerem que que a expertise relacionada a métricas já conhecidas não são um bom ajuste para indicar experts em relação ao código variável. Foi proposta uma métrica relacionada a experiência dos desenvolvedores em relação às variabilidades e foi mostrado que a métrica proposta superou métricas relacionadas a experiência em relação a arquivos de código, já conhecidas.
                                Conclusão: Embora os resultados mostrem que um número considerável de desenvolvedores realizou alterações no código variável durante o histórico de
                                desenvolvimento, tais alterações são apenas ocasionais. Há uma concentração
                                de trabalho entre alguns desenvolvedores quando se trata de código variável.
                                Esta divisão desigual pode causar um esforço de manutenção desnecessário.
                                Também concluímos que as métricas relacionadas à experiência em relação ao conhecimento das variabilidades podem apoiar melhor a identificação de
                                especialistas em sistemas configuráveis quando comparadas às métricas existentes
                                Uma Análise Exploratória da Influência dos Projetos Pedagógicos dos Cursos Superiores no Resultado do Enade por meio de Mineração de Textos e Aprendizado de Máquina
                                Curso Mestrado em Ciência da Computação
                                Tipo Dissertação
                                Data 11/08/2022
                                Área CIÊNCIA DA COMPUTAÇÃO
                                Orientador(es)
                                • Liana Dessandre Duenha Garanhani
                                Coorientador(es)
                                • Bruno Magalhaes Nogueira
                                Orientando(s)
                                • Charles Andre Profilio dos Santos
                                Banca
                                • Anderson Vicoso de Araujo
                                • Bruno Magalhaes Nogueira
                                • Edson Norberto Caceres
                                • Liana Dessandre Duenha Garanhani
                                Resumo Um curso de ensino superior é orientado pelo Projeto Pedagógico do Curso (PPC), que orienta a formação esperada para o egresso do curso, tanto no aspecto profissional quanto humanístico, de acordo com as diretrizes curriculares nacionais vigentes. Para avaliar os cursos de graduação e as instituições de ensino superior, o Ministério da Educação (MEC) utiliza alguns indicadores de qualidade, como o Exame Nacional de Desempenho dos Estudantes (Enade), sendo uma avaliação aplicada a cada três anos aos estudantes egressos de cada curso, que visa avaliar a qualidade do ensino de graduação no país por meio da atribuição de um conceito a cada curso avaliado. Tal conceito e os demais relatórios de avaliação resultantes do Enade auxiliam os gestores das instituições de ensino superior, coordenadores de curso e professores atuarem para a melhoria de seus projetos pedagógicos, infraestrutura física, recursos humanos e demais aspectos que impactem na formação do aluno. Este trabalho propõe uma análise dos projetos pedagógicos de cursos utilizando aprendizado de máquina, para auxiliar na compreensão de como o seu conteúdo impacta na avaliação dos cursos, mais especificamente, nos conceitos Enade Faixa e Enade Contínuo dos cursos. A análise foi aplicada sobre projetos pedagógicos dos cursos de Ciência da Computação e Sistemas de Informação, porém a metodologia é aplicável para outros cursos, medi- ante replicação do método sobre novos dados de treinamento. Os resultados experimentais demonstraram que é possível predizer o Conceito Enade Faixa com acurácia de ≈ 80% e o Conceito Enade Contínuo com erro percentual absoluto médio de ≈ 11%.
                                Download
                                Exploração do Espaço de Projetos de Sistemas Heterogêneos Aplicada ao Problema de Alocação de Recursos em Nuvem
                                Curso Mestrado em Ciência da Computação
                                Tipo Dissertação
                                Data 01/07/2022
                                Área CIÊNCIA DA COMPUTAÇÃO
                                Orientador(es)
                                • Ricardo Ribeiro dos Santos
                                Coorientador(es)
                                  Orientando(s)
                                  • Danillo Christi Almeida Arigoni
                                  Banca
                                  • César Augusto Fonticielha De Rose
                                  • Liana Dessandre Duenha Garanhani
                                  • Renato Porfirio Ishii
                                  • Ricardo Ribeiro dos Santos
                                  Resumo Os serviços de computação em nuvem oferecem uma gama de recursos computacionais disponíveis sob demanda. Contudo, encontrar a melhor configuração de recursos que reduza custos e atenda as exigências do usuário tornou-se um grande desafio. Este desafio compartilha características essenciais com um problema da área de arquitetura de computadores, a exploração de espaço de projetos - Design Space Exploration (DSE). Em DSE, o foco é escolher, dentre uma grande quantidade de soluções arquiteturais, qual a mais indicada para uma determinada demanda, buscando atender objetivos e cumprindo as restrições de projeto. Diante disso, este trabalho propõe a aplicação de técnicas de exploração de espaço de projeto como potencial solução para o problema de alocação de recursos em nuvem. Este trabalho projetou e desenvolveu a ferramenta MultiExplorer-VM, uma extensão da ferramenta de DSE MultiExplorer. Essa extensão possui um fluxo de execução adaptado para a resolução do problema de alocação de recursos em nuvem, utilizando e adaptando algoritmos e técnicas de exploração de espaço de projeto.
                                  Experimentos foram realizados visando a validação estatística e comparação com outro trabalho existente na literatura da área que utiliza a técnica Paramount Interation (PI). Os resultados mostram que MultiExplorer-VM possibilita alcançar configurações de recursos com melhorias significativas em relação a técnica de PI. Seguindo as restrições de um modelo de otimização, para algumas aplicações, as soluções obtidas por MultiExplorer-VM são similares às configurações ótimas obtidas por uma ferramenta de busca exaustiva de soluções aplicada ao mesmo problema.
                                  Download
                                  Exploração do Espaço de Projetos de Sistemas GP-GPU ciente de Dark Silicon
                                  Curso Mestrado em Ciência da Computação
                                  Tipo Dissertação
                                  Data 30/06/2022
                                  Área CIÊNCIA DA COMPUTAÇÃO
                                  Orientador(es)
                                  • Liana Dessandre Duenha Garanhani
                                  Coorientador(es)
                                    Orientando(s)
                                    • Rhayssa de Almeida Sonohata
                                    Banca
                                    • Eraldo Luis Rezende Fernandes
                                    • Jonathan de Andrade Silva
                                    • Liana Dessandre Duenha Garanhani
                                    • Ricardo Ribeiro dos Santos
                                    Resumo O alto potencial de paralelismo e de largura de banda oferecidos pelas GPUs, aliados à popularização das linguagens de programação CUDA e OpenCL, fizeram com que as unidades de processamento gráfico fossem utilizadas em aplicações distintas daquelas para as quais foram originalmente criadas, consolidando, assim, o conceito de GP-GPU ou Unidades de Processamento Gráfico para computação de propósito geral. A partir do crescente uso de sistemas que unem CPUs e GPUs para processamento de forma colaborativa, foram desenvolvidas ferramentas para explorar o desempenho e o consumo dos diversos parâmetros arquiteturais dos projetos de computação heterogênea. Entretanto, essas ferramentas são escassas, limitadas, computacionalmente custo-
                                    sas e precisam de parâmetros arquiteturais de difícil obtenção. Isso posto, este trabalho propõe o desenvolvimento e avaliação de modelos de predição de desempenho de sistemas heterogêneos GP-GPU usando técnicas de aprendizado de máquina, com objetivo de alcançar alta acurácia e substituir o custoso processo de simulação. Tais preditores foram validados a partir da integração a uma ferramenta de exploração de espaço de projeto ciente de dark-silicon,denominada MultiExplorer, que realiza a avaliação de alternativas arquiteturais para um projeto-base, buscando alcançar objetivos pré-estabelecidos como maximização de desempenho e minimização de área em dark-silicon, obedecendo restrições de área e consumo energético. Dependendo do espaço de projeto, tal ferramenta avalia centenas de milhares de alternativas arquiteturais e, portanto, os preditores de desempenho com baixo custo computacional e acurácia são essenciais.
                                    Página 1 de 11 (20 de 207 registros).