Trabalhos Disponíveis

TRABALHO Ações
Abordagem baseada em Cenários para Extrair Requisitos de Interoperabilidade de Sistemas-de-Sistemas a partir de Processos-de-Processos de Negócio
Curso Mestrado em Ciência da Computação
Tipo Dissertação
Data 30/04/2024
Área CIÊNCIA DA COMPUTAÇÃO
Orientador(es)
  • Maria Istela Cagnin Machado
Coorientador(es)
    Orientando(s)
    • Murilo Gustavo Nabarrete Costa
    Banca
    • Awdren de Lima Fontao
    • Marcelo Fantinato
    • Maria Istela Cagnin Machado
    • Valdemar Vicente Graciano Neto
    Resumo
    Download
      Abordagem baseada em Cenários para Extrair Requisitos de Tolerância a Falhas de Sistemas-de-Sistemas a partir de Processos-de-Processos de Negócio
      Curso Mestrado em Ciência da Computação
      Tipo Dissertação
      Data 29/04/2024
      Área CIÊNCIA DA COMPUTAÇÃO
      Orientador(es)
      • Maria Istela Cagnin Machado
      Coorientador(es)
        Orientando(s)
        • Sidny de Almeida Molina Pereira
        Banca
        • Debora Maria Barroso Paiva
        • Elisa Yumi Nakagawa
        • Maria Istela Cagnin Machado
        • Rodrigo Pereira dos Santos
        Resumo
        Download
          Classificação da Disponibilidade de Vagas de Estacionamento Usando Aprendizagem Profunda
          Curso Mestrado em Ciência da Computação
          Tipo Dissertação
          Data 25/03/2024
          Área CIÊNCIA DA COMPUTAÇÃO
          Orientador(es)
          • Wesley Nunes Goncalves
          Coorientador(es)
            Orientando(s)
            • Calebe Pereira Lemos
            Banca
            • Jose Marcato Junior
            • Patrik Ola Bressan
            • Wesley Nunes Goncalves
            Resumo A emissão proveniente de veículos automotores é uma das mais consideráveis para poluição atmosférica. Neste contexto, conhecer a disponibilidade de vagas de estacionamento desempenha um papel importante para redução da poluição do ar, pois o tempo de busca é menor. Além disso, esses sistemas podem contribuir para a melhoria da eficiência do tráfego, pois evitam que os motoristas circulem sem necessidade em busca de uma vaga. Entretanto, a automatização dessa tarefa apresenta desafios, principalmente relacionados com a captura da imagem com diferentes iluminações, estações climáticas e visão obstruída. Este trabalho tem como objetivo avaliar métodos recentes de aprendizagem profunda para classificação de vagas de estacionamento disponíveis a partir de imagens. Os resultados mostraram destaque para o Res2Net, com acurácia superior a 99% nos experimentos com o dataset público (CNR-Park+EXT) e 100% para o dataset construído (UFMS-Park).
            Download
            Detecção de Desmatamento no Estado de Mato Grosso do Sul utilizando Segmentação Semântica em imagens bi-temporais dos satélites Landsat 8 e Sentinel 2
            Curso Mestrado em Ciência da Computação
            Tipo Dissertação
            Data 29/02/2024
            Área CIÊNCIA DA COMPUTAÇÃO
            Orientador(es)
            • Edson Takashi Matsubara
            Coorientador(es)
              Orientando(s)
              • Paulo Augusto Arantes Vilela
              Banca
              • Anderson Bessa da Costa
              • Edson Takashi Matsubara
              • Jose Marcato Junior
              Resumo A supressão da vegetação nativa sem autorização no Estado de Mato Grosso do Sul tem ameaçado a conservação dos biomas locais como o Cerrado e a Mata Atlântica. Neste contexto, é relevante salientar que a Constituição Brasileira de 1988 fixou como dever do Estado e da Coletividade a defesa do meio ambiente, atribuindo ao Ministério Público funções de atuação para a proteção ambiental. A exemplo, o Ministério Público do Estado de Mato Grosso do Sul, por meio do Programa DNA Ambiental, têm monitorado e identificado pontos de desmatamento sem autorização ambiental, em seu Núcleo de Geotecnologias (NUGEO), promovendo ações e providências para a punição e reparação de eventuais danos causados. Atualmente, este mapeamento tem sido realizado através da análise visual, não automatizada, de imagens de diversos satélites, especialmente dos satélites Landsat-8 e Sentinel-2, demandando consideráveis horas de trabalho e mão de obra especializada. Entretanto, com a evolução de técnicas de Deep Learning, novos algoritmos podem ser capazes de automatizar o processo de análise multitemporal de imagens de satélites, promovendo agilidade, ganho de eficiência e possibilitando a alocação de recursos humanos para outros serviços. Este trabalho tem por objetivo apresentar uma proposta de automatização do processo de identificação de desmatamentos utilizando as redes neurais profundas DeepLabv3+, U-Net e Multi-Scale Attention for Semantic Segmentation, para segmentação semântica em imagens bi-temporais de satélite, disponibilizando um modelo de inteligência artificial treinado, com a capacidade de mapear áreas desmatadas em qualquer cena dos biomas Cerrado e Mata Atlântica. Para tanto, buscou-se um conjunto de dados apropriado para essa finalidade. O primeiro dataset foi gerado a partir de arquivo shapefile com polígonos de áreas desmatadas pré-determinadas, associado ao recorte manual de duas cenas do satélite Landasat-8, resultando em um conjunto de dados com poucas amostras e muito ruído. O segundo dataset foi obtido a partir de um novo arquivo shapefile de desmatamentos e cenas do satélite Sentinel-2, cujo download e recortes foram realizados de forma automatizada utilizando-se um framework desenvolvido com APIs e infraestrutura em nuvem do projeto Planetary Computer, associadas a aplicação de uma curadoria especializada, produzindo um conjunto com maior número de amostras e ruído reduzido, com o qual obteve-se os melhores resultados nos treinamentos preliminares utilizando-se a rede neural U-net, adotada como baseline, sendo então escolhido para o treinamento das demais redes neurais artificiais avaliadas neste estudo. Ainda, foi realizado experimento para mitigar o problema do balanceamento dos dados, empregando-se diferentes funções de perda. Assim sendo, as principais contribuições desta dissertação são: (1) um conjunto de dados de desmatamento público rotulado e com curadoria; (2) uma avaliação experimental usando as redes neurais U-Net, DeepLabv3+ e Multi-Scale Attention para segmentação semântica em imagens bi-temporais do satélite Sentinel 2; e (3) uma avaliação experimental das funções de perda Binary-Cross-Entropy, Weighted Binary-Cross-Entropy e Focal Loss. Os resultados mais favoráveis foram obtidos com a arquitetura Multi-Scale Attention for Semantic Segmentation, com a função de perda Weighted Binary Cross-Entropy. Por fim, esse modelo foi disponibilizado ao MPMS, que procederá a sua implantação e implementação de procedimentos para validação dos resultados, bem como aprimoramento da amostra e evolução do modelo.
              Uma Ferramenta para Ensino e Aprendizado de Exploração de Espaço de Projeto de Arquiteturas de Processadores na Era de Dark-Silicon
              Curso Mestrado em Ciência da Computação
              Tipo Dissertação
              Data 15/12/2023
              Área CIÊNCIA DA COMPUTAÇÃO
              Orientador(es)
              • Liana Dessandre Duenha Garanhani
              Coorientador(es)
                Orientando(s)
                • Erick Rocha Amorim
                Banca
                • Amaury Antonio de Castro Junior
                • Awdren de Lima Fontao
                • Liana Dessandre Duenha Garanhani
                • Ricardo Ribeiro dos Santos
                Resumo A exploração de espaço de projeto é uma atividade útil em diversos contextos de engenharia, e especificamente considerada crucial para o projeto de MPSoCs, usualmente empregados em dispositivos eletrônicos portáteis e sistemas embarcados. Portanto, o tópico é relevante para a formação dos futuros profissionais da indústria brasileira de microeletrônicos. O MultiExplorer é uma ferramenta inicialmente proposta para auxiliar a pesquisa no campo de exploração de espaço de projeto de arquiteturas de processadores na era de dark-silicon. Uma série de estudos foram publicados em periódicos científicos e conferências internacionais, utilizando o MultiExplorer em uma gama de aplicações, desde a mitigação de dark-silicon em arquiteturas multi-núcleo, exploração de espaço de projeto com arquiteturas heterogêneas baseadas em utilização de unidades de processamento gráfico para computação de propósito geral (GPGPU), até alocação de recursos de computação em nuvem. Entretanto, a despeito de sua relevância para o desenvolvimento industrial, e das recomendações curriculares da ACM (Association for Computing Machinery), o tópico de exploração de espaço de projeto não parece ser abordado com frequência nos programas de graduação em Engenharia de Computação e Ciência da Computação no Brasil. Dado o contexto, este trabalho tem como objetivo fomentar a abordagem do tópico a nível de graduação a partir da disponibilização de uma versão aberta da ferramenta MultiExplorer
                que permita a exposição do tópico em um nível de abstração acessível para os alunos. O trabalho resultou no amadurecimento da arquitetura de software da ferramenta, abertura do código-fonte, estabelecimento de uma interface gráfica para melhor interação dos alunos com a ferramenta. Um estudo de caso avaliou o uso da ferramenta para aprendizado na graduação, por meio de um minicurso, e o prospecto foi positivo.
                Download
                Um modelo baseado em habilidades para formação de profissionais de DevRel
                Curso Mestrado em Ciência da Computação
                Tipo Dissertação
                Data 15/09/2023
                Área CIÊNCIA DA COMPUTAÇÃO
                Orientador(es)
                • Awdren de Lima Fontao
                Coorientador(es)
                  Orientando(s)
                  • ANA ELISA DA SILVA CUNHA
                  Banca
                  • Awdren de Lima Fontao
                  • Bruno Barbieri de Pontes Cafeo
                  • Davi Viana dos Santos
                  • Rodrigo Pereira dos Santos
                  Resumo Developer Relations (DevRel, em português, Relações com desenvolvedores) é uma área organizacional responsável por manter a sinergia entre comunidades de desenvolvedores e organizações. Essa área é presente em empresas como Amazon, Apple, Google e Microsoft, como uma estratégia de governança de desenvolvedo- res em ecossistemas de Software (ECOS). A falta de clareza quanto à natureza e conjunto de habilidades necessárias para um profissional DevRel pode impactar negativamente no desempenho das atividades relacionadas ao profissional e, conse- quentemente, na saúde do ECOS. Tanto a indústria como a academia trouxeram definições sobre DevRel. Contudo, não há estudos suficientes para consolidar um modelo de formação para DevRel. Neste sentido, a proposta deste trabalho de mes- trado é estabelecer um modelo envolvendo um conjunto de passos, dimensões, pa- péis e habilidades para a formação de profissionais de DevRel que seja entendível, compreensível e ajustável para que qualquer pessoa ou organização seja capaz de desenvolver as habilidades inerentes à profissão.
                  Download
                  A Multi-Faceted Analysis of How Organizations Create and Maintain Code Samples
                  Curso Mestrado em Ciência da Computação
                  Tipo Dissertação
                  Data 15/09/2023
                  Área CIÊNCIA DA COMPUTAÇÃO
                  Orientador(es)
                  • Bruno Barbieri de Pontes Cafeo
                  Coorientador(es)
                    Orientando(s)
                    • Matheus Albuquerque de Melo
                    Banca
                    • Awdren de Lima Fontao
                    • Bruno Barbieri de Pontes Cafeo
                    • Elder José Reioli Cirilo
                    • Hudson Silva Borges
                    • Maria Istela Cagnin Machado
                    Resumo Code samples, como artefatos presentes no contexto dos ecossistemas de software, a qual tem a função de auxiliar os desenvolvedores, exemplificando o uso de APIs, bibliotecas e outros recursos começaram a ser explorados na literatura recentemente, por volta de 2019. Estudos propuseram a compreender as características estruturais do código desses artefatos, bem como como eles passam por manutenções e evoluem ao longo do tempo. Em 2020, também houve exploração do público-alvo que consome este artefato por meio de perguntas no StackOverflow. Este presente estudo foi dividido em duas partes. Na primeira, investigamos repositórios de code samples no GitHub e analisamos como as organizações lidam com as contribuições de desenvolvedores externos dentro desse ambiente. Na segunda parte, realizamos uma pesquisa com desenvolvedores que produzem code samples dentro das organizações. Isso nos permitiu compreender melhor a visão e as perspectivas deles em relação aos code samples, além de analisar suas experiências com code samples e a dedicação a esses artefatos. As propostas de ambas as partes do estudo não haviam sido exploradas anteriormente no contexto de code samples. Nossas descobertas revelaram alguns pontos como a demora na revisão de pull requests, especialmente os que foram rejeitados, e gargalos na distribuição das atividades de revisão entre os mantenedores. Essas constatações resultaram em uma publicação. Além disso, descobrimos que os objetivos dos code samples vão além dos propósitos educacionais, conforme sugerido pelos desenvolvedores das organizações. Também identificamos que desenvolvedores experientes estão envolvidos no desenvolvimento de code samples nas organizações, dedicando geralmente algumas horas mensais ou semanais para essa atividade. Por fim, notamos a presença de problemas de divergência de opiniões entre os desenvolvedores das organizações, em relação ao público-alvo dos code samples, ao processo de desenvolvimento e à garantia da qualidade desses artefatos.
                    Problema da coloração de vértices com pesos dissonantes e restrições de cores
                    Curso Mestrado em Ciência da Computação
                    Tipo Dissertação
                    Data 21/08/2023
                    Área CIÊNCIA DA COMPUTAÇÃO
                    Orientador(es)
                    • Edna Ayako Hoshino
                    Coorientador(es)
                    • Vagner Pedrotti
                    Orientando(s)
                    • Edison Gabriel Gonçalves Borghezan
                    Banca
                    • Diego Padilha Rubert
                    • Edna Ayako Hoshino
                    • Fabio Henrique Viduani Martinez
                    • Francisco Eloi Soares de Araujo
                    • Henrique Mongelli
                    Resumo O problema de coloração de vértices com pesos dissonantes e restrições de cores é uma generalização do problema de coloração de vértices e vários outros
                    problemas de coloração podem ser reduzidos a ele. Neste trabalho é proposta uma variação do problema de coloração de vértices, e também três modelos
                    matemáticos utilizando programação linear inteira, um modelo cujo número de variáveis e restrições é polinomial, um segundo, no qual o número de variáveis é exponencial em relação ao número de restrições e um terceiro modelo bastante semelhante ao segundo mas que aproveita-se de uma propriedade que permite algumas cores serem aglutinadas almejando uma execução mais rápida. Para os modelos estendidos, são propostos algoritmos de geração de colunas para lidar com o número exponencial de variáveis do problema, assim como heurísticas, tanto para gerar novas colunas quanto para encontrar soluções inteiras em cada nó da árvore de enumeração para acelerar o desempenho de um algoritmo exato de branch-and-price. Um conjunto de instâncias foi proposto e foi possível identificar características das instâncias difíceis para este problema.
                    Segmentação de Documentos Jurídicos usando Supervisão Fraca
                    Curso Mestrado em Ciência da Computação
                    Tipo Dissertação
                    Data 22/03/2023
                    Área CIÊNCIA DA COMPUTAÇÃO
                    Orientador(es)
                    • Eraldo Luis Rezende Fernandes
                    Coorientador(es)
                      Orientando(s)
                      • Marlon Daltro Tosta
                      Banca
                      • Bruno Magalhaes Nogueira
                      • Edson Takashi Matsubara
                      • Eraldo Luis Rezende Fernandes
                      • Leandro Guimarães Marques Alvim
                      • Valeria Quadros dos Reis
                      Resumo Milhões de processos estão em tramitação no sistema judiciário brasileiro.
                      Os acórdãos são decisões colegiadas de tribunais brasileiros e, por conta disto,
                      são fundamentais na uniformização do entendimento entre os magistrados e entre diferentes tribunais.
                      Portanto, desenvolver e implementar soluções tecnológicas eficazes para auxiliar
                      juízes,
                      desembargadores e
                      outros profissionais envolvidos no processo judicial
                      a lidar com o crescente volume de processos judiciais no Brasil.
                      Essas soluções devem ser capazes de acelerar a tomada de decisões e reduzir a carga de trabalho,
                      garantindo a eficiência do sistema judiciário e a satisfação dos cidadãos que dependem dele.
                      Os acórdãos dos tribunais brasileiros estão disponíveis publicamente,
                      entretanto, como estes documentos não estão em formato estruturado,
                      o processamento automático deles é dificultado.

                      Um dos primeiros passos para o processamento de acórdãos é
                      a segmentação destes documentos que são compostos por diversas seções com diferentes informações sobre a decisão.
                      Neste trabalho, foram coletados mais de 960 mil
                      documentos contendo o inteiro teor de acórdãos de cinco tribunais de diferentes esferas do judiciário brasileiro.
                      Estes documentos estão em formato PDF e foram coletados nos portais de busca dos tribunais.
                      Após a coleta, o conteúdo textual e características de layout de 624.161 acórdãos
                      foram extraídos utilizando diferentes ferramentas.
                      Adicionalmente, um método de segmentação automática foi desenvolvido para cada tribunal
                      e todos os documentos foram segmentados em cinco seções obrigatórias em acórdãos de tribunais brasileiros.
                      A segmentação de 100 documentos de cada tribunal (500 no total) foi manualmente revisada
                      para servirem como validação e teste de modelos de Aprendizado de Máquina (AM).
                      Modelos de AM clássicos e baseados em aprendizado profundo foram avaliados utilizando estes datasets.
                      Todos os modelos foram treinados usando os dados anotados automaticamente (supervisão fraca).
                      Diversos experimentos foram realizados para avaliar diferentes aspectos do problema de segmentação de acórdãos.
                      Particularmente, um aspecto analisado foi a capacidade de generalização dos modelos para tribunais não vistos no treinamento.
                      Outro aspecto considerado nos experimentos foi o impacto de características de layout dos documentos em alguns modelos de AM.
                      Mais especificamente, foram analisados modelos baseados em aprendizado profundo,
                      propostos recentemente na literatura,
                      que consideram como entrada tanto o conteúdo textual quanto algumas características de layout.
                      Modelos de segmentação com incorporação de layout alcançam, em alguns casos,
                      desempenho superior aos métodos desenvolvidos especificamente para um tribunal.
                      Modelos que são treinados e testados no mesmo tribunal também tendem a apresentar um desempenho comparável
                      ou até superior aos métodos de anotação automática.
                      No entanto, quando se trata de modelos treinados em um tribunal e testados em outro,
                      o desempenho depende da correlação encontrada entre eles.
                      Em alguns casos, a perda de desempenho é substancial.
                      Neste trabalho, são disponibilizados diversos recursos que podem ser usados em trabalhos futuros.
                      Todos os documentos coletados em formato PDF,
                      assim como os correspondentes arquivos TSV e JSON com as anotações automáticas,
                      estão disponíveis livremente.
                      Também estão disponíveis os scripts de segmentação automática,
                      assim como os scripts usados para treinamento e avaliação de modelos.
                      Por fim, também estão disponíveis as anotações revisadas manualmente de 500 documentos (100 de cada tribunal).
                      Download
                      Análise Isogeométrica com Elementos de Contorno e Superfícies de Subdivisão
                      Curso Mestrado em Ciência da Computação
                      Tipo Dissertação
                      Data 03/03/2023
                      Área CIÊNCIA DA COMPUTAÇÃO
                      Orientador(es)
                      • Paulo Aristarco Pagliosa
                      Coorientador(es)
                        Orientando(s)
                        • Bárbara Santos Munhão
                        Banca
                        • Afonso Paiva Neto
                        • Anderson Vicoso de Araujo
                        • Marcio Artacho Peres
                        • Paulo Aristarco Pagliosa
                        Resumo O método dos elementos de contorno (MEC), muito utilizado para solução numérica de problemas de mecânica do contínuo, depende de uma malha para a análise e essa malha tem impacto direto na precisão da solução numérica do problema considerado. Quando adotado junto à análise isogeométrica, a escolha de uma representação geométrica adequada é crucial, visto que o modelo de análise deriva diretamente do modelo geométrico. Um tipo de representação amplamente utilizado — que hoje é o padrão na indústria de animação, após forte incentivo da Pixar com o lançamento da API OpenSubdiv — são as superfícies de subdivisão, as quais possibilitam a construção de formas complexas e fornecem aproximações tão boas quanto se queira da forma do objeto a ser representado. Dada tamanha relevância das superfícies de subdivisão, com utilização crescente em diversas áreas, que incluem aplicações CAD (do inglês, Computer-aided Design), e tendo em vista que as simulações físicas não mais se restringem às áreas de ciências e engenharias, com papel importante em outros campos da computação gráfica, tais como jogos digitais, animações e efeitos especiais, neste trabalho foi proposta uma solução para a análise isogeométrica elastostática com elementos de contorno para sólidos representados por superf´ıcies de subdivisão. São introduzidos como parte central desta solução um método de posicionamento de pontos de colocação e um método de extração de elementos curvos para superfícies de subdivisão com bordas, pontos extraordinários e curvas de vinco. A solução proposta se mostrou adequada e equiparável às encontradas na literatura, e se estabelece como uma extensão ao modelo de análise no qual baseia-se este trabalho.

                        Palavras-chave: superfícies de subdivisão, análise isogeométrica, método dos elementos de contorno.
                        Deep Learning Approaches to Segment Eucalyptus Tree Images
                        Curso Mestrado em Ciência da Computação
                        Tipo Dissertação
                        Data 17/02/2023
                        Área CIÊNCIA DA COMPUTAÇÃO
                        Orientador(es)
                        • Wesley Nunes Goncalves
                        Coorientador(es)
                          Orientando(s)
                          • Mário de Araújo Carvalho
                          Banca
                          • Camilo Carromeu
                          • Celso Soares Costa
                          • Jose Marcato Junior
                          • Wesley Nunes Goncalves
                          Resumo O agronegócio é uma das principais fontes de riqueza e emprego do Brasil, representando uma parcela significativa do Produto Interno Bruto (PIB) nacional. Em 2021, o setor do agronegócio atingiu 27,4% do PIB brasileiro, a maior participação desde 2004, quando atingiu 27,53%. A indústria de base florestal é um importante segmento do agronegócio, pois fornece insumos vitais para diversos setores industriais, como produtos de madeira, móveis e papel. As florestas plantadas desempenham um papel essencial na captura de carbono e outros serviços ecossistêmicos, sendo o eucalipto a árvore mais utilizada, com 7,3 milhões de hectares de florestas de eucalipto em 2021. O mapeamento de árvores é vital para a economia e o meio ambiente, e as soluções baseadas em inteligência artificial são valiosas ferramentas de apoio à decisão em agricultura e mapeamento de árvores. Consequentemente, há um forte incentivo para buscar soluções mais abrangentes que utilizem tecnologias avançadas de aprendizado profundo para essa área. Assim, este trabalho tem como objetivo avaliar redes neurais convolucionais de aprendizado profundo eficientes para segmentação de imagens de troncos de eucalipto e apresentar uma proposta de segmentação específica para troncos de eucalipto que pode beneficiar aplicações agrícolas ou ferramentas de apoio à decisão para mapeamento de árvores. Este trabalho foi dividido em duas etapas principais para avaliar as redes de segmentação e criar uma técnica de pós-processamento. A primeira etapa deste estudo avaliou a eficiência de redes de aprendizado profundo na segmentação semântica de troncos de eucalipto em imagens panorâmicas em cores RGB capturadas no nível do solo. As redes de aprendizado profundo FCN, GCNet, ANN e PointRend foram avaliadas nesta etapa para segmentação de imagens de troncos de eucalipto. O treinamento e a avaliação das redes foram realizados usando uma abordagem de validação cruzada de cinco etapas, usando um conjunto de dados composto por imagens anotadas manualmente de uma floresta de eucalipto. O conjunto de dados inicial foi criado usando um campo de visão esférico da câmera. Ele incluiu uma variedade de eucaliptos com características distintas, como variações nas distâncias entre os troncos e mudanças na curvatura, tamanhos e diâmetros dos troncos, que representam desafios significativos para métodos de aprendizado profundo em tarefas de segmentação semântica. Para a primeira etapa deste estudo, o modelo FCN apresentou o melhor desempenho, com precisão de pixel de 78,87% e mIoU de 70,06%, além de obter um bom tempo de inferência. As redes GCNet e ANN também tiveram desempenho semelhante ao FCN, mas com impactos negativos em sua capacidade de generalizar tarefas em contextos específicos. O estudo conclui que o FCN foi o mais robusto, dentre os métodos avaliados, para segmentação semântica de imagens de árvores em imagens panorâmicas. Essa avaliação das redes de segmentação pode ser um passo crucial para o desenvolvimento de outras ferramentas relevantes no manejo florestal, como a estimativa de altura e diâmetro do tronco. A segunda etapa deste trabalho foi criar e avaliar uma técnica de pós-processamento de imagens RGB-D para melhorar os resultados das redes semânticas atuais para segmentação em imagens de eucalipto. Criamos uma nova imagem de conjunto de dados a partir de imagens obtidas de uma câmera estéreo, que capturou não apenas as informações de cor (RGB), mas também as informações de profundidade, o que permitiu uma visão ainda mais completa da floresta de eucalipto. Após a construção do novo banco de imagens, sua anotação foi realizada por especialistas. A próxima etapa deste estudo foi a avaliação de seis redes de segmentação semântica de imagens e a comparação com os resultados antes e depois da aplicação da técnica de pós-processamento. Treinamos, avaliamos e testamos as redes FCN, ANN, GCNet, SETR, SegFormer e DPT nas imagens anotadas. A técnica de pós-processamento melhorou significativamente os resultados das redes de segmentação de imagens testadas, com um ganho significativo de 24,13% em IoU e 13,11% em F1-score para redes baseadas em convolução e 12,49% para IoU e 6,56% em F1-score para redes baseadas em transformadores. A rede SegFormer obteve os melhores resultados em todos os testes antes e após a aplicação da técnica. A técnica também corrigiu com eficácia falhas de segmentação, erosão e erros de dilatação, resultando em bordas mais precisas e troncos mais bem delimitados. O custo computacional médio da técnica foi de 0,019 segundos, indicando que ela pode ser aplicada em redes de segmentação sem comprometer o desempenho. Os resultados obtidos pela aplicação da técnica de pós-processamento propõem uma abordagem inovadora com baixo custo computacional e melhorias significativas para as redes de segmentação existentes.
                          Simulação de fluidos com PIC usando RBF-FD e grades adaptativas balanceadas
                          Curso Mestrado em Ciência da Computação
                          Tipo Dissertação
                          Data 10/02/2023
                          Área CIÊNCIA DA COMPUTAÇÃO
                          Orientador(es)
                          • Paulo Aristarco Pagliosa
                          Coorientador(es)
                            Orientando(s)
                            • Bianca Namie Sakiyama
                            Banca
                            • Afonso Paiva Neto
                            • Anderson Vicoso de Araujo
                            • Marcio Artacho Peres
                            • Paulo Aristarco Pagliosa
                            Resumo Em animações baseadas em física, a simulação de fluido por métodos híbridos, ou seja, empregando tanto uma discretização material quanto espacial, é normalmente baseada na subdivisão do espaço por uma grade regular. Essa abordagem, a depender da resolução adotada, pode gerar um grande número de células que não contém fluido e não precisam ser processadas, mas que ainda assim serão visitadas. Com o intuito de contornar esse problema, grades adaptativas foram introduzidas para eliminar células vazias. Nas grades regulares, o cálculo dos operadores diferenciais, que é necessário para a resolver a simulação, pode ser feito pelo método das diferenças finitas. O método aproxima o valor da derivada em um ponto com base em seus vizinhos --- que devem estar alinhados ao ponto em relação aos eixos do domínio e a uma distância do ponto sendo avaliado --- e essa vizinhança é chamada de estêncil. Como nas grades adaptativas os tamanhos das células podem ser diferentes, os estênceis gerados não são aptos para o uso do método das diferenças finitas como na grade regular. Uma alternativa para calcular os operadores diferenciais em uma grade adaptativa é o uso do método de diferenças finitas baseada em funções de base radial (RBF-FD), mas esse método é mais complexo e computacionalmente extensivo que o usado nas grades regulares. A fim de manter os benefícios de uma grade adaptativa e acelerar o cálculo dos operadores diferenciais com RBF-FD, este trabalho propõe o uso de grades adaptativas balanceadas, ou seja, grades em que a diferença de nível entre duas células vizinhas não seja maior que um. O objetivo é, uma vez identificado os estênceis gerados com tal condição, definir um dicionário cujas entradas contém funções que permitem o cálculo acelerado do RBF-FD para cada um desses estênceis possíveis.
                            Download
                            Mineração de Textos usando Word Embeddings com Contexto Geográfico
                            Curso Mestrado em Ciência da Computação
                            Tipo Dissertação
                            Data 27/10/2022
                            Área CIÊNCIA DA COMPUTAÇÃO
                            Orientador(es)
                            • Ricardo Marcondes Marcacini
                            Coorientador(es)
                              Orientando(s)
                              • Antônio Ronaldo da Silva
                              Banca
                              • Bruno Magalhaes Nogueira
                              • Camila Vaccari Sundermann
                              • Diego Furtado Silva
                              • Rafael Geraldeli Rossi
                              • Ricardo Marcondes Marcacini
                              Resumo Muitos fenômenos importantes estão relacionados a um contexto geográfico, como eventos extraídos de bases textuais na área da economia, saúde pública, violência urbana e questões sociais. A análise de eventos de maneira manual seria impraticável considerando a sua grande quantidade e as diversas formas nas quais os dados são encontrados. Assim, passou-se a ter a necessidade de processos baseados em métodos computacionais inteligentes como a Mineração de Textos que, por meio das suas etapas, torna capaz a exploração do conteúdo textual com informação geográfica e retorna padrões que não seriam encontrados por modelos tradicionais. O modelo tradicional para analisar a relação entre termos e regiões é o de calcular a probabilidade de um termo ser utilizado em textos associados a uma região, em geral, por meio da frequência de termos em regiões. No entanto, é reconhecido que essa abordagem falha para novos termos apresentados a um modelo, bem como para textos com termos ambíguos. Nesse contexto, modelos baseados em Word Embeddings são reconhecidos por melhorar a identificação das relações entre uma palavra e o possível local associado. Nesse sentido, neste projeto são investigadas representações textuais baseadas em Word Embeddings do modelo BERT (Bidirectional Encoder Representations from Transformers) em um processo de ajuste fino, na qual as informações georreferenciadas dos textos são utilizadas como contexto, culminando na proposta deste trabalho denominada GeoTransformers Language Model. Um dos diferenciais da proposta é automaticamente identificar macrorregiões e microrregiões a partir dos eventos e utilizá-las como contexto para ajuste fino de um modelo de linguagem. Os resultados gerados pelo modelo GeoTransformers, em comparação com outros modelos da literatura, apresentaram maiores valores para métricas de precisão, revocação, F1-Score. Além disso, o modelo proposto foi o único capaz de lidar com regiões com menor quantidade de eventos e difíceis de classificar.
                              Download
                              Modelagem e Desenvolvimento de Algoritmo para o Problema de Roteamento Dinâmico de Veículos
                              Curso Mestrado em Ciência da Computação
                              Tipo Dissertação
                              Data 09/09/2022
                              Área CIÊNCIA DA COMPUTAÇÃO
                              Orientador(es)
                              • Ricardo Ribeiro dos Santos
                              Coorientador(es)
                                Orientando(s)
                                • Wilton Gustavo Gomes da Costa
                                Banca
                                • Bianca de Almeida Dantas
                                • Fillipe Goulart Silva Mendes
                                • Ricardo Ribeiro dos Santos
                                • Willy Alves de Oliveira Soler
                                Resumo Encontrar rotas eficientes para uma frota de forma a minimizar a distância percorrida e o tempo de viagem e maximizar o lucro do serviço são alguns objetivos almejados na resolução do Problema de Roteamento de Veículos (PRV). O PRV e suas variantes são amplamente estudados na literatura técnica especializada, com diversas propostas de modelos, algoritmos e técnicas (métodos) de resolução. Neste trabalho de mestrado, o objetivo é resolver a variante do PRV, denominada Problema de Roteamento Dinâmico de Veículos (PRDV). O PRDV considera que os itens a serem entregues não são conhecidos a priori e podem aparecer para o roteamento de maneira dinâmica. Este é um problema atual e de interesse das empresas de logística, especialmente aquelas com enfoque em marketplace, que precisam lidar com milhares de itens de produtos para entregas ao longo do dia e possuem limitações de frotas de veículos e de horários para entrega. Neste trabalho foram desenvolvidos um algoritmo dinâmico, denominado Dynamic Search per Neighbors Routes (DSNR), e um algoritmo estático, denominado Kmeans, Relax-and-Fix and Optimizations (K-RFO). O cenário para o problema consiste em explorar o roteamento dinâmico a partir de lotes de pacotes para serem entregues em uma jornada de trabalho do mesmo dia. A técnica implementada no algoritmo DSNR é baseada em busca local associada a uma implementação de uma heurística denominada 2-Opt**, visando re-otimizar rotas vizinhas. Quando comparada com os algoritmos dinâmicos QRP-Sweep (QRPS) e Kmeans-Greedy (KG), disponibilizados no repositório Loggibud, observaram-se economias de 17% nos custos de transporte e operacionais, ao utilizar a técnica DSNR.
                                Exploring code samples characteristics and their impacts on software ecosystems
                                Curso Mestrado em Ciência da Computação
                                Tipo Dissertação
                                Data 23/08/2022
                                Área CIÊNCIA DA COMPUTAÇÃO
                                Orientador(es)
                                • Bruno Barbieri de Pontes Cafeo
                                Coorientador(es)
                                • Andre Cavalcante Hora
                                Orientando(s)
                                • Gabriel Santana de Menezes
                                Banca
                                • Andre Cavalcante Hora
                                • Awdren de Lima Fontao
                                • Bruno Barbieri de Pontes Cafeo
                                • Davy de Medeiros Baía
                                • Eiji Adachi Medeiros Barbosa
                                • Hudson Silva Borges
                                Resumo Os sistemas de software modernos são geralmente construídos sobre frameworks, bibliotecas e APIs (plataformas).
                                Ambientes onde existem relações entre as organizações que mantêm essas plataformas
                                e os clientes que utilizam recursos dessas plataformas são conhecidos como Ecossistema de Software.
                                Nesse contexto, as organizações desenvolvem code samples para ajudar seus clientes com as barreiras de aprendizado.
                                Code samples são pequenos projetos de software, com fins educacionais, e ensinam como usar os recursos da plataforma.
                                No entanto, sabemos pouco sobre as características de code samples e sua relação com organizações e clientes.
                                Neste trabalho, pretendemos preencher essas lacunas avaliando quatro aspectos diferentes. Primeiro, comparando code samples com projetos convencionais através de seu código-fonte. Segundo, explorando o uso de code samples via Stack Overflow e GitHub. Terceiro, avaliando o perfil dos atores que interagem com code samples. Quarto, manutenção de code samples e seu impacto nos clientes.
                                Descobrimos que os code samples são menores e mais simples do que os projetos convencionais. Também descobrimos que code samples mudam com menos frequência, mas atualiza mais rapidamente para novas versões de plataforma do que os projetos convencionais. Em relação ao uso de code samples, descobrimos que a abordagem copiar/colar é pouco utilizada pelos clientes. Além disso, notamos que o problema mais comum enfrentado pelos clientes é quando eles tentam modificar a code samples e as melhorias são a necessidade mais comum dos clientes. Em relação aos atores em torno dos code samples, descobrimos que o público-alvo dos code samples pode variar de clientes inexperientes a clientes experientes. Além disso, notamos que plataformas de diferentes organizações parecem ter diferentes públicos-alvo. Além disso, os mantenedores de code samples são antigos e impopulares no GitHub.
                                Por fim, sobre a manutenção de code samples, descobrimos que a modificação de código é a atividade de manutenção mais comum de code samples, mas o gerenciamento de Pull Rquests desempenha um papel essencial no tempo de manutenção. Também descobrimos que os code samples se tornam menos complexas, mas maiores e menos legíveis ao longo do tempo.
                                Towards an expertise-related metric to preprocessor-based configurable software systems
                                Curso Mestrado em Ciência da Computação
                                Tipo Dissertação
                                Data 22/08/2022
                                Área CIÊNCIA DA COMPUTAÇÃO
                                Orientador(es)
                                • Bruno Barbieri de Pontes Cafeo
                                Coorientador(es)
                                  Orientando(s)
                                  • Karolina Martins Milano Neves
                                  Banca
                                  • Awdren de Lima Fontao
                                  • Bruno Barbieri de Pontes Cafeo
                                  • Elder José Reioli Cirilo
                                  • Hudson Silva Borges
                                  • Maria Istela Cagnin Machado
                                  Resumo Contexto: Métricas relacionadas à experiência dos desenvolvedores nos permitem encontrar os melhores desenvolvedores para uma tarefa específica em
                                  um arquivo. Sistemas configuráveis usam a variabilidade de código como
                                  unidade de abstração para gerar diferentes membros de uma família de programas. Esse desalinhamento entre os arquivos usados pelas métricas relacionadas à experiência e as variabilidades usadas pelos sistemas configuráveis pode impossibilitar o uso conjunto delas.
                                  Objetivo: O objetivo é duplo. O primeiro é explorar como o trabalho em código mandatório e variável é dividido entre os desenvolvedores e se as métricas
                                  relacionadas à expertise podem indicar um desenvolvedor com expertise para
                                  uma tarefa envolvendo código variável. O segundo é propor uma métrica relacionada à experiência com conhecimento em variabilidades para indicar desenvolvedores com experiência em código variável.
                                  Método: Foram investigados 49 sistemas configuráveis baseados em pré-processadores, sendo analisadas como as mudanças nas variabilidades são dstribuídas entre os desenvolvedores, e se esses desenvolvedores seriam os principais desenvolvedores indicados por métricas relacionadas a experiência do desenvolvedor em arquivos de código. Foram utilizadas técnicas de feature selection e regressão linear múltipla para propor uma métrica relacionada a experiência
                                  do desenvolvedor em relação ao conhecimento de variabilidades de código. A métrica proposta foi validada comparando-a com duas métricas já conhecidas.
                                  Resultados: Poucos desenvolvedores são especialistas em código variável. Foi identificado que poucos desenvolvedores concentram a maioria das alterações
                                  em código variável. Os resultados também sugerem que que a expertise relacionada a métricas já conhecidas não são um bom ajuste para indicar experts em relação ao código variável. Foi proposta uma métrica relacionada a experiência dos desenvolvedores em relação às variabilidades e foi mostrado que a métrica proposta superou métricas relacionadas a experiência em relação a arquivos de código, já conhecidas.
                                  Conclusão: Embora os resultados mostrem que um número considerável de desenvolvedores realizou alterações no código variável durante o histórico de
                                  desenvolvimento, tais alterações são apenas ocasionais. Há uma concentração
                                  de trabalho entre alguns desenvolvedores quando se trata de código variável.
                                  Esta divisão desigual pode causar um esforço de manutenção desnecessário.
                                  Também concluímos que as métricas relacionadas à experiência em relação ao conhecimento das variabilidades podem apoiar melhor a identificação de
                                  especialistas em sistemas configuráveis quando comparadas às métricas existentes
                                  Uma Análise Exploratória da Influência dos Projetos Pedagógicos dos Cursos Superiores no Resultado do Enade por meio de Mineração de Textos e Aprendizado de Máquina
                                  Curso Mestrado em Ciência da Computação
                                  Tipo Dissertação
                                  Data 11/08/2022
                                  Área CIÊNCIA DA COMPUTAÇÃO
                                  Orientador(es)
                                  • Liana Dessandre Duenha Garanhani
                                  Coorientador(es)
                                  • Bruno Magalhaes Nogueira
                                  Orientando(s)
                                  • Charles Andre Profilio dos Santos
                                  Banca
                                  • Anderson Vicoso de Araujo
                                  • Bruno Magalhaes Nogueira
                                  • Edson Norberto Caceres
                                  • Liana Dessandre Duenha Garanhani
                                  Resumo Um curso de ensino superior é orientado pelo Projeto Pedagógico do Curso (PPC), que orienta a formação esperada para o egresso do curso, tanto no aspecto profissional quanto humanístico, de acordo com as diretrizes curriculares nacionais vigentes. Para avaliar os cursos de graduação e as instituições de ensino superior, o Ministério da Educação (MEC) utiliza alguns indicadores de qualidade, como o Exame Nacional de Desempenho dos Estudantes (Enade), sendo uma avaliação aplicada a cada três anos aos estudantes egressos de cada curso, que visa avaliar a qualidade do ensino de graduação no país por meio da atribuição de um conceito a cada curso avaliado. Tal conceito e os demais relatórios de avaliação resultantes do Enade auxiliam os gestores das instituições de ensino superior, coordenadores de curso e professores atuarem para a melhoria de seus projetos pedagógicos, infraestrutura física, recursos humanos e demais aspectos que impactem na formação do aluno. Este trabalho propõe uma análise dos projetos pedagógicos de cursos utilizando aprendizado de máquina, para auxiliar na compreensão de como o seu conteúdo impacta na avaliação dos cursos, mais especificamente, nos conceitos Enade Faixa e Enade Contínuo dos cursos. A análise foi aplicada sobre projetos pedagógicos dos cursos de Ciência da Computação e Sistemas de Informação, porém a metodologia é aplicável para outros cursos, medi- ante replicação do método sobre novos dados de treinamento. Os resultados experimentais demonstraram que é possível predizer o Conceito Enade Faixa com acurácia de ≈ 80% e o Conceito Enade Contínuo com erro percentual absoluto médio de ≈ 11%.
                                  Download
                                  Exploração do Espaço de Projetos de Sistemas Heterogêneos Aplicada ao Problema de Alocação de Recursos em Nuvem
                                  Curso Mestrado em Ciência da Computação
                                  Tipo Dissertação
                                  Data 01/07/2022
                                  Área CIÊNCIA DA COMPUTAÇÃO
                                  Orientador(es)
                                  • Ricardo Ribeiro dos Santos
                                  Coorientador(es)
                                    Orientando(s)
                                    • Danillo Christi Almeida Arigoni
                                    Banca
                                    • César Augusto Fonticielha De Rose
                                    • Liana Dessandre Duenha Garanhani
                                    • Renato Porfirio Ishii
                                    • Ricardo Ribeiro dos Santos
                                    Resumo Os serviços de computação em nuvem oferecem uma gama de recursos computacionais disponíveis sob demanda. Contudo, encontrar a melhor configuração de recursos que reduza custos e atenda as exigências do usuário tornou-se um grande desafio. Este desafio compartilha características essenciais com um problema da área de arquitetura de computadores, a exploração de espaço de projetos - Design Space Exploration (DSE). Em DSE, o foco é escolher, dentre uma grande quantidade de soluções arquiteturais, qual a mais indicada para uma determinada demanda, buscando atender objetivos e cumprindo as restrições de projeto. Diante disso, este trabalho propõe a aplicação de técnicas de exploração de espaço de projeto como potencial solução para o problema de alocação de recursos em nuvem. Este trabalho projetou e desenvolveu a ferramenta MultiExplorer-VM, uma extensão da ferramenta de DSE MultiExplorer. Essa extensão possui um fluxo de execução adaptado para a resolução do problema de alocação de recursos em nuvem, utilizando e adaptando algoritmos e técnicas de exploração de espaço de projeto.
                                    Experimentos foram realizados visando a validação estatística e comparação com outro trabalho existente na literatura da área que utiliza a técnica Paramount Interation (PI). Os resultados mostram que MultiExplorer-VM possibilita alcançar configurações de recursos com melhorias significativas em relação a técnica de PI. Seguindo as restrições de um modelo de otimização, para algumas aplicações, as soluções obtidas por MultiExplorer-VM são similares às configurações ótimas obtidas por uma ferramenta de busca exaustiva de soluções aplicada ao mesmo problema.
                                    Download
                                    Exploração do Espaço de Projetos de Sistemas GP-GPU ciente de Dark Silicon
                                    Curso Mestrado em Ciência da Computação
                                    Tipo Dissertação
                                    Data 30/06/2022
                                    Área CIÊNCIA DA COMPUTAÇÃO
                                    Orientador(es)
                                    • Liana Dessandre Duenha Garanhani
                                    Coorientador(es)
                                      Orientando(s)
                                      • Rhayssa de Almeida Sonohata
                                      Banca
                                      • Eraldo Luis Rezende Fernandes
                                      • Jonathan de Andrade Silva
                                      • Liana Dessandre Duenha Garanhani
                                      • Ricardo Ribeiro dos Santos
                                      Resumo O alto potencial de paralelismo e de largura de banda oferecidos pelas GPUs, aliados à popularização das linguagens de programação CUDA e OpenCL, fizeram com que as unidades de processamento gráfico fossem utilizadas em aplicações distintas daquelas para as quais foram originalmente criadas, consolidando, assim, o conceito de GP-GPU ou Unidades de Processamento Gráfico para computação de propósito geral. A partir do crescente uso de sistemas que unem CPUs e GPUs para processamento de forma colaborativa, foram desenvolvidas ferramentas para explorar o desempenho e o consumo dos diversos parâmetros arquiteturais dos projetos de computação heterogênea. Entretanto, essas ferramentas são escassas, limitadas, computacionalmente custo-
                                      sas e precisam de parâmetros arquiteturais de difícil obtenção. Isso posto, este trabalho propõe o desenvolvimento e avaliação de modelos de predição de desempenho de sistemas heterogêneos GP-GPU usando técnicas de aprendizado de máquina, com objetivo de alcançar alta acurácia e substituir o custoso processo de simulação. Tais preditores foram validados a partir da integração a uma ferramenta de exploração de espaço de projeto ciente de dark-silicon,denominada MultiExplorer, que realiza a avaliação de alternativas arquiteturais para um projeto-base, buscando alcançar objetivos pré-estabelecidos como maximização de desempenho e minimização de área em dark-silicon, obedecendo restrições de área e consumo energético. Dependendo do espaço de projeto, tal ferramenta avalia centenas de milhares de alternativas arquiteturais e, portanto, os preditores de desempenho com baixo custo computacional e acurácia são essenciais.
                                      Medianas em genômica comparativa
                                      Curso Mestrado em Ciência da Computação
                                      Tipo Dissertação
                                      Data 27/05/2022
                                      Área CIÊNCIA DA COMPUTAÇÃO
                                      Orientador(es)
                                      • Fabio Henrique Viduani Martinez
                                      Coorientador(es)
                                        Orientando(s)
                                        • Helmuth Ossinaga Martines da Silva
                                        Banca
                                        • Carlos Henrique Aguena Higa
                                        • Diego Padilha Rubert
                                        • Fabio Henrique Viduani Martinez
                                        • Francisco Eloi Soares de Araujo
                                        • José Coelho de Pina Junior
                                        • Marco Aurelio Stefanes
                                        Resumo A inferência de genomas ancestrais é uma tarefa clássica em genômica comparativa. Aqui, estudamos o problema da mediana de genomas tal que, dado um conjunto de três ou mais genomas, queremos encontrar um novo genoma que minimize a soma das distâncias par a par entre esse e os genomas dados. A distância representa a quantidade de evolução observada no nível do genoma, para a qual determinamos o número mínimo de operações de rearranjos necessárias para transformar um genoma em outro. Para quase todas as operações de rearranjo conhecidas, o problema da mediana é NP-difícil, com exceção da operação single-cut-or-join (SCJ) que pode ser resolvido eficientemente para genomas multicromossomais circulares e mistos. Neste projeto, estudamos o problema da mediana sob uma medida de rearranjo restrita chamada distância-c4, que é estreitamente relacionada à distância SCJ e à DCJ (double-cut-and-join). Identificamos limitantes precisos e decomposers da mediana-c4 e implementamos algoritmos para a sua construção, dois algoritmo exatos baseados em PLI (Programação Linear Inteira) e três heurísticas combinatórias. Posteriormente, realizamos experimentos com conjunto de dados simulados. Nossos resultados sugerem que a distância-c4 é útil para estudo do problema da mediana de genomas, de perspectiva teórica e prática.
                                        Página 1 de 11 (20 de 206 registros).