Trabalhos Disponíveis

TRABALHO Ações
Detecção de Desmatamento no Estado de Mato Grosso do Sul utilizando Segmentação Semântica em imagens bi-temporais dos satélites Landsat 8 e Sentinel 2
Curso Mestrado em Ciência da Computação
Tipo Dissertação
Data 29/02/2024
Área CIÊNCIA DA COMPUTAÇÃO
Orientador(es)
  • Edson Takashi Matsubara
Orientando(s)
  • Paulo Augusto Arantes Vilela
Banca
  • Anderson Bessa da Costa
  • Edson Takashi Matsubara
  • Jose Marcato Junior
Resumo A supressão da vegetação nativa sem autorização no Estado de Mato Grosso do Sul tem ameaçado a conservação dos biomas locais como o Cerrado e a Mata Atlântica. Neste contexto, é relevante salientar que a Constituição Brasileira de 1988 fixou como dever do Estado e da Coletividade a defesa do meio ambiente, atribuindo ao Ministério Público funções de atuação para a proteção ambiental. A exemplo, o Ministério Público do Estado de Mato Grosso do Sul, por meio do Programa DNA Ambiental, têm monitorado e identificado pontos de desmatamento sem autorização ambiental, em seu Núcleo de Geotecnologias (NUGEO), promovendo ações e providências para a punição e reparação de eventuais danos causados. Atualmente, este mapeamento tem sido realizado através da análise visual, não automatizada, de imagens de diversos satélites, especialmente dos satélites Landsat-8 e Sentinel-2, demandando consideráveis horas de trabalho e mão de obra especializada. Entretanto, com a evolução de técnicas de Deep Learning, novos algoritmos podem ser capazes de automatizar o processo de análise multitemporal de imagens de satélites, promovendo agilidade, ganho de eficiência e possibilitando a alocação de recursos humanos para outros serviços. Este trabalho tem por objetivo apresentar uma proposta de automatização do processo de identificação de desmatamentos utilizando as redes neurais profundas DeepLabv3+, U-Net e Multi-Scale Attention for Semantic Segmentation, para segmentação semântica em imagens bi-temporais de satélite, disponibilizando um modelo de inteligência artificial treinado, com a capacidade de mapear áreas desmatadas em qualquer cena dos biomas Cerrado e Mata Atlântica. Para tanto, buscou-se um conjunto de dados apropriado para essa finalidade. O primeiro dataset foi gerado a partir de arquivo shapefile com polígonos de áreas desmatadas pré-determinadas, associado ao recorte manual de duas cenas do satélite Landasat-8, resultando em um conjunto de dados com poucas amostras e muito ruído. O segundo dataset foi obtido a partir de um novo arquivo shapefile de desmatamentos e cenas do satélite Sentinel-2, cujo download e recortes foram realizados de forma automatizada utilizando-se um framework desenvolvido com APIs e infraestrutura em nuvem do projeto Planetary Computer, associadas a aplicação de uma curadoria especializada, produzindo um conjunto com maior número de amostras e ruído reduzido, com o qual obteve-se os melhores resultados nos treinamentos preliminares utilizando-se a rede neural U-net, adotada como baseline, sendo então escolhido para o treinamento das demais redes neurais artificiais avaliadas neste estudo. Ainda, foi realizado experimento para mitigar o problema do balanceamento dos dados, empregando-se diferentes funções de perda. Assim sendo, as principais contribuições desta dissertação são: (1) um conjunto de dados de desmatamento público rotulado e com curadoria; (2) uma avaliação experimental usando as redes neurais U-Net, DeepLabv3+ e Multi-Scale Attention para segmentação semântica em imagens bi-temporais do satélite Sentinel 2; e (3) uma avaliação experimental das funções de perda Binary-Cross-Entropy, Weighted Binary-Cross-Entropy e Focal Loss. Os resultados mais favoráveis foram obtidos com a arquitetura Multi-Scale Attention for Semantic Segmentation, com a função de perda Weighted Binary Cross-Entropy. Por fim, esse modelo foi disponibilizado ao MPMS, que procederá a sua implantação e implementação de procedimentos para validação dos resultados, bem como aprimoramento da amostra e evolução do modelo.
Uma Ferramenta para Ensino e Aprendizado de Exploração de Espaço de Projeto de Arquiteturas de Processadores na Era de Dark-Silicon
Curso Mestrado em Ciência da Computação
Tipo Dissertação
Data 15/12/2023
Área CIÊNCIA DA COMPUTAÇÃO
Orientador(es)
  • Liana Dessandre Duenha Garanhani
Orientando(s)
  • Erick Rocha Amorim
Banca
  • Amaury Antonio de Castro Junior
  • Awdren de Lima Fontao
  • Liana Dessandre Duenha Garanhani
  • Ricardo Ribeiro dos Santos
Resumo A exploração de espaço de projeto é uma atividade útil em diversos contextos de engenharia, e especificamente considerada crucial para o projeto de MPSoCs, usualmente empregados em dispositivos eletrônicos portáteis e sistemas embarcados. Portanto, o tópico é relevante para a formação dos futuros profissionais da indústria brasileira de microeletrônicos. O MultiExplorer é uma ferramenta inicialmente proposta para auxiliar a pesquisa no campo de exploração de espaço de projeto de arquiteturas de processadores na era de dark-silicon. Uma série de estudos foram publicados em periódicos científicos e conferências internacionais, utilizando o MultiExplorer em uma gama de aplicações, desde a mitigação de dark-silicon em arquiteturas multi-núcleo, exploração de espaço de projeto com arquiteturas heterogêneas baseadas em utilização de unidades de processamento gráfico para computação de propósito geral (GPGPU), até alocação de recursos de computação em nuvem. Entretanto, a despeito de sua relevância para o desenvolvimento industrial, e das recomendações curriculares da ACM (Association for Computing Machinery), o tópico de exploração de espaço de projeto não parece ser abordado com frequência nos programas de graduação em Engenharia de Computação e Ciência da Computação no Brasil. Dado o contexto, este trabalho tem como objetivo fomentar a abordagem do tópico a nível de graduação a partir da disponibilização de uma versão aberta da ferramenta MultiExplorer
que permita a exposição do tópico em um nível de abstração acessível para os alunos. O trabalho resultou no amadurecimento da arquitetura de software da ferramenta, abertura do código-fonte, estabelecimento de uma interface gráfica para melhor interação dos alunos com a ferramenta. Um estudo de caso avaliou o uso da ferramenta para aprendizado na graduação, por meio de um minicurso, e o prospecto foi positivo.
Download
Um modelo baseado em habilidades para formação de profissionais de DevRel
Curso Mestrado em Ciência da Computação
Tipo Dissertação
Data 15/09/2023
Área CIÊNCIA DA COMPUTAÇÃO
Orientador(es)
  • Awdren de Lima Fontao
Orientando(s)
  • ANA ELISA DA SILVA CUNHA
Banca
  • Awdren de Lima Fontao
  • Bruno Barbieri de Pontes Cafeo
  • Davi Viana dos Santos
  • Rodrigo Pereira dos Santos
Resumo Developer Relations (DevRel, em português, Relações com desenvolvedores) é uma área organizacional responsável por manter a sinergia entre comunidades de desenvolvedores e organizações. Essa área é presente em empresas como Amazon, Apple, Google e Microsoft, como uma estratégia de governança de desenvolvedo- res em ecossistemas de Software (ECOS). A falta de clareza quanto à natureza e conjunto de habilidades necessárias para um profissional DevRel pode impactar negativamente no desempenho das atividades relacionadas ao profissional e, conse- quentemente, na saúde do ECOS. Tanto a indústria como a academia trouxeram definições sobre DevRel. Contudo, não há estudos suficientes para consolidar um modelo de formação para DevRel. Neste sentido, a proposta deste trabalho de mes- trado é estabelecer um modelo envolvendo um conjunto de passos, dimensões, pa- péis e habilidades para a formação de profissionais de DevRel que seja entendível, compreensível e ajustável para que qualquer pessoa ou organização seja capaz de desenvolver as habilidades inerentes à profissão.
Download
A Multi-Faceted Analysis of How Organizations Create and Maintain Code Samples
Curso Mestrado em Ciência da Computação
Tipo Dissertação
Data 15/09/2023
Área CIÊNCIA DA COMPUTAÇÃO
Orientador(es)
  • Bruno Barbieri de Pontes Cafeo
Orientando(s)
  • Matheus Albuquerque de Melo
Banca
  • Awdren de Lima Fontao
  • Bruno Barbieri de Pontes Cafeo
  • Elder José Reioli Cirilo
  • Hudson Silva Borges
  • Maria Istela Cagnin Machado
Resumo Code samples, como artefatos presentes no contexto dos ecossistemas de software, a qual tem a função de auxiliar os desenvolvedores, exemplificando o uso de APIs, bibliotecas e outros recursos começaram a ser explorados na literatura recentemente, por volta de 2019. Estudos propuseram a compreender as características estruturais do código desses artefatos, bem como como eles passam por manutenções e evoluem ao longo do tempo. Em 2020, também houve exploração do público-alvo que consome este artefato por meio de perguntas no StackOverflow. Este presente estudo foi dividido em duas partes. Na primeira, investigamos repositórios de code samples no GitHub e analisamos como as organizações lidam com as contribuições de desenvolvedores externos dentro desse ambiente. Na segunda parte, realizamos uma pesquisa com desenvolvedores que produzem code samples dentro das organizações. Isso nos permitiu compreender melhor a visão e as perspectivas deles em relação aos code samples, além de analisar suas experiências com code samples e a dedicação a esses artefatos. As propostas de ambas as partes do estudo não haviam sido exploradas anteriormente no contexto de code samples. Nossas descobertas revelaram alguns pontos como a demora na revisão de pull requests, especialmente os que foram rejeitados, e gargalos na distribuição das atividades de revisão entre os mantenedores. Essas constatações resultaram em uma publicação. Além disso, descobrimos que os objetivos dos code samples vão além dos propósitos educacionais, conforme sugerido pelos desenvolvedores das organizações. Também identificamos que desenvolvedores experientes estão envolvidos no desenvolvimento de code samples nas organizações, dedicando geralmente algumas horas mensais ou semanais para essa atividade. Por fim, notamos a presença de problemas de divergência de opiniões entre os desenvolvedores das organizações, em relação ao público-alvo dos code samples, ao processo de desenvolvimento e à garantia da qualidade desses artefatos.
Problema da coloração de vértices com pesos dissonantes e restrições de cores
Curso Mestrado em Ciência da Computação
Tipo Dissertação
Data 21/08/2023
Área CIÊNCIA DA COMPUTAÇÃO
Orientador(es)
  • Edna Ayako Hoshino
Orientando(s)
  • Edison Gabriel Gonçalves Borghezan
Banca
  • Diego Padilha Rubert
  • Edna Ayako Hoshino
  • Fabio Henrique Viduani Martinez
  • Francisco Eloi Soares de Araujo
  • Henrique Mongelli
Resumo O problema de coloração de vértices com pesos dissonantes e restrições de cores é uma generalização do problema de coloração de vértices e vários outros
problemas de coloração podem ser reduzidos a ele. Neste trabalho é proposta uma variação do problema de coloração de vértices, e também três modelos
matemáticos utilizando programação linear inteira, um modelo cujo número de variáveis e restrições é polinomial, um segundo, no qual o número de variáveis é exponencial em relação ao número de restrições e um terceiro modelo bastante semelhante ao segundo mas que aproveita-se de uma propriedade que permite algumas cores serem aglutinadas almejando uma execução mais rápida. Para os modelos estendidos, são propostos algoritmos de geração de colunas para lidar com o número exponencial de variáveis do problema, assim como heurísticas, tanto para gerar novas colunas quanto para encontrar soluções inteiras em cada nó da árvore de enumeração para acelerar o desempenho de um algoritmo exato de branch-and-price. Um conjunto de instâncias foi proposto e foi possível identificar características das instâncias difíceis para este problema.
Segmentação de Documentos Jurídicos usando Supervisão Fraca
Curso Mestrado em Ciência da Computação
Tipo Dissertação
Data 22/03/2023
Área CIÊNCIA DA COMPUTAÇÃO
Orientador(es)
  • Eraldo Luis Rezende Fernandes
Orientando(s)
  • Marlon Daltro Tosta
Banca
  • Bruno Magalhaes Nogueira
  • Edson Takashi Matsubara
  • Eraldo Luis Rezende Fernandes
  • Leandro Guimarães Marques Alvim
  • Valeria Quadros dos Reis
Resumo Milhões de processos estão em tramitação no sistema judiciário brasileiro.
Os acórdãos são decisões colegiadas de tribunais brasileiros e, por conta disto,
são fundamentais na uniformização do entendimento entre os magistrados e entre diferentes tribunais.
Portanto, desenvolver e implementar soluções tecnológicas eficazes para auxiliar
juízes,
desembargadores e
outros profissionais envolvidos no processo judicial
a lidar com o crescente volume de processos judiciais no Brasil.
Essas soluções devem ser capazes de acelerar a tomada de decisões e reduzir a carga de trabalho,
garantindo a eficiência do sistema judiciário e a satisfação dos cidadãos que dependem dele.
Os acórdãos dos tribunais brasileiros estão disponíveis publicamente,
entretanto, como estes documentos não estão em formato estruturado,
o processamento automático deles é dificultado.

Um dos primeiros passos para o processamento de acórdãos é
a segmentação destes documentos que são compostos por diversas seções com diferentes informações sobre a decisão.
Neste trabalho, foram coletados mais de 960 mil
documentos contendo o inteiro teor de acórdãos de cinco tribunais de diferentes esferas do judiciário brasileiro.
Estes documentos estão em formato PDF e foram coletados nos portais de busca dos tribunais.
Após a coleta, o conteúdo textual e características de layout de 624.161 acórdãos
foram extraídos utilizando diferentes ferramentas.
Adicionalmente, um método de segmentação automática foi desenvolvido para cada tribunal
e todos os documentos foram segmentados em cinco seções obrigatórias em acórdãos de tribunais brasileiros.
A segmentação de 100 documentos de cada tribunal (500 no total) foi manualmente revisada
para servirem como validação e teste de modelos de Aprendizado de Máquina (AM).
Modelos de AM clássicos e baseados em aprendizado profundo foram avaliados utilizando estes datasets.
Todos os modelos foram treinados usando os dados anotados automaticamente (supervisão fraca).
Diversos experimentos foram realizados para avaliar diferentes aspectos do problema de segmentação de acórdãos.
Particularmente, um aspecto analisado foi a capacidade de generalização dos modelos para tribunais não vistos no treinamento.
Outro aspecto considerado nos experimentos foi o impacto de características de layout dos documentos em alguns modelos de AM.
Mais especificamente, foram analisados modelos baseados em aprendizado profundo,
propostos recentemente na literatura,
que consideram como entrada tanto o conteúdo textual quanto algumas características de layout.
Modelos de segmentação com incorporação de layout alcançam, em alguns casos,
desempenho superior aos métodos desenvolvidos especificamente para um tribunal.
Modelos que são treinados e testados no mesmo tribunal também tendem a apresentar um desempenho comparável
ou até superior aos métodos de anotação automática.
No entanto, quando se trata de modelos treinados em um tribunal e testados em outro,
o desempenho depende da correlação encontrada entre eles.
Em alguns casos, a perda de desempenho é substancial.
Neste trabalho, são disponibilizados diversos recursos que podem ser usados em trabalhos futuros.
Todos os documentos coletados em formato PDF,
assim como os correspondentes arquivos TSV e JSON com as anotações automáticas,
estão disponíveis livremente.
Também estão disponíveis os scripts de segmentação automática,
assim como os scripts usados para treinamento e avaliação de modelos.
Por fim, também estão disponíveis as anotações revisadas manualmente de 500 documentos (100 de cada tribunal).
Download
Análise Isogeométrica com Elementos de Contorno e Superfícies de Subdivisão
Curso Mestrado em Ciência da Computação
Tipo Dissertação
Data 03/03/2023
Área CIÊNCIA DA COMPUTAÇÃO
Orientador(es)
  • Paulo Aristarco Pagliosa
Orientando(s)
  • Bárbara Santos Munhão
Banca
  • Afonso Paiva Neto
  • Anderson Vicoso de Araujo
  • Marcio Artacho Peres
  • Paulo Aristarco Pagliosa
Resumo O método dos elementos de contorno (MEC), muito utilizado para solução numérica de problemas de mecânica do contínuo, depende de uma malha para a análise e essa malha tem impacto direto na precisão da solução numérica do problema considerado. Quando adotado junto à análise isogeométrica, a escolha de uma representação geométrica adequada é crucial, visto que o modelo de análise deriva diretamente do modelo geométrico. Um tipo de representação amplamente utilizado — que hoje é o padrão na indústria de animação, após forte incentivo da Pixar com o lançamento da API OpenSubdiv — são as superfícies de subdivisão, as quais possibilitam a construção de formas complexas e fornecem aproximações tão boas quanto se queira da forma do objeto a ser representado. Dada tamanha relevância das superfícies de subdivisão, com utilização crescente em diversas áreas, que incluem aplicações CAD (do inglês, Computer-aided Design), e tendo em vista que as simulações físicas não mais se restringem às áreas de ciências e engenharias, com papel importante em outros campos da computação gráfica, tais como jogos digitais, animações e efeitos especiais, neste trabalho foi proposta uma solução para a análise isogeométrica elastostática com elementos de contorno para sólidos representados por superf´ıcies de subdivisão. São introduzidos como parte central desta solução um método de posicionamento de pontos de colocação e um método de extração de elementos curvos para superfícies de subdivisão com bordas, pontos extraordinários e curvas de vinco. A solução proposta se mostrou adequada e equiparável às encontradas na literatura, e se estabelece como uma extensão ao modelo de análise no qual baseia-se este trabalho.

Palavras-chave: superfícies de subdivisão, análise isogeométrica, método dos elementos de contorno.
Deep Learning Approaches to Segment Eucalyptus Tree Images
Curso Mestrado em Ciência da Computação
Tipo Dissertação
Data 17/02/2023
Área CIÊNCIA DA COMPUTAÇÃO
Orientador(es)
  • Wesley Nunes Goncalves
Orientando(s)
  • Mário de Araújo Carvalho
Banca
  • Camilo Carromeu
  • Celso Soares Costa
  • Jose Marcato Junior
  • Wesley Nunes Goncalves
Resumo O agronegócio é uma das principais fontes de riqueza e emprego do Brasil, representando uma parcela significativa do Produto Interno Bruto (PIB) nacional. Em 2021, o setor do agronegócio atingiu 27,4% do PIB brasileiro, a maior participação desde 2004, quando atingiu 27,53%. A indústria de base florestal é um importante segmento do agronegócio, pois fornece insumos vitais para diversos setores industriais, como produtos de madeira, móveis e papel. As florestas plantadas desempenham um papel essencial na captura de carbono e outros serviços ecossistêmicos, sendo o eucalipto a árvore mais utilizada, com 7,3 milhões de hectares de florestas de eucalipto em 2021. O mapeamento de árvores é vital para a economia e o meio ambiente, e as soluções baseadas em inteligência artificial são valiosas ferramentas de apoio à decisão em agricultura e mapeamento de árvores. Consequentemente, há um forte incentivo para buscar soluções mais abrangentes que utilizem tecnologias avançadas de aprendizado profundo para essa área. Assim, este trabalho tem como objetivo avaliar redes neurais convolucionais de aprendizado profundo eficientes para segmentação de imagens de troncos de eucalipto e apresentar uma proposta de segmentação específica para troncos de eucalipto que pode beneficiar aplicações agrícolas ou ferramentas de apoio à decisão para mapeamento de árvores. Este trabalho foi dividido em duas etapas principais para avaliar as redes de segmentação e criar uma técnica de pós-processamento. A primeira etapa deste estudo avaliou a eficiência de redes de aprendizado profundo na segmentação semântica de troncos de eucalipto em imagens panorâmicas em cores RGB capturadas no nível do solo. As redes de aprendizado profundo FCN, GCNet, ANN e PointRend foram avaliadas nesta etapa para segmentação de imagens de troncos de eucalipto. O treinamento e a avaliação das redes foram realizados usando uma abordagem de validação cruzada de cinco etapas, usando um conjunto de dados composto por imagens anotadas manualmente de uma floresta de eucalipto. O conjunto de dados inicial foi criado usando um campo de visão esférico da câmera. Ele incluiu uma variedade de eucaliptos com características distintas, como variações nas distâncias entre os troncos e mudanças na curvatura, tamanhos e diâmetros dos troncos, que representam desafios significativos para métodos de aprendizado profundo em tarefas de segmentação semântica. Para a primeira etapa deste estudo, o modelo FCN apresentou o melhor desempenho, com precisão de pixel de 78,87% e mIoU de 70,06%, além de obter um bom tempo de inferência. As redes GCNet e ANN também tiveram desempenho semelhante ao FCN, mas com impactos negativos em sua capacidade de generalizar tarefas em contextos específicos. O estudo conclui que o FCN foi o mais robusto, dentre os métodos avaliados, para segmentação semântica de imagens de árvores em imagens panorâmicas. Essa avaliação das redes de segmentação pode ser um passo crucial para o desenvolvimento de outras ferramentas relevantes no manejo florestal, como a estimativa de altura e diâmetro do tronco. A segunda etapa deste trabalho foi criar e avaliar uma técnica de pós-processamento de imagens RGB-D para melhorar os resultados das redes semânticas atuais para segmentação em imagens de eucalipto. Criamos uma nova imagem de conjunto de dados a partir de imagens obtidas de uma câmera estéreo, que capturou não apenas as informações de cor (RGB), mas também as informações de profundidade, o que permitiu uma visão ainda mais completa da floresta de eucalipto. Após a construção do novo banco de imagens, sua anotação foi realizada por especialistas. A próxima etapa deste estudo foi a avaliação de seis redes de segmentação semântica de imagens e a comparação com os resultados antes e depois da aplicação da técnica de pós-processamento. Treinamos, avaliamos e testamos as redes FCN, ANN, GCNet, SETR, SegFormer e DPT nas imagens anotadas. A técnica de pós-processamento melhorou significativamente os resultados das redes de segmentação de imagens testadas, com um ganho significativo de 24,13% em IoU e 13,11% em F1-score para redes baseadas em convolução e 12,49% para IoU e 6,56% em F1-score para redes baseadas em transformadores. A rede SegFormer obteve os melhores resultados em todos os testes antes e após a aplicação da técnica. A técnica também corrigiu com eficácia falhas de segmentação, erosão e erros de dilatação, resultando em bordas mais precisas e troncos mais bem delimitados. O custo computacional médio da técnica foi de 0,019 segundos, indicando que ela pode ser aplicada em redes de segmentação sem comprometer o desempenho. Os resultados obtidos pela aplicação da técnica de pós-processamento propõem uma abordagem inovadora com baixo custo computacional e melhorias significativas para as redes de segmentação existentes.
Simulação de fluidos com PIC usando RBF-FD e grades adaptativas balanceadas
Curso Mestrado em Ciência da Computação
Tipo Dissertação
Data 10/02/2023
Área CIÊNCIA DA COMPUTAÇÃO
Orientador(es)
  • Paulo Aristarco Pagliosa
Orientando(s)
  • Bianca Namie Sakiyama
Banca
  • Afonso Paiva Neto
  • Anderson Vicoso de Araujo
  • Marcio Artacho Peres
  • Paulo Aristarco Pagliosa
Resumo Em animações baseadas em física, a simulação de fluido por métodos híbridos, ou seja, empregando tanto uma discretização material quanto espacial, é normalmente baseada na subdivisão do espaço por uma grade regular. Essa abordagem, a depender da resolução adotada, pode gerar um grande número de células que não contém fluido e não precisam ser processadas, mas que ainda assim serão visitadas. Com o intuito de contornar esse problema, grades adaptativas foram introduzidas para eliminar células vazias. Nas grades regulares, o cálculo dos operadores diferenciais, que é necessário para a resolver a simulação, pode ser feito pelo método das diferenças finitas. O método aproxima o valor da derivada em um ponto com base em seus vizinhos --- que devem estar alinhados ao ponto em relação aos eixos do domínio e a uma distância do ponto sendo avaliado --- e essa vizinhança é chamada de estêncil. Como nas grades adaptativas os tamanhos das células podem ser diferentes, os estênceis gerados não são aptos para o uso do método das diferenças finitas como na grade regular. Uma alternativa para calcular os operadores diferenciais em uma grade adaptativa é o uso do método de diferenças finitas baseada em funções de base radial (RBF-FD), mas esse método é mais complexo e computacionalmente extensivo que o usado nas grades regulares. A fim de manter os benefícios de uma grade adaptativa e acelerar o cálculo dos operadores diferenciais com RBF-FD, este trabalho propõe o uso de grades adaptativas balanceadas, ou seja, grades em que a diferença de nível entre duas células vizinhas não seja maior que um. O objetivo é, uma vez identificado os estênceis gerados com tal condição, definir um dicionário cujas entradas contém funções que permitem o cálculo acelerado do RBF-FD para cada um desses estênceis possíveis.
Download
Mineração de Textos usando Word Embeddings com Contexto Geográfico
Curso Mestrado em Ciência da Computação
Tipo Dissertação
Data 27/10/2022
Área CIÊNCIA DA COMPUTAÇÃO
Orientador(es)
  • Ricardo Marcondes Marcacini
Orientando(s)
  • Antônio Ronaldo da Silva
Banca
  • Bruno Magalhaes Nogueira
  • Camila Vaccari Sundermann
  • Diego Furtado Silva
  • Rafael Geraldeli Rossi
  • Ricardo Marcondes Marcacini
Resumo Muitos fenômenos importantes estão relacionados a um contexto geográfico, como eventos extraídos de bases textuais na área da economia, saúde pública, violência urbana e questões sociais. A análise de eventos de maneira manual seria impraticável considerando a sua grande quantidade e as diversas formas nas quais os dados são encontrados. Assim, passou-se a ter a necessidade de processos baseados em métodos computacionais inteligentes como a Mineração de Textos que, por meio das suas etapas, torna capaz a exploração do conteúdo textual com informação geográfica e retorna padrões que não seriam encontrados por modelos tradicionais. O modelo tradicional para analisar a relação entre termos e regiões é o de calcular a probabilidade de um termo ser utilizado em textos associados a uma região, em geral, por meio da frequência de termos em regiões. No entanto, é reconhecido que essa abordagem falha para novos termos apresentados a um modelo, bem como para textos com termos ambíguos. Nesse contexto, modelos baseados em Word Embeddings são reconhecidos por melhorar a identificação das relações entre uma palavra e o possível local associado. Nesse sentido, neste projeto são investigadas representações textuais baseadas em Word Embeddings do modelo BERT (Bidirectional Encoder Representations from Transformers) em um processo de ajuste fino, na qual as informações georreferenciadas dos textos são utilizadas como contexto, culminando na proposta deste trabalho denominada GeoTransformers Language Model. Um dos diferenciais da proposta é automaticamente identificar macrorregiões e microrregiões a partir dos eventos e utilizá-las como contexto para ajuste fino de um modelo de linguagem. Os resultados gerados pelo modelo GeoTransformers, em comparação com outros modelos da literatura, apresentaram maiores valores para métricas de precisão, revocação, F1-Score. Além disso, o modelo proposto foi o único capaz de lidar com regiões com menor quantidade de eventos e difíceis de classificar.
Download
Modelagem e Desenvolvimento de Algoritmo para o Problema de Roteamento Dinâmico de Veículos
Curso Mestrado em Ciência da Computação
Tipo Dissertação
Data 09/09/2022
Área CIÊNCIA DA COMPUTAÇÃO
Orientador(es)
  • Ricardo Ribeiro dos Santos
Orientando(s)
  • Wilton Gustavo Gomes da Costa
Banca
  • Bianca de Almeida Dantas
  • Fillipe Goulart Silva Mendes
  • Ricardo Ribeiro dos Santos
  • Willy Alves de Oliveira Soler
Resumo Encontrar rotas eficientes para uma frota de forma a minimizar a distância percorrida e o tempo de viagem e maximizar o lucro do serviço são alguns objetivos almejados na resolução do Problema de Roteamento de Veículos (PRV). O PRV e suas variantes são amplamente estudados na literatura técnica especializada, com diversas propostas de modelos, algoritmos e técnicas (métodos) de resolução. Neste trabalho de mestrado, o objetivo é resolver a variante do PRV, denominada Problema de Roteamento Dinâmico de Veículos (PRDV). O PRDV considera que os itens a serem entregues não são conhecidos a priori e podem aparecer para o roteamento de maneira dinâmica. Este é um problema atual e de interesse das empresas de logística, especialmente aquelas com enfoque em marketplace, que precisam lidar com milhares de itens de produtos para entregas ao longo do dia e possuem limitações de frotas de veículos e de horários para entrega. Neste trabalho foram desenvolvidos um algoritmo dinâmico, denominado Dynamic Search per Neighbors Routes (DSNR), e um algoritmo estático, denominado Kmeans, Relax-and-Fix and Optimizations (K-RFO). O cenário para o problema consiste em explorar o roteamento dinâmico a partir de lotes de pacotes para serem entregues em uma jornada de trabalho do mesmo dia. A técnica implementada no algoritmo DSNR é baseada em busca local associada a uma implementação de uma heurística denominada 2-Opt**, visando re-otimizar rotas vizinhas. Quando comparada com os algoritmos dinâmicos QRP-Sweep (QRPS) e Kmeans-Greedy (KG), disponibilizados no repositório Loggibud, observaram-se economias de 17% nos custos de transporte e operacionais, ao utilizar a técnica DSNR.
Exploring code samples characteristics and their impacts on software ecosystems
Curso Mestrado em Ciência da Computação
Tipo Dissertação
Data 23/08/2022
Área CIÊNCIA DA COMPUTAÇÃO
Orientador(es)
  • Bruno Barbieri de Pontes Cafeo
Orientando(s)
  • Gabriel Santana de Menezes
Banca
  • Andre Cavalcante Hora
  • Awdren de Lima Fontao
  • Bruno Barbieri de Pontes Cafeo
  • Davy de Medeiros Baía
  • Eiji Adachi Medeiros Barbosa
  • Hudson Silva Borges
Resumo Os sistemas de software modernos são geralmente construídos sobre frameworks, bibliotecas e APIs (plataformas).
Ambientes onde existem relações entre as organizações que mantêm essas plataformas
e os clientes que utilizam recursos dessas plataformas são conhecidos como Ecossistema de Software.
Nesse contexto, as organizações desenvolvem code samples para ajudar seus clientes com as barreiras de aprendizado.
Code samples são pequenos projetos de software, com fins educacionais, e ensinam como usar os recursos da plataforma.
No entanto, sabemos pouco sobre as características de code samples e sua relação com organizações e clientes.
Neste trabalho, pretendemos preencher essas lacunas avaliando quatro aspectos diferentes. Primeiro, comparando code samples com projetos convencionais através de seu código-fonte. Segundo, explorando o uso de code samples via Stack Overflow e GitHub. Terceiro, avaliando o perfil dos atores que interagem com code samples. Quarto, manutenção de code samples e seu impacto nos clientes.
Descobrimos que os code samples são menores e mais simples do que os projetos convencionais. Também descobrimos que code samples mudam com menos frequência, mas atualiza mais rapidamente para novas versões de plataforma do que os projetos convencionais. Em relação ao uso de code samples, descobrimos que a abordagem copiar/colar é pouco utilizada pelos clientes. Além disso, notamos que o problema mais comum enfrentado pelos clientes é quando eles tentam modificar a code samples e as melhorias são a necessidade mais comum dos clientes. Em relação aos atores em torno dos code samples, descobrimos que o público-alvo dos code samples pode variar de clientes inexperientes a clientes experientes. Além disso, notamos que plataformas de diferentes organizações parecem ter diferentes públicos-alvo. Além disso, os mantenedores de code samples são antigos e impopulares no GitHub.
Por fim, sobre a manutenção de code samples, descobrimos que a modificação de código é a atividade de manutenção mais comum de code samples, mas o gerenciamento de Pull Rquests desempenha um papel essencial no tempo de manutenção. Também descobrimos que os code samples se tornam menos complexas, mas maiores e menos legíveis ao longo do tempo.
Towards an expertise-related metric to preprocessor-based configurable software systems
Curso Mestrado em Ciência da Computação
Tipo Dissertação
Data 22/08/2022
Área CIÊNCIA DA COMPUTAÇÃO
Orientador(es)
  • Bruno Barbieri de Pontes Cafeo
Orientando(s)
  • Karolina Martins Milano Neves
Banca
  • Awdren de Lima Fontao
  • Bruno Barbieri de Pontes Cafeo
  • Elder José Reioli Cirilo
  • Hudson Silva Borges
  • Maria Istela Cagnin Machado
Resumo Contexto: Métricas relacionadas à experiência dos desenvolvedores nos permitem encontrar os melhores desenvolvedores para uma tarefa específica em
um arquivo. Sistemas configuráveis usam a variabilidade de código como
unidade de abstração para gerar diferentes membros de uma família de programas. Esse desalinhamento entre os arquivos usados pelas métricas relacionadas à experiência e as variabilidades usadas pelos sistemas configuráveis pode impossibilitar o uso conjunto delas.
Objetivo: O objetivo é duplo. O primeiro é explorar como o trabalho em código mandatório e variável é dividido entre os desenvolvedores e se as métricas
relacionadas à expertise podem indicar um desenvolvedor com expertise para
uma tarefa envolvendo código variável. O segundo é propor uma métrica relacionada à experiência com conhecimento em variabilidades para indicar desenvolvedores com experiência em código variável.
Método: Foram investigados 49 sistemas configuráveis baseados em pré-processadores, sendo analisadas como as mudanças nas variabilidades são dstribuídas entre os desenvolvedores, e se esses desenvolvedores seriam os principais desenvolvedores indicados por métricas relacionadas a experiência do desenvolvedor em arquivos de código. Foram utilizadas técnicas de feature selection e regressão linear múltipla para propor uma métrica relacionada a experiência
do desenvolvedor em relação ao conhecimento de variabilidades de código. A métrica proposta foi validada comparando-a com duas métricas já conhecidas.
Resultados: Poucos desenvolvedores são especialistas em código variável. Foi identificado que poucos desenvolvedores concentram a maioria das alterações
em código variável. Os resultados também sugerem que que a expertise relacionada a métricas já conhecidas não são um bom ajuste para indicar experts em relação ao código variável. Foi proposta uma métrica relacionada a experiência dos desenvolvedores em relação às variabilidades e foi mostrado que a métrica proposta superou métricas relacionadas a experiência em relação a arquivos de código, já conhecidas.
Conclusão: Embora os resultados mostrem que um número considerável de desenvolvedores realizou alterações no código variável durante o histórico de
desenvolvimento, tais alterações são apenas ocasionais. Há uma concentração
de trabalho entre alguns desenvolvedores quando se trata de código variável.
Esta divisão desigual pode causar um esforço de manutenção desnecessário.
Também concluímos que as métricas relacionadas à experiência em relação ao conhecimento das variabilidades podem apoiar melhor a identificação de
especialistas em sistemas configuráveis quando comparadas às métricas existentes
Uma Análise Exploratória da Influência dos Projetos Pedagógicos dos Cursos Superiores no Resultado do Enade por meio de Mineração de Textos e Aprendizado de Máquina
Curso Mestrado em Ciência da Computação
Tipo Dissertação
Data 11/08/2022
Área CIÊNCIA DA COMPUTAÇÃO
Orientador(es)
  • Liana Dessandre Duenha Garanhani
Orientando(s)
  • Charles Andre Profilio dos Santos
Banca
  • Anderson Vicoso de Araujo
  • Bruno Magalhaes Nogueira
  • Edson Norberto Caceres
  • Liana Dessandre Duenha Garanhani
Resumo Um curso de ensino superior é orientado pelo Projeto Pedagógico do Curso (PPC), que orienta a formação esperada para o egresso do curso, tanto no aspecto profissional quanto humanístico, de acordo com as diretrizes curriculares nacionais vigentes. Para avaliar os cursos de graduação e as instituições de ensino superior, o Ministério da Educação (MEC) utiliza alguns indicadores de qualidade, como o Exame Nacional de Desempenho dos Estudantes (Enade), sendo uma avaliação aplicada a cada três anos aos estudantes egressos de cada curso, que visa avaliar a qualidade do ensino de graduação no país por meio da atribuição de um conceito a cada curso avaliado. Tal conceito e os demais relatórios de avaliação resultantes do Enade auxiliam os gestores das instituições de ensino superior, coordenadores de curso e professores atuarem para a melhoria de seus projetos pedagógicos, infraestrutura física, recursos humanos e demais aspectos que impactem na formação do aluno. Este trabalho propõe uma análise dos projetos pedagógicos de cursos utilizando aprendizado de máquina, para auxiliar na compreensão de como o seu conteúdo impacta na avaliação dos cursos, mais especificamente, nos conceitos Enade Faixa e Enade Contínuo dos cursos. A análise foi aplicada sobre projetos pedagógicos dos cursos de Ciência da Computação e Sistemas de Informação, porém a metodologia é aplicável para outros cursos, medi- ante replicação do método sobre novos dados de treinamento. Os resultados experimentais demonstraram que é possível predizer o Conceito Enade Faixa com acurácia de ≈ 80% e o Conceito Enade Contínuo com erro percentual absoluto médio de ≈ 11%.
Download
Exploração do Espaço de Projetos de Sistemas Heterogêneos Aplicada ao Problema de Alocação de Recursos em Nuvem
Curso Mestrado em Ciência da Computação
Tipo Dissertação
Data 01/07/2022
Área CIÊNCIA DA COMPUTAÇÃO
Orientador(es)
  • Ricardo Ribeiro dos Santos
Orientando(s)
  • Danillo Christi Almeida Arigoni
Banca
  • César Augusto Fonticielha De Rose
  • Liana Dessandre Duenha Garanhani
  • Renato Porfirio Ishii
  • Ricardo Ribeiro dos Santos
Resumo Os serviços de computação em nuvem oferecem uma gama de recursos computacionais disponíveis sob demanda. Contudo, encontrar a melhor configuração de recursos que reduza custos e atenda as exigências do usuário tornou-se um grande desafio. Este desafio compartilha características essenciais com um problema da área de arquitetura de computadores, a exploração de espaço de projetos - Design Space Exploration (DSE). Em DSE, o foco é escolher, dentre uma grande quantidade de soluções arquiteturais, qual a mais indicada para uma determinada demanda, buscando atender objetivos e cumprindo as restrições de projeto. Diante disso, este trabalho propõe a aplicação de técnicas de exploração de espaço de projeto como potencial solução para o problema de alocação de recursos em nuvem. Este trabalho projetou e desenvolveu a ferramenta MultiExplorer-VM, uma extensão da ferramenta de DSE MultiExplorer. Essa extensão possui um fluxo de execução adaptado para a resolução do problema de alocação de recursos em nuvem, utilizando e adaptando algoritmos e técnicas de exploração de espaço de projeto.
Experimentos foram realizados visando a validação estatística e comparação com outro trabalho existente na literatura da área que utiliza a técnica Paramount Interation (PI). Os resultados mostram que MultiExplorer-VM possibilita alcançar configurações de recursos com melhorias significativas em relação a técnica de PI. Seguindo as restrições de um modelo de otimização, para algumas aplicações, as soluções obtidas por MultiExplorer-VM são similares às configurações ótimas obtidas por uma ferramenta de busca exaustiva de soluções aplicada ao mesmo problema.
Download
Exploração do Espaço de Projetos de Sistemas GP-GPU ciente de Dark Silicon
Curso Mestrado em Ciência da Computação
Tipo Dissertação
Data 30/06/2022
Área CIÊNCIA DA COMPUTAÇÃO
Orientador(es)
  • Liana Dessandre Duenha Garanhani
Orientando(s)
  • Rhayssa de Almeida Sonohata
Banca
  • Eraldo Luis Rezende Fernandes
  • Jonathan de Andrade Silva
  • Liana Dessandre Duenha Garanhani
  • Ricardo Ribeiro dos Santos
Resumo O alto potencial de paralelismo e de largura de banda oferecidos pelas GPUs, aliados à popularização das linguagens de programação CUDA e OpenCL, fizeram com que as unidades de processamento gráfico fossem utilizadas em aplicações distintas daquelas para as quais foram originalmente criadas, consolidando, assim, o conceito de GP-GPU ou Unidades de Processamento Gráfico para computação de propósito geral. A partir do crescente uso de sistemas que unem CPUs e GPUs para processamento de forma colaborativa, foram desenvolvidas ferramentas para explorar o desempenho e o consumo dos diversos parâmetros arquiteturais dos projetos de computação heterogênea. Entretanto, essas ferramentas são escassas, limitadas, computacionalmente custo-
sas e precisam de parâmetros arquiteturais de difícil obtenção. Isso posto, este trabalho propõe o desenvolvimento e avaliação de modelos de predição de desempenho de sistemas heterogêneos GP-GPU usando técnicas de aprendizado de máquina, com objetivo de alcançar alta acurácia e substituir o custoso processo de simulação. Tais preditores foram validados a partir da integração a uma ferramenta de exploração de espaço de projeto ciente de dark-silicon,denominada MultiExplorer, que realiza a avaliação de alternativas arquiteturais para um projeto-base, buscando alcançar objetivos pré-estabelecidos como maximização de desempenho e minimização de área em dark-silicon, obedecendo restrições de área e consumo energético. Dependendo do espaço de projeto, tal ferramenta avalia centenas de milhares de alternativas arquiteturais e, portanto, os preditores de desempenho com baixo custo computacional e acurácia são essenciais.
Medianas em genômica comparativa
Curso Mestrado em Ciência da Computação
Tipo Dissertação
Data 27/05/2022
Área CIÊNCIA DA COMPUTAÇÃO
Orientador(es)
  • Fabio Henrique Viduani Martinez
Orientando(s)
  • Helmuth Ossinaga Martines da Silva
Banca
  • Carlos Henrique Aguena Higa
  • Diego Padilha Rubert
  • Fabio Henrique Viduani Martinez
  • Francisco Eloi Soares de Araujo
  • José Coelho de Pina Junior
  • Marco Aurelio Stefanes
Resumo A inferência de genomas ancestrais é uma tarefa clássica em genômica comparativa. Aqui, estudamos o problema da mediana de genomas tal que, dado um conjunto de três ou mais genomas, queremos encontrar um novo genoma que minimize a soma das distâncias par a par entre esse e os genomas dados. A distância representa a quantidade de evolução observada no nível do genoma, para a qual determinamos o número mínimo de operações de rearranjos necessárias para transformar um genoma em outro. Para quase todas as operações de rearranjo conhecidas, o problema da mediana é NP-difícil, com exceção da operação single-cut-or-join (SCJ) que pode ser resolvido eficientemente para genomas multicromossomais circulares e mistos. Neste projeto, estudamos o problema da mediana sob uma medida de rearranjo restrita chamada distância-c4, que é estreitamente relacionada à distância SCJ e à DCJ (double-cut-and-join). Identificamos limitantes precisos e decomposers da mediana-c4 e implementamos algoritmos para a sua construção, dois algoritmo exatos baseados em PLI (Programação Linear Inteira) e três heurísticas combinatórias. Posteriormente, realizamos experimentos com conjunto de dados simulados. Nossos resultados sugerem que a distância-c4 é útil para estudo do problema da mediana de genomas, de perspectiva teórica e prática.
Predição de nível de rios da Região Hidrográfica do Rio Paraguai utilizando algoritmos de Aprendizado de Máquina
Curso Mestrado em Ciência da Computação
Tipo Dissertação
Data 25/02/2022
Área CIÊNCIA DA COMPUTAÇÃO
Orientador(es)
  • Renato Porfirio Ishii
Orientando(s)
  • Rogério Alves dos Santos Antoniassi
Banca
  • Bruno Magalhaes Nogueira
  • Carlos Roberto Padovani
  • Edson Takashi Matsubara
  • Omar Andres Carmona Cortes
  • Renato Porfirio Ishii
Resumo O Pantanal faz parte da Região Hidrográfica do Rio Paraguai (RH-Paraguai) e possui, como característica, a inundação de uma parcela de sua área em determinadas épocas do ano. Essa inundação gera uma série de problemas socioeconômicos à população que vive em seu entorno. Problemas estes que podem ser mitigados quando há previsão de sua ocorrência com antecedência. Nesse sentido, este trabalho investiga a aplicação de técnicas de Aprendizado de Máquina (AM) para a predição de níveis dos rios da RH-Paraguai, utilizando dados diários de estações a montante para previsão do nível de estações a jusante. Nessa perspectiva, a modelagem com técnicas de AM demonstra-se eficaz nas predições, na medida que trabalhos similares aparecem na literatura correlata. Dessa maneira, é utilizada uma fonte de dados com valores de níveis diários, sendo selecionada uma amostra de três estações. Em seguida, foi retirada a defasagem do tempo entre o pico de cheia de uma estação e outra, pesquisados os hiperparâmetros ideais para as redes Long Short Term Memory (LSTM), Gated Recurrent Unit (GRU) e Bidirectional Long Short Term Memory (BiLSTM) e submetidos ao processo de treinamento. Posteriormente, foram selecionados os modelos de melhores resultados de cada algoritmo, os quais foram comparados com a técnica de Regressão utilizada atualmente. Os resultados mostram que os três modelos testados podem ser utilizados para a tarefa de predição, em que, os três apresentam melhorias em relação ao modelo atual. O modelo com o algoritmo GRU se destacou por apresentar as menores taxas de erro e por ser 23,84% mais preciso que o modelo de Regressão, já LSTM e BiLSTM são, respectivamente, 18,09% e 19,16% mais precisos que o modelo de Regressão. Os modelos de LSTM e BiLSTM se aproximam mais do valor real nos picos de níveis máximos e mínimos, quando comparados ao de Regressão e ao GRU.
Download
Problema de roteamento em anéis de dois níveis
Curso Mestrado em Ciência da Computação
Tipo Dissertação
Data 16/12/2021
Área CIÊNCIA DA COMPUTAÇÃO
Orientador(es)
  • Edna Ayako Hoshino
Orientando(s)
  • Cecília Lescano Osório
Banca
  • Edna Ayako Hoshino
  • Fabio Henrique Viduani Martinez
  • Fábio Luiz Usberti
  • Francisco Eloi Soares de Araujo
  • Henrique Mongelli
  • Vagner Pedrotti
Resumo Nesta dissertação de mestrado estudamos o problema do roteamento em anéis de dois níveis, que consiste em, dado um grafo e custos associados às arestas, projetar uma rede hierárquica em dois níveis em que ambos os níveis são anéis. Apresentamos um modelo em programação linear inteira para o problema e propomos um algoritmo exato branch-and-price para resolvê-lo. Uma vez que o modelo proposto faz uso de um número exponencial de variáveis, utilizamos o método da geração de colunas para resolver a relaxação linear do modelo. Propomos também uma relaxação para a geração de colunas e heurísticas para melhorar o desempenho do algoritmo proposto.
Download
PUL-SSC: Aprendizado baseado em umaúnica classe com agrupamentosemissupervisionado
Curso Mestrado em Ciência da Computação
Tipo Dissertação
Data 02/09/2021
Área CIÊNCIA DA COMPUTAÇÃO
Orientador(es)
  • Bruno Magalhaes Nogueira
Orientando(s)
  • Shih Ting Ju
Banca
  • Bruno Magalhaes Nogueira
  • Diego Furtado Silva
  • Edson Takashi Matsubara
  • Rafael Geraldeli Rossi
  • Ricardo Marcondes Marcacini
  • Solange Oliveira Rezende
Resumo A grande quantidade de dados disponíveis atualmente é uma fonte de extração de informações para fins comerciais e acadêmicos. Uma abordagem para extrair conhecimento em bases de dados que ganhou destaque é a classificação de uma única classe (em inglês, One-class Classification - OCC). O uso de OCC para classificar se um exemplo é de uma classe específica é apropriado em conjuntos de dados em que as classes são desbalanceadas ou apenas os dados da classe de interesse estão presentes durante o treinamento. Vários algoritmos de OCC encontrados na literatura utilizam agrupamento não supervisionado para delimitar a fronteira da classe de interesse. Esses algoritmos conseguem ter resultados competitivos com aqueles apresentados por outros algoritmos de OCC. Embora o aprendizado semissupervisionado tenha mostrado a possibilidade de alcançar melhores resultados em várias áreas do que com o agrupamento semissupervisionado, o agrupamento semissupervisionado ainda é pouco explorado para OCC. Uma abordagem para OCC é o Positive and Unlabeled Learning (PUL), em que o aprendizado ocorre apenas com dados positivos (interesse) e não rotulados. Os algoritmos de PUL procuram encontrar uma delimitação da classe positiva. Este trabalho de mestrado propõe um novo algoritmo PUL-SSC (Positive and Unlabeled Learning with Semi-Supervised Clustering) que aprende a delimitar a classe de interesse através da criação e utilização de restrições must-link e cannot-link, agrupamento de dados com algoritmo semisupervisionado e um processo de aprendizado transdutivo para propagação de rótulos. Foram explorados dois algoritmos de agrupamento semissupervisionados amplamente usados: PCKMeans e MPCK-Means. Na avaliação experimental, os algoritmos semissupervisionados superaram o algoritmo baseado em k-Means e o SVM de uma classe (OC-SVM) na maioria dos cenários. Em particular, o algoritmo baseado em distância MPCK-Means foi dominante na maioria das comparações usando conjuntos de dados numéricos e textuais.
Download
Página 1 de 11 (20 de 203 registros).