Investigando Racismo Algorítmico na Detecção de Discurso de Ódio no Português do Brasil |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
05/09/2025 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
|
Coorientador(es) |
|
Orientando(s) |
- CÁSSIA CLAUDIANE SILVA DA ROSA
|
Banca |
- Fabio Henrique Viduani Martinez
- Francisco Eloi Soares de Araujo
- Luciano Jose Senger
- Renato Porfirio Ishii
- Rodrigo Calvo
|
Resumo |
|
Download |
|
|
Normalização Adaptativa e Aprendizado Híbrido: Técnicas de Adaptação de Domínio para Análise de Vegetação Transgeográfica |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
04/09/2025 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
- Jonathan de Andrade Silva
|
Coorientador(es) |
|
Orientando(s) |
|
Banca |
- Cesar Ivan Alvarez
- Edson Takashi Matsubara
- Jonathan de Andrade Silva
- Ricardo Marcondes Marcacini
- Wesley Nunes Goncalves
|
Resumo |
|
Download |
|
|
A Fast and Scalable Feedback-Driven Scheduler for Datacenter Applications |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
27/08/2025 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
|
Coorientador(es) |
- FABRICIO BARBOSA DE CARVALHO
|
Orientando(s) |
|
Banca |
- Carlos Alberto da Silva
- FABRICIO BARBOSA DE CARVALHO
- LUCIANO PASCHOAL GASPARY
- Nahri Balesdent Moreano
- Ronaldo Alves Ferreira
|
Resumo |
|
Download |
|
|
Lidando com alucinações: Estratégias de mitigação para modelos de linguagem de grande escala |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
20/08/2025 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
|
Coorientador(es) |
|
Orientando(s) |
- Salef Gabriel Gamberini Silva
|
Banca |
- Bruno Magalhaes Nogueira
- Dionisio Machado Leite Filho
- Luciano Jose Senger
- Renato Porfirio Ishii
- Rodrigo Calvo
|
Resumo |
|
Download |
|
|
“Morte de Ecossistemas de Software: pontos de referências de sinais viatais" |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
30/07/2025 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
|
Coorientador(es) |
|
Orientando(s) |
- FELIPE DE SOUZA SOUPINSKI
|
Banca |
- Awdren de Lima Fontao
- Bruno Barbieri de Pontes Cafeo
- Debora Maria Barroso Paiva
- Hudson Silva Borges
- Maria Istela Cagnin Machado
|
Resumo |
|
Download |
|
|
Traçado de raios para superfícies de Bézier em GPU |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
12/03/2025 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
|
Coorientador(es) |
|
Orientando(s) |
- Felipe Machado da Silva Fujiki
|
Banca |
- Jonathan de Andrade Silva
- Marcio Artacho Peres
- Paulo Aristarco Pagliosa
- Renato Porfirio Ishii
|
Resumo |
Superfícies paramétricas são representações de superfícies que utilizam funções de base paramétricas para interpolar sobre um conjunto pré-determinado de pontos no espaço, chamados de pontos de controle. Objetos tridimensionais com silhueta curva e cantos arredondados são representados com maior fidelidade por essas superfícies quando comparados à tradicional malha de triângulos. Portanto, elas são amplamente utilizadas em design assistido por computador (CAD) e na indústria de animação cinematográfica. Recentemente, elas têm sido alvos de estudos no contexto de análise isogeométrica. Dada a importância de visualizar estas representações, este trabalho estuda utilizar o algoritmo de traçado de raios para sintetizar imagens de cenas contendo objetos compostos por superfícies de Bézier, também chamados de retalhos de Bézier, um tipo clássico de superfície paramétrica. Visto que é possível extrair retalhos de Bézier a partir de superfícies como NURBS, T-Spline e superfícies de subdivisão Catmull-Clark utilizando um operador de extração de Bézier definido por uma matriz, o traçado de raios de retalhos de Bézier pode ser estendido para traçar também tais superfícies. O traçado de raios foi implementado em GPU, mais especificamente em CUDA, a fim de utilizar a grande quantidade de núcleos disponibilizados pela placa de vídeo para paralelizar o algoritmo, e em CPU, para fins de comparação. Adaptações para executar o programa em GPU foram descritas, incluindo a travessia da estrutura de aceleração sem pilha. Dois métodos para intersecção entre um raio de luz e um retalho de Bézier foram implementados: subdivisão recursiva e recorte de Bézier. Testes de desempenho mostraram que o traçado de raios em GPU com o método de recorte de Bézier para intersecção raio/retalho foi ao menos oito vezes mais rápido que em CPU. |
Download |
|
|
Um Método de Refinamento Local de T-splines Conformes para Análise |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
12/03/2025 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
|
Coorientador(es) |
|
Orientando(s) |
- Gabriel Carvalho Sanches Rocha
|
Banca |
- Alexandre Soares da Silva
- Jonathan de Andrade Silva
- Paulo Aristarco Pagliosa
- Renato Porfirio Ishii
|
Resumo |
No contexto de simulação computacional de problemas físicos, a análise isogeométrica (IGA) de um sólido é aquela em que o modelo de análise tem a mesma ordem de continuidade do modelo geométrico do sólido. A representação geométrica mais utilizada na literatura de IGA é baseada em retalhos de superfícies NURBS (non-uniform rational B-splines), visto ser essa a forma de representação mais comumente empregada na indústria de desenho e manufatura assistida por computador (CAD/CAM). Uma superfície NURBS, e, em IGA, o modelo de análise dela derivado, tem sua geometria definida por funções de interpolação racionais que atuam em uma malha estruturada de pontos de controle. Uma alternativa recentemente adotada em softwares de CAD/CAM são T-splines. Estas generalizam superfícies NURBS admitindo formação de superfícies herméticas com malhas de pontos de controle não estruturadas e com junções em T, chamadas T-malhas. Em adição, permitem refinamento local, resultante da adição de vértices e arestas e da subdivisão de faces de uma T-malha.
Embora diversos trabalhos atestem a viabilidade de T-splines em IGA, ainda existem limitações quanto às características das T-splines utilizadas. Essas restrições motivam a definição de um subconjunto de T-splines ditas conformes para análise. Neste trabalho, exploram-se métodos de refinamento de T-splines conformes para análise sob malhas não estruturadas. Para tanto, emprega-se uma estrutura de dados hierárquica para representação computacional de T-malhas, chamada HBDS (handle-body data structure). Os objetivos desse trabalho incluem desenvolver uma aplicação gráfica interativa capaz de apresentar T-splines, manipular seus elementos topológicos, refinar sua T-malha e prescrever arestas de vinco, além de permitir montagem flexível de cenas, com T-splines geradas pela aplicação desenvolvida, ou importação de malhas prontas de terceiros. |
Download |
|
|
Uso de LLMs no apoio à geração de strings de busca para o desenvolvimento de Estudos Secundários |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
07/03/2025 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
|
Coorientador(es) |
|
Orientando(s) |
- MARIA LUÍSA DE BARROS COSTA SILVA
|
Banca |
- Bruno Magalhaes Nogueira
- Edson Takashi Matsubara
- Jonathan de Andrade Silva
- Mariana Caravanti de Souza
|
Resumo |
Estudos Secundários (ESs) são uma metodologia amplamente utilizada no meio científico da Engenharia de Software, desde a introdução do conceito de Engenharia de Software Baseada em Evidências. ESs possuem por objetivo coletar todas as informações disponíveis sobre um conceito ou fenômeno. Uma das etapas necessárias para o desenvolvimento de ESs é a definição e execução da estratégia de busca. A busca automatizada é uma das principais estratégias utilizadas no contexto de busca por estudos acadêmicos, e para realizá-la, o processo de geração e refinamento de strings de busca que irão ser aplicadas nas bibliotecas digitais é executado. Nos últimos anos, o
domínio de tecnologia textual sofreu expressiva evolução com o avanço dos modelos de linguagem, sobretudo a partir dos Large language models (LLMs), que por meio da arquitetura transformers e uma grande gama de parâmetros,
comportam alto desempenho semântico em conjunto a uma baixa complexidade de utilização. Baseando-se na dificuldade de construção de strings de busca, neste trabalho é proposta a criação da SeSGx-LLM. SeSGx-LLM é uma extensão do trabalho de Alves et al. (2022), responsável pela criação da Search String Generator (SeSG). A versão proposta neste trabalho possui como objetivo integrar LLMs ao framework da SeSG. Em conclusão, foi possível observar que LLMs podem contribuir beneficamente no processo de geração de sinônimos que irão compor as strings, sendo o Mistral 7B o modelo mais consistente testado. Em complemento, foi possível observar que o LDA obteve desempenho superior no processo de extração de palavras-chaves. |
Download |
|
|
Caracterização e Detecção de Sequestros de Prefixo na Internet |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
07/02/2025 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
|
Coorientador(es) |
|
Orientando(s) |
- Adriano Bastos de Carvalho
|
Banca |
- Carlos Alberto da Silva
- Fabrício Sérgio de Paula
- Pedro de Botelho Marcos
- Ronaldo Alves Ferreira
|
Resumo |
O protocolo de roteamento BGP (Border Gateway Protocol) não possui mecanismos nativos de segurança, permitindo que atores maliciosos manipulem os anúncios de rota ou anunciem prefixos que não lhe pertencem. Quando um sistema autônomo (AS – Autonomous System) anuncia um prefixo que não lhe pertence, ocorre um sequestro de prefixo, o que pode deixar o AS legítimo inacessível, desviar o tráfego para roubo de informações ou permitir a utilização indevida dos endereços sequestrados (e.g., para envio de spam). Alguns trabalhos propõem soluções para esse problema, como RPKI, BGPSec e ASPA, mas essas soluções ainda não foram amplamente implementadas para eliminar o problema.
A primeira parte deste trabalho utiliza um conjunto extensivo de simulações, com dados reais, para caracterizar a vulnerabilidade a sequestros de prefixo de 29 redes militares, revelando que redes mais conectadas e com vizinhos distribuídos geograficamente são menos afetadas. O estudo realizado também discute possibilidades para tornar os sistemas de roteamento dessas redes mais robusto.
Trabalhos recentes utilizam aprendizado de máquina para identificar esses sequestros, mas os modelos são complexos e do tipo caixa-preta, tornando inviável determinar se utilizam as features mais adequadas. A segunda parte deste trabalho aplica técnicas de Inteligência Artificial Explicável (XAI) para avaliar e melhorar um modelo de detecção de sequestros de prefixo proposto recentemente. A partir de uma análise do modelo original com 28 features, foram criados dois modelos reduzidos com 11 e 5 features, que produzem resultados sem diferenças estatísticas do modelo completo, mas reduzem o tempo de processamento em mais de 31% (9 min por dia) e o espaço de armazenamento total necessário em mais de 36% (970 MB em 160 dias). Quando os resultados obtidos pelos modelos reduzidos com base em novos enlaces identificados são avaliados, o modelo de 5 features se mostrou mais preciso em 0,1152 em relação ao modelo original, demonstrando a importância da correta seleção de features. Analisando os sequestros simulados de redes militares, até 77% dos ataques podem passar despercebidos, mesmo com a melhor ferramenta disponível para detectar sequestros com origem forjada. Além da redução de features, duas abordagens que buscam melhorar o modelo também são apresentadas, uma verificando o impacto no modelo caso seja possível a obtenção de novas informações para incrementar os valores obtidos para uma das features de bidirecionalidade e outra verificando o resultado do modelo com uma nova amostragem para o treinamento. A primeira abordagem resultou em aumento no F1-score para ambas as classes e a segunda em aumento no MCC (Matthews Correlation Coefficient) do modelo de -0,0530 para 0,3165. |
Download |
|
|
ResGhostU-Net: U-Net compacta para segmentação de eucalipto em imagens multiespectrais da Sentinel-2 |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
31/01/2025 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
- Jonathan de Andrade Silva
|
Coorientador(es) |
|
Orientando(s) |
|
Banca |
- Jonathan de Andrade Silva
- Jose Marcato Junior
- Wesley Nunes Goncalves
|
Resumo |
O mapeamento do eucalipto utilizando imagens de sensoriamento remoto pode ser um processo impreciso e trabalhoso, especialmente quando se considera a análise multitemporal de imagens em larga escala. Para tentar resolver este problema, novas abordagens de aprendizado de máquina foram propostas. Neste trabalho, propomos uma U-Net modificada compacta (ResGhostUNet) para a tarefa de segmentação semântica de eucalipto utilizando imagens do satélite Sentinel-2. Além da arquitetura simplificada que possui número reduzido de filtros e convoluções de profundidade e downsampling, introduzimos o Bloco Residual Fantasma, que permite reduzir o custo computacional e aumentar a eficiência do treinamento. Este estudo utiliza um novo conjunto de dados que contém imagens de plantações de eucalipto em diferentes cidades do bioma Cerrado brasileiro. Os resultados quantitativos e qualitativos demonstram que o método proposto é altamente competitivo em relação aos métodos populares de segmentação semântica. O estudo de ablação destaca a eficácia do componente proposto do método. Além disso, demonstra que a utilização de pelo menos quatro bandas selecionadas produz resultados ligeiramente melhores em comparação com a utilização de todas as 13 bandas. O método proposto supera consistentemente os métodos populares de segmentação semântica, sendo mais simples em termos de design, leve em termos de parâmetros e rápido em termos de processamento. Devido a estas características, a ResGhostU-Net é potencialmente aplicável para mapeamento de eucalipto em grande escala usando imagens de satélite de acesso aberto. |
Download |
|
|
SeSGx-BT: Modelagem de Tópicos utilizando Transformers aplicada em Estudos Secundários |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
01/08/2024 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
|
Coorientador(es) |
|
Orientando(s) |
- DEMETRIUS MOREIRA PANOVITCH
|
Banca |
- Bruno Magalhaes Nogueira
- Edson Takashi Matsubara
- Ricardo Marcondes Marcacini
|
Resumo |
Estudos secundários agregam literatura relevante à algum tema para avaliá-los, fornecer uma visão geral, interpretá-los, entre outros fins. No entanto, seu desenvolvimento tem um custo elevado em termos de tempo e recurso, além de estar sujeito ao viés do pesquisador em algumas etapas, como na identificação de estudos primários. Isso pode comprometer a qualidade e acurácia da revisão. Neste trabalho, é proposta uma abordagem automatizada para uma das etapas principais de um estudo secundário: formulação e refinamento de strings de busca. A abordagem, chamada SeSGx-BT, utiliza de um algoritmo baseado em aprendizado profundo, chamado BERTopic, para modelagem de tópicos em um conjunto de estudos utilizado como um Quasi-Gold Standard. Os tópicos são utilizados para construir strings de busca para serem aplicadas em uma estratégia de busca híbrida, que inclui as estratégias de busca em bases e snowballing. Os resultados mostraram que a SeSGx-BT é capaz de encontrar um alto número de estudos relevantes, e um baixo número de estudos irrelevantes em ambientes de busca híbrida, resultando numa maior revocação e precisão, respectivamente, quando comparada à SeSGx-LDA, uma abordagem similar que utiliza o LDA para extração de tópicos. Esses resultados sugerem que abordagens baseadas em aprendizado profundo podem capturar tópicos com maior semântica, minimizando o esforço humano na etapa de identificação de estudos primários. Com base nas métricas de precisão e revocação obtidas a partir de experimentos executados com 10 bases de dados, a SeSGx-BT se apresenta como uma solução promissora para a automação da formulação e refinamento de strings de busca para estudos secundários, obtendo um aumento de até 270% na precisão, e de até 20% na revocação. |
|
Abordagem baseada em Cenários para Extração de Requisitos de Interoperabilidade de Sistemas-de-Sistemas a partir de Processos-de-Processos de Negócio |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
30/04/2024 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
- Maria Istela Cagnin Machado
|
Coorientador(es) |
|
Orientando(s) |
- Murilo Gustavo Nabarrete Costa
|
Banca |
- Awdren de Lima Fontao
- Marcelo Fantinato
- Maria Istela Cagnin Machado
- Valdemar Vicente Graciano Neto
|
Resumo |
Contexto: A partir da concepção de novas alianças de organizações que podem ocorrer por meio de parcerias, fusões ou aquisições, é visto um desafio para integrar os processos de negócios de suas organizações-membro com a finalidade de alcançar os objetivos de negócios mais amplos que antes não poderiam ser viabilizados. Essa integração resulta na criação de novos processos de negócio complexos e dinâmicos, conhecidos como Processos-de-Processos de Negócio (PoP). Geralmente, esses processos são automatizados por sistemas de software distintos, que, durante o processo de integração, passam a interoperar entre si para executar funcionalidades mais amplas do que aquelas que poderiam ser executadas por um único sistema de software, resultando assim, na formação de Sistemas-de-Sistemas (SoS). Problema: O domínio de SoS apresenta novos desafios para a extração de requisitos, de modo especial, requisitos de interoperabilidade devido às características destes tipos de sistema, como independência gerencial e operacional, bem como a sua arquitetura dinâmica. Os requisitos de interoperabilidade são fundamentais para garantir uma comunicação adequada entre os sistemas constituintes que compõem o SoS. No entanto, os trabalhos encontrados na literatura geralmente fornecem soluções para a extração de requisitos de interoperabilidade em fases mais avançadas do ciclo de vida do SoS, como a fase de projeto arquitetural. Esses trabalhos também tendem a não considerar as informações contidas em nível de negócio como fonte de informação para a extração dos requisitos, uma vez que são essenciais para uma compreensão adequada da interoperabilidade e para garantir alinhamento com o nível técnico. Objetivo: A principal contribuição deste trabalho de mestrado é propor uma abordagem baseada em cenários na notação BPMN (Business Process Model and Notation) para a extração sistemática de requisitos de interoperabilidade. Modelos que representam PoP foram utilizados como fonte de informação. A abordagem inclui um metamodelo, que contém classes para representar a interoperabilidade entre os processos de negócio do PoP utilizando elementos da notação BPMN, e um conjunto de diretrizes para a extração sistemática e automatizada de requisitos de interoperabilidade com base em classes desse metamodelo. Método de pesquisa: O trabalho foi conduzido utilizando o método de pesquisa Design Science Research, resultando na produção dos seguintes artefatos: seis cenários abstratos, uma variante dos cenários abstratos, um metamodelo e um conjunto de diretrizes para extração de requisitos de interoperabilidade de SoS. Resultado: Abordagem automatizada para a extração e especificação de requisitos de interoperabilidade durante a Engenharia de Requisitos de SoS. Essa abordagem utiliza modelos do PoP em conformidade com cenários abstratos de interoperabilidade definidos neste trabalho que visam mitigar os desafios existentes ao realizar o tratamento adequado do dinamismo da interoperabilidade entre os processos do PoP e, consequentemente, entre os constituintes do SoS. Com isso, a abordagem garante alinhamento entre os níveis de negócio e técnico, contribuindo diretamente para o alcance de seus objetivos estratégicos de negócio. |
Download |
|
|
Abordagem baseada em Cenários para Extrair Requisitos de Tolerância a Falhas de Sistemas-de-Sistemas a partir de Processos-de-Processos de Negócio |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
29/04/2024 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
- Maria Istela Cagnin Machado
|
Coorientador(es) |
|
Orientando(s) |
- Sidny de Almeida Molina Pereira
|
Banca |
- Debora Maria Barroso Paiva
- Elisa Yumi Nakagawa
- Maria Istela Cagnin Machado
- Rodrigo Pereira dos Santos
|
Resumo |
Contexto: Sistemas-de-Sistemas (do inglês, Systems-of-Systems ou SoS) se referem a um agrupamento de sistemas de software, denominados sistemas constituintes, de diversas organizações que têm seus processos de negócios específicos. Quando esses processos são reunidos para alcançar objetivos estratégicos de alianças de organizações (tais como parcerias, fusões ou aquisições de empresas), surgem processos de negócios complexos e dinâmicos que são normalmente automatizados por SoS e são denominados Processos-de-Processos de Negócio (do inglês, Processes-of-Business Processes ou PoP). Sob essa perspectiva, para alcançar os objetivos estratégicos das alianças, os sistemas constituintes interoperam entre eles para obter comportamentos não fornecidos por um único sistema de software. Problema: Falhas podem ocorrer durante essa interoperabilidade afetando o funcionamento e a confiabilidade do SoS como um todo. Apesar da importância dos requisitos de tolerância a falhas para a estabilidade do SoS, eles ainda não são muito explorados na literatura. Os trabalhos existentes geralmente consideram esses requisitos apenas durante o design arquitetural, negligenciando a importância do tratamento de requisitos ao longo de todo o ciclo de vida do SoS, bem como o alinhamento entre os níveis técnico e de negócio. Objetivo: Este trabalho de mestrado visa definir uma abordagem baseada em cenários na notação BPMN (Business Process Model and Notation) para extrair sistematicamente requisitos de tolerância a falhas de SoS, relacionados a problemas de comunicação entre sistemas constituintes, a partir de informação útil de PoP. Essa abordagem consiste de um metamodelo baseado em elementos de tratamento de exceções da notação BPMN, comumente utilizados para representar falhas de comunicação entre processos de negócio de alianças de organizações, e de um conjunto de diretrizes de extração automática de requisitos de tolerância a falhas de SoS baseadas em elementos desse metamodelo. Os elementos de tratamento de exceções desse metamodelo foram identificados a partir da análise de cenários abstratos de tratamento de exceção de envio e de recebimento de mensagens, que foram construídos com base no conhecimento adquirido a partir da modelagem de cinco cenários concretos de PoP reais de quatro domínios distintos (ou seja, educacional, agronegócio, emergência e saúde hospitalar). Método de pesquisa: O trabalho foi desenvolvido com base no método de pesquisa Design Science Research, obtendo-se os seguintes artefatos: dois cenários abstratos, um metamodelo e um conjunto de diretrizes de extração de requisitos de tolerância a falhas de SoS. Resultado: O trabalho apoia especialmente as etapas de extração e especificação de requisitos de tolerância a falhas durante a Engenharia de Requisitos de SoS, a partir de informações obtidas em modelos de PoP. Com isso, é possível alcançar alinhamento entre os níveis técnico e de negócio sob a perspectiva de tolerância a falhas durante a comunicação entre os constituintes, podendo favorecer a competitividade e lucratividade de alianças de organizações. |
Download |
|
|
Classificação da Disponibilidade de Vagas de Estacionamento Usando Aprendizagem Profunda |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
25/03/2024 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
|
Coorientador(es) |
|
Orientando(s) |
|
Banca |
- Jose Marcato Junior
- Patrik Ola Bressan
- Wesley Nunes Goncalves
|
Resumo |
A emissão proveniente de veículos automotores é uma das mais consideráveis para poluição atmosférica. Neste contexto, conhecer a disponibilidade de vagas de estacionamento desempenha um papel importante para redução da poluição do ar, pois o tempo de busca é menor. Além disso, esses sistemas podem contribuir para a melhoria da eficiência do tráfego, pois evitam que os motoristas circulem sem necessidade em busca de uma vaga. Entretanto, a automatização dessa tarefa apresenta desafios, principalmente relacionados com a captura da imagem com diferentes iluminações, estações climáticas e visão obstruída. Este trabalho tem como objetivo avaliar métodos recentes de aprendizagem profunda para classificação de vagas de estacionamento disponíveis a partir de imagens. Os resultados mostraram destaque para o Res2Net, com acurácia superior a 99% nos experimentos com o dataset público (CNR-Park+EXT) e 100% para o dataset construído (UFMS-Park). |
Download |
|
|
Detecção de Desmatamento no Estado de Mato Grosso do Sul utilizando Segmentação Semântica em imagens bi-temporais dos satélites Landsat 8 e Sentinel 2 |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
29/02/2024 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
|
Coorientador(es) |
|
Orientando(s) |
- Paulo Augusto Arantes Vilela
|
Banca |
- Anderson Bessa da Costa
- Edson Takashi Matsubara
- Jose Marcato Junior
|
Resumo |
A supressão da vegetação nativa sem autorização no Estado de Mato Grosso do Sul tem ameaçado a conservação dos biomas locais como o Cerrado e a Mata Atlântica. Neste contexto, é relevante salientar que a Constituição Brasileira de 1988 fixou como dever do Estado e da Coletividade a defesa do meio ambiente, atribuindo ao Ministério Público funções de atuação para a proteção ambiental. A exemplo, o Ministério Público do Estado de Mato Grosso do Sul, por meio do Programa DNA Ambiental, têm monitorado e identificado pontos de desmatamento sem autorização ambiental, em seu Núcleo de Geotecnologias (NUGEO), promovendo ações e providências para a punição e reparação de eventuais danos causados. Atualmente, este mapeamento tem sido realizado através da análise visual, não automatizada, de imagens de diversos satélites, especialmente dos satélites Landsat-8 e Sentinel-2, demandando consideráveis horas de trabalho e mão de obra especializada. Entretanto, com a evolução de técnicas de Deep Learning, novos algoritmos podem ser capazes de automatizar o processo de análise multitemporal de imagens de satélites, promovendo agilidade, ganho de eficiência e possibilitando a alocação de recursos humanos para outros serviços. Este trabalho tem por objetivo apresentar uma proposta de automatização do processo de identificação de desmatamentos utilizando as redes neurais profundas DeepLabv3+, U-Net e Multi-Scale Attention for Semantic Segmentation, para segmentação semântica em imagens bi-temporais de satélite, disponibilizando um modelo de inteligência artificial treinado, com a capacidade de mapear áreas desmatadas em qualquer cena dos biomas Cerrado e Mata Atlântica. Para tanto, buscou-se um conjunto de dados apropriado para essa finalidade. O primeiro dataset foi gerado a partir de arquivo shapefile com polígonos de áreas desmatadas pré-determinadas, associado ao recorte manual de duas cenas do satélite Landasat-8, resultando em um conjunto de dados com poucas amostras e muito ruído. O segundo dataset foi obtido a partir de um novo arquivo shapefile de desmatamentos e cenas do satélite Sentinel-2, cujo download e recortes foram realizados de forma automatizada utilizando-se um framework desenvolvido com APIs e infraestrutura em nuvem do projeto Planetary Computer, associadas a aplicação de uma curadoria especializada, produzindo um conjunto com maior número de amostras e ruído reduzido, com o qual obteve-se os melhores resultados nos treinamentos preliminares utilizando-se a rede neural U-net, adotada como baseline, sendo então escolhido para o treinamento das demais redes neurais artificiais avaliadas neste estudo. Ainda, foi realizado experimento para mitigar o problema do balanceamento dos dados, empregando-se diferentes funções de perda. Assim sendo, as principais contribuições desta dissertação são: (1) um conjunto de dados de desmatamento público rotulado e com curadoria; (2) uma avaliação experimental usando as redes neurais U-Net, DeepLabv3+ e Multi-Scale Attention para segmentação semântica em imagens bi-temporais do satélite Sentinel 2; e (3) uma avaliação experimental das funções de perda Binary-Cross-Entropy, Weighted Binary-Cross-Entropy e Focal Loss. Os resultados mais favoráveis foram obtidos com a arquitetura Multi-Scale Attention for Semantic Segmentation, com a função de perda Weighted Binary Cross-Entropy. Por fim, esse modelo foi disponibilizado ao MPMS, que procederá a sua implantação e implementação de procedimentos para validação dos resultados, bem como aprimoramento da amostra e evolução do modelo. |
|
Uma Ferramenta para Ensino e Aprendizado de Exploração de Espaço de Projeto de Arquiteturas de Processadores na Era de Dark-Silicon |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
15/12/2023 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
- Liana Dessandre Duenha Garanhani
|
Coorientador(es) |
|
Orientando(s) |
|
Banca |
- Amaury Antonio de Castro Junior
- Awdren de Lima Fontao
- Liana Dessandre Duenha Garanhani
- Ricardo Ribeiro dos Santos
|
Resumo |
A exploração de espaço de projeto é uma atividade útil em diversos contextos de engenharia, e especificamente considerada crucial para o projeto de MPSoCs, usualmente empregados em dispositivos eletrônicos portáteis e sistemas embarcados. Portanto, o tópico é relevante para a formação dos futuros profissionais da indústria brasileira de microeletrônicos. O MultiExplorer é uma ferramenta inicialmente proposta para auxiliar a pesquisa no campo de exploração de espaço de projeto de arquiteturas de processadores na era de dark-silicon. Uma série de estudos foram publicados em periódicos científicos e conferências internacionais, utilizando o MultiExplorer em uma gama de aplicações, desde a mitigação de dark-silicon em arquiteturas multi-núcleo, exploração de espaço de projeto com arquiteturas heterogêneas baseadas em utilização de unidades de processamento gráfico para computação de propósito geral (GPGPU), até alocação de recursos de computação em nuvem. Entretanto, a despeito de sua relevância para o desenvolvimento industrial, e das recomendações curriculares da ACM (Association for Computing Machinery), o tópico de exploração de espaço de projeto não parece ser abordado com frequência nos programas de graduação em Engenharia de Computação e Ciência da Computação no Brasil. Dado o contexto, este trabalho tem como objetivo fomentar a abordagem do tópico a nível de graduação a partir da disponibilização de uma versão aberta da ferramenta MultiExplorer
que permita a exposição do tópico em um nível de abstração acessível para os alunos. O trabalho resultou no amadurecimento da arquitetura de software da ferramenta, abertura do código-fonte, estabelecimento de uma interface gráfica para melhor interação dos alunos com a ferramenta. Um estudo de caso avaliou o uso da ferramenta para aprendizado na graduação, por meio de um minicurso, e o prospecto foi positivo. |
Download |
|
|
Um modelo baseado em habilidades para formação de profissionais de DevRel |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
15/09/2023 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
|
Coorientador(es) |
|
Orientando(s) |
|
Banca |
- Awdren de Lima Fontao
- Bruno Barbieri de Pontes Cafeo
- Davi Viana dos Santos
- Rodrigo Pereira dos Santos
|
Resumo |
Developer Relations (DevRel, em português, Relações com desenvolvedores) é uma área organizacional responsável por manter a sinergia entre comunidades de desenvolvedores e organizações. Essa área é presente em empresas como Amazon, Apple, Google e Microsoft, como uma estratégia de governança de desenvolvedo- res em ecossistemas de Software (ECOS). A falta de clareza quanto à natureza e conjunto de habilidades necessárias para um profissional DevRel pode impactar negativamente no desempenho das atividades relacionadas ao profissional e, conse- quentemente, na saúde do ECOS. Tanto a indústria como a academia trouxeram definições sobre DevRel. Contudo, não há estudos suficientes para consolidar um modelo de formação para DevRel. Neste sentido, a proposta deste trabalho de mes- trado é estabelecer um modelo envolvendo um conjunto de passos, dimensões, pa- péis e habilidades para a formação de profissionais de DevRel que seja entendível, compreensível e ajustável para que qualquer pessoa ou organização seja capaz de desenvolver as habilidades inerentes à profissão. |
Download |
|
|
A Multi-Faceted Analysis of How Organizations Create and Maintain Code Samples |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
15/09/2023 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
- Bruno Barbieri de Pontes Cafeo
|
Coorientador(es) |
|
Orientando(s) |
- Matheus Albuquerque de Melo
|
Banca |
- Awdren de Lima Fontao
- Bruno Barbieri de Pontes Cafeo
- Elder José Reioli Cirilo
- Hudson Silva Borges
- Maria Istela Cagnin Machado
|
Resumo |
Code samples, como artefatos presentes no contexto dos ecossistemas de software, a qual tem a função de auxiliar os desenvolvedores, exemplificando o uso de APIs, bibliotecas e outros recursos começaram a ser explorados na literatura recentemente, por volta de 2019. Estudos propuseram a compreender as características estruturais do código desses artefatos, bem como como eles passam por manutenções e evoluem ao longo do tempo. Em 2020, também houve exploração do público-alvo que consome este artefato por meio de perguntas no StackOverflow. Este presente estudo foi dividido em duas partes. Na primeira, investigamos repositórios de code samples no GitHub e analisamos como as organizações lidam com as contribuições de desenvolvedores externos dentro desse ambiente. Na segunda parte, realizamos uma pesquisa com desenvolvedores que produzem code samples dentro das organizações. Isso nos permitiu compreender melhor a visão e as perspectivas deles em relação aos code samples, além de analisar suas experiências com code samples e a dedicação a esses artefatos. As propostas de ambas as partes do estudo não haviam sido exploradas anteriormente no contexto de code samples. Nossas descobertas revelaram alguns pontos como a demora na revisão de pull requests, especialmente os que foram rejeitados, e gargalos na distribuição das atividades de revisão entre os mantenedores. Essas constatações resultaram em uma publicação. Além disso, descobrimos que os objetivos dos code samples vão além dos propósitos educacionais, conforme sugerido pelos desenvolvedores das organizações. Também identificamos que desenvolvedores experientes estão envolvidos no desenvolvimento de code samples nas organizações, dedicando geralmente algumas horas mensais ou semanais para essa atividade. Por fim, notamos a presença de problemas de divergência de opiniões entre os desenvolvedores das organizações, em relação ao público-alvo dos code samples, ao processo de desenvolvimento e à garantia da qualidade desses artefatos. |
|
Problema da coloração de vértices com pesos dissonantes e restrições de cores |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
21/08/2023 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
|
Coorientador(es) |
|
Orientando(s) |
- Edison Gabriel Gonçalves Borghezan
|
Banca |
- Diego Padilha Rubert
- Edna Ayako Hoshino
- Fabio Henrique Viduani Martinez
- Francisco Eloi Soares de Araujo
- Henrique Mongelli
|
Resumo |
O problema de coloração de vértices com pesos dissonantes e restrições de cores é uma generalização do problema de coloração de vértices e vários outros
problemas de coloração podem ser reduzidos a ele. Neste trabalho é proposta uma variação do problema de coloração de vértices, e também três modelos
matemáticos utilizando programação linear inteira, um modelo cujo número de variáveis e restrições é polinomial, um segundo, no qual o número de variáveis é exponencial em relação ao número de restrições e um terceiro modelo bastante semelhante ao segundo mas que aproveita-se de uma propriedade que permite algumas cores serem aglutinadas almejando uma execução mais rápida. Para os modelos estendidos, são propostos algoritmos de geração de colunas para lidar com o número exponencial de variáveis do problema, assim como heurísticas, tanto para gerar novas colunas quanto para encontrar soluções inteiras em cada nó da árvore de enumeração para acelerar o desempenho de um algoritmo exato de branch-and-price. Um conjunto de instâncias foi proposto e foi possível identificar características das instâncias difíceis para este problema. |
|
Segmentação de Documentos Jurídicos usando Supervisão Fraca |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
22/03/2023 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
- Eraldo Luis Rezende Fernandes
|
Coorientador(es) |
|
Orientando(s) |
|
Banca |
- Bruno Magalhaes Nogueira
- Edson Takashi Matsubara
- Eraldo Luis Rezende Fernandes
- Leandro Guimarães Marques Alvim
- Valeria Quadros dos Reis
|
Resumo |
Milhões de processos estão em tramitação no sistema judiciário brasileiro.
Os acórdãos são decisões colegiadas de tribunais brasileiros e, por conta disto,
são fundamentais na uniformização do entendimento entre os magistrados e entre diferentes tribunais.
Portanto, desenvolver e implementar soluções tecnológicas eficazes para auxiliar
juízes,
desembargadores e
outros profissionais envolvidos no processo judicial
a lidar com o crescente volume de processos judiciais no Brasil.
Essas soluções devem ser capazes de acelerar a tomada de decisões e reduzir a carga de trabalho,
garantindo a eficiência do sistema judiciário e a satisfação dos cidadãos que dependem dele.
Os acórdãos dos tribunais brasileiros estão disponíveis publicamente,
entretanto, como estes documentos não estão em formato estruturado,
o processamento automático deles é dificultado.
Um dos primeiros passos para o processamento de acórdãos é
a segmentação destes documentos que são compostos por diversas seções com diferentes informações sobre a decisão.
Neste trabalho, foram coletados mais de 960 mil
documentos contendo o inteiro teor de acórdãos de cinco tribunais de diferentes esferas do judiciário brasileiro.
Estes documentos estão em formato PDF e foram coletados nos portais de busca dos tribunais.
Após a coleta, o conteúdo textual e características de layout de 624.161 acórdãos
foram extraídos utilizando diferentes ferramentas.
Adicionalmente, um método de segmentação automática foi desenvolvido para cada tribunal
e todos os documentos foram segmentados em cinco seções obrigatórias em acórdãos de tribunais brasileiros.
A segmentação de 100 documentos de cada tribunal (500 no total) foi manualmente revisada
para servirem como validação e teste de modelos de Aprendizado de Máquina (AM).
Modelos de AM clássicos e baseados em aprendizado profundo foram avaliados utilizando estes datasets.
Todos os modelos foram treinados usando os dados anotados automaticamente (supervisão fraca).
Diversos experimentos foram realizados para avaliar diferentes aspectos do problema de segmentação de acórdãos.
Particularmente, um aspecto analisado foi a capacidade de generalização dos modelos para tribunais não vistos no treinamento.
Outro aspecto considerado nos experimentos foi o impacto de características de layout dos documentos em alguns modelos de AM.
Mais especificamente, foram analisados modelos baseados em aprendizado profundo,
propostos recentemente na literatura,
que consideram como entrada tanto o conteúdo textual quanto algumas características de layout.
Modelos de segmentação com incorporação de layout alcançam, em alguns casos,
desempenho superior aos métodos desenvolvidos especificamente para um tribunal.
Modelos que são treinados e testados no mesmo tribunal também tendem a apresentar um desempenho comparável
ou até superior aos métodos de anotação automática.
No entanto, quando se trata de modelos treinados em um tribunal e testados em outro,
o desempenho depende da correlação encontrada entre eles.
Em alguns casos, a perda de desempenho é substancial.
Neste trabalho, são disponibilizados diversos recursos que podem ser usados em trabalhos futuros.
Todos os documentos coletados em formato PDF,
assim como os correspondentes arquivos TSV e JSON com as anotações automáticas,
estão disponíveis livremente.
Também estão disponíveis os scripts de segmentação automática,
assim como os scripts usados para treinamento e avaliação de modelos.
Por fim, também estão disponíveis as anotações revisadas manualmente de 500 documentos (100 de cada tribunal). |
Download |
|
|