| Identificação Automática de Vulnerabilidades em Serviço de Armazenamento na Nuvem |
|
| Curso |
Mestrado em Ciência da Computação |
| Tipo |
Dissertação |
| Data |
06/02/2026 |
| Área |
CIÊNCIA DA COMPUTAÇÃO |
| Orientador(es) |
|
| Coorientador(es) |
|
| Orientando(s) |
- Milton Gabriel Porto Bazé
|
| Banca |
- Ana Karina Dourado Salina de Oliveira
- Carlos Alberto da Silva
- Lourenço Alves Pereira Junior
- Ronaldo Alves Ferreira
|
| Resumo |
A computação em nuvem tem experimentado um crescimento acelerado nas últimas décadas, consolidando-se como a principal plataforma para o armazenamento e processamento de dados em larga escala. Em particular, os serviços de armazenamento de objetos baseados em buckets são amplamente utilizados por organizações de diferentes portes. Apesar de os provedores de nuvem oferecerem mecanismos avançados de segurança, falhas de configuração, especialmente relacionadas a permissões de acesso, continuam sendo uma das principais causas de exposição e de vazamento de dados sensíveis. A identificação sistemática dessas vulnerabilidades é desafiadora devido à escala dos ambientes de nuvem.
Este trabalho apresenta GenBucket, uma ferramenta modular e automatizada para identificar vulnerabilidades em serviços de armazenamento em nuvem, com foco em buckets mal configurados. A proposta combina modelos generativos modernos para a geração inteligente de nomes candidatos de buckets, mecanismos de validação baseados em DNS e HTTP e módulos de classificação e análise de segurança capazes de identificar exposições indevidas e vulnerabilidades reais em buckets públicos. GenBucket suporta múltiplas arquiteturas generativas, incluindo LSTM, Transformer e modelos baseados em GPT, e permite o uso de conjuntos de treinamento customizáveis, possibilitando a captura de padrões linguísticos específicos, como os presentes em nomes de buckets.
A ferramenta implementa um pipeline completo que integra geração, validação, classificação e análise de riscos, superando as limitações de abordagens anteriores que dependem de listas de palavras estáticas ou que apresentam baixo grau de automação. Avaliações experimentais extensivas demonstram que o uso de dados de treinamento validados e de modelos generativos modernos resulta em taxas de acerto significativamente superiores ao estado da arte. Em particular, GenBucket alcançou até 21,73% de geração de nomes válidos, um desempenho mais de dez vezes superior ao reportado por trabalhos anteriores, além de identificar dezenas de buckets públicos com vulnerabilidades de segurança.
Os resultados obtidos evidenciam o potencial de GenBucket como uma ferramenta eficaz para auditoria automatizada de ambientes de armazenamento em nuvem, contribuindo para a detecção proativa de falhas de configuração e para o fortalecimento das práticas de segurança em infraestruturas em nuvem. |
| Download |
|
|
| Controle de Semáforos para Veículos de Emergência |
|
| Curso |
Doutorado em Ciência da Computação |
| Tipo |
Tese |
| Data |
19/12/2025 |
| Área |
CIÊNCIA DA COMPUTAÇÃO |
| Orientador(es) |
|
| Coorientador(es) |
|
| Orientando(s) |
- Rodrigo Gonçalves de Branco
|
| Banca |
- Edson Norberto Caceres
- Edson Takashi Matsubara
- Liana Dessandre Duenha Garanhani
- Nalvo Franco de Almeida Junior
- Ricardo Ribeiro dos Santos
- Rodolfo Jardim de Azevedo
- Ronaldo Alves Ferreira
- Wellington Santos Martins
|
| Resumo |
O alto volume de veículos em grandes áreas metropolitanas cria desafios para os serviços de emergência, como bombeiros e paramédicos, pois atrasa os veículos de emergência (EVs) devido ao congestionamento no trânsito. Uma abordagem padrão para reduzir o congestionamento é a preempção de semáforos nas rotas dos EVs. Neste contexto, propomos um sistema inovador de controle de semáforos para veículos de emergência utilizando um middleware de cidade inteligente que centraliza informações e gerencia os semáforos ao longo de toda a rota do EV. Nossa principal contribuição é o projeto e a avaliação de um algoritmo de preempção eficiente para reduzir os atrasos dos EVs durante emergências. O algoritmo utiliza uma Rede de Petri Temporizada (Timed Petri Net) para coordenar eventos concorrentes, evitando assim ações simultâneas nos semáforos ao longo da rota do EV. Complementarmente, o tempo necessário para a dissipação da fila de veículos é calculado com base no princípio da onda de choque, permitindo uma estimativa precisa da liberação da via. Simulações extensivas em cenários reais e sintéticos demonstram que nossa solução reduz os atrasos dos EVs e supera o desempenho de três algoritmos concorrentes. |
| Download |
|
|
| Identificação Automática de Áreas de Cana-de-Açúcar e Árvores Isoladas Utilizando Segmentação Semântica |
|
| Curso |
Mestrado em Ciência da Computação |
| Tipo |
Dissertação |
| Data |
24/11/2025 |
| Área |
CIÊNCIA DA COMPUTAÇÃO |
| Orientador(es) |
|
| Coorientador(es) |
|
| Orientando(s) |
- THIAGO EDGAR BAUCE VENANCIO
|
| Banca |
- Edson Takashi Matsubara
- Jonathan de Andrade Silva
- Jose Marcato Junior
- LUCAS CORREIA RIBAS
- Wesley Nunes Goncalves
|
| Resumo |
A segmentação manual de ortofotos tem limitações como alto custo, baixa escalabilidade e suscetibilidade a erros. A tarefa de segmentação semântica é fundamental para o monitoramento agrícola, mas enfrenta desafios como o desequilíbrio de classes. O objetivo central deste trabalho é investigar metodologias de segmentação semântica para a identificação automática de áreas de cana-de-açúcar e o mapeamento de árvores isoladas em ortofotos. Uma das contribuições mais importantes foi a avaliação comparativa de modelos do estado da arte, como o SegFormer e o InternImage, em relação a arquiteturas convolucionais mais radicionais e amplamente utilizadas, como a U-Net e a DeepLabV3+. Essa análise forneceu um panorama abrangente do desempenho de diferentes abordagens na segmentação de imagens agrícolas. Além disso, o estudo aprofundou-se no impacto do desequilíbrio de classes, um desafio técnico significativo em domínios agrícolas. Para mitigar esse problema, foram propostas e investigadas estratégias de pré-processamento, como a amostragem focada em classes (Crop-Focused) e a amostragem por zona de
borda (Boundary-Zone). A pesquisa também incluiu uma análise do efeito do tamanho dos patches na performance da segmentação, abordando a relação de compromisso entre a captura de contexto global e a preservação de detalhes locais. Com isso, foi possível demonstrar a viabilidade da automação de mapeamentos essenciais, como a identificação de áreas de plantio e árvores isoladas, o que evidencia ganhos diretos em eficiência produtiva e redução de custos operacionais. Essas contribuições, em conjunto, validam a capacidade de soluções de segmentação semântica para o monitoramento automatizado, oferecendo um caminho para a implementação de práticas agrícolas mais eficientes e sustentáveis. |
| Download |
|
|
| Towards Improving the LGBTQIAPN+ Developer Experience (DevX) in the Software Engineering Industry |
|
| Curso |
Mestrado em Ciência da Computação |
| Tipo |
Dissertação |
| Data |
13/10/2025 |
| Área |
CIÊNCIA DA COMPUTAÇÃO |
| Orientador(es) |
|
| Coorientador(es) |
|
| Orientando(s) |
- EDVALDO ROBERTO WASSOUF JUNIOR
|
| Banca |
- Awdren de Lima Fontao
- Debora Maria Barroso Paiva
- Hudson Silva Borges
- Kiev Santos da Gama
- Maria Istela Cagnin Machado
|
| Resumo |
Pesquisas recentes destacam o crescente estudo de populações ocultas na engenharia de software e das dinâmicas que afetam a produtividade e a experiência (Developer Experience) desses grupos. Portanto, identificar fatores que afetam a DX de profissionais LGBTQIAPN+ torna-se essencial para traçar caminhos que visem mitigar desafios e fornecer soluções que integrem, facilitem e direcionem ambientes sustentáveis de engenharia de software para essa população de desenvolvedores.
Esta pesquisa buscou compreender o estado da arte sobre a experiência de desenvolvedores LGBTQIAPN+, capturando elementos tanto da literatura clássica e formal quanto da literatura cinzenta. Além disso, dois estudos primários foram conduzidos: um survey direcionado a profissionais LGBTQIAPN+ e, posteriormente, uma combinação de survey e entrevistas em vídeo. Esse desenho metodológico permite a coleta de evidências que apoiam a construção de um modelo de DX para profissionais LGBTQIAPN+ baseado na experiência prática desses profissionais, a fim de orientar a indústria ágil de tecnologia na recepção, integração e retenção desses profissionais engajados.
Assim, os achados desta pesquisa incluem: ambientes menos estruturados, com equipes imaturas e poucos processos, comuns em empresas pequenas, são mais propensos a episódios de preconceito e dificuldades de integração. Por outro lado, ambientes com processos estruturados e equipes mais desenvolvidas, como os de grandes empresas, oferecem uma experiência diferenciada, mas não isenta de episódios de viés ou preconceito de gênero.
Entre as diretrizes apresentadas no modelo proposto nesta pesquisa estão: ouvir os profissionais, acolhê-los diante de episódios de preconceito e respeitar identidades de gênero e pronomes. Além disso, cerimônias ágeis podem respeitar os processos e desafios enfrentados por esses profissionais, promovendo o desenvolvimento de um ambiente de colaboração e engajamento. |
| Download |
|
|
| Avanços no cálculo da distância Double Cut and Join com regiões intergênicas para genomas reais |
|
| Curso |
Mestrado em Ciência da Computação |
| Tipo |
Dissertação |
| Data |
17/09/2025 |
| Área |
CIÊNCIA DA COMPUTAÇÃO |
| Orientador(es) |
- Fabio Henrique Viduani Martinez
|
| Coorientador(es) |
|
| Orientando(s) |
- VICTOR HUGO BAGORDAKIS DA ROCHA
|
| Banca |
- Diego Padilha Rubert
- Fabio Henrique Viduani Martinez
- Francisco Eloi Soares de Araujo
- Luis Antonio Brasil Kowada
- Zanoni Dias
|
| Resumo |
O problema da distância {double cut and join} (DCJ) tem sido amplamente estudado nos últimos anos, resultando no desenvolvimento de diversos algoritmos para suas diferentes variações. Apesar disso, ainda existem poucos estudos sobre o problema da distância DCJ para genomas com genes duplicados e regiões intergênicas. Os tamanhos dos genomas e as desigualdades nos comprimentos das regiões intergênicas desempenham um papel importante no tempo de execução dos algoritmos, porém, a influência desses aspectos costuma receber pouca atenção em estudos anteriores. Neste trabalho, estabelecemos uma definição formal para o problema da distância DCJ considerando regiões intergênicas e genes duplicados, e propomos diferentes estratégias para encontrar uma aproximação para esse problema, através do uso de algoritmos exatos e de aproximação. Os métodos propostos oferecem ganhos em qualidade e eficiência em comparação com os já existentes, superando limitações de métodos atuais relacionadas ao número de genes e às desigualdades nas regiões intergênicas. |
| Download |
|
|
| Investigando Racismo Algorítmico na Detecção de Discurso de Ódio no Português do Brasil |
|
| Curso |
Mestrado em Ciência da Computação |
| Tipo |
Dissertação |
| Data |
05/09/2025 |
| Área |
CIÊNCIA DA COMPUTAÇÃO |
| Orientador(es) |
|
| Coorientador(es) |
|
| Orientando(s) |
- CÁSSIA CLAUDIANE SILVA DA ROSA
|
| Banca |
- Fabio Henrique Viduani Martinez
- Francisco Eloi Soares de Araujo
- Luciano Jose Senger
- Renato Porfirio Ishii
- Rodrigo Calvo
|
| Resumo |
O tema viés algorítmico tem recebido crescente notoriedade nos últimos anos, devido aos impactos causados por sistemas de Inteligência Artificial (IA) em grupos sociais historicamente discriminados [5] [6] [7]. Os modelos para detecção de discurso de ódio são uma opção viável para identificar conteúdos indesejados em redes sociais, como Instagram, X e Threads. Durante o processo de construção de conjuntos de dados, estas plataformas são usadas como fonte de dados para coletada de publicações, que serão usadas no treinamento de modelos para classificação de discurso de ódio ou linguagem ofensiva. No entanto, em diversos estágios do ciclo de desenvolvimento de um modelo, pode ocorrer a aquisição de discriminação algorítmica. Nesse sentido, este trabalho realiza a investigação de racismo algorítmico em bases de dados e classificadores de discurso de ódio, na língua portuguesa do Brasil. Os modelos de Regressão Logística (RL), Multilayer Perceptron (MLP), BERTimbaubase e Tucano-1b1 foram treinados com as bases de dados OFFCOMBR-2, HateBR e TuPy-E, para a classificação de discurso de ódio e, após isso, uma metodologia para investigação de racismo algorítmico foi proposta com base na predição de discurso de ódio sobre a base de dados BR-RAPData, construída neste trabalho, via coleta de músicas de RAP brasileiras. Como resultado, pelo menos um modelo treinado com as respectivas bases de dados: OFFCOMBR-2, HateBR ou TuPy-E, obteve valores para métrica F1 acima de 70%, sendo estes, resultados substanciais. No entanto, analises sobre as proporções da classe de discurso de ódio, preditas sobre a base de dados BR-RAPData, mostraram que, em alguns casos, mais de 50% da base de dados de RAP fora rotulada como discurso de ódio pelos classificadores. |
| Download |
|
|
| Normalização Adaptativa e Aprendizado Híbrido: Técnicas de Adaptação de Domínio para Análise de Vegetação Transgeográfica |
|
| Curso |
Mestrado em Ciência da Computação |
| Tipo |
Dissertação |
| Data |
04/09/2025 |
| Área |
CIÊNCIA DA COMPUTAÇÃO |
| Orientador(es) |
- Jonathan de Andrade Silva
|
| Coorientador(es) |
|
| Orientando(s) |
|
| Banca |
- Cesar Ivan Alvarez
- Edson Takashi Matsubara
- Jonathan de Andrade Silva
- Ricardo Marcondes Marcacini
- Wesley Nunes Goncalves
|
| Resumo |
Esta pesquisa explora a capacidade de modelos de aprendizado de máquina (especificamente redes neurais profundas) de generalizar para diferentes contextos e domínios. Aborda a adaptação de domínio, ou seja, como garantir que um modelo treinado em um conjunto de dados específico possa funcionar bem em outro conjunto de dados com características diferentes. Isso é explorado de normalização adaptativa e aprendizado híbrido; para tanto, ocorre a investigação da adaptação de domínio por meio da avaliação do desempenho de modelos pré-treinados em diferentes conjuntos de dados de ecossistemas distintos. Para a análise de vegetação é abordada a aplicação de modelos de aprendizado profundo na observação de imagens de satélite/aéreas, o que é fundamental para a compreensão e monitoramento da vegetação em diferentes escalas. A importância da generalização se justifica pela capacidade do modelo de funcionar bem em diferentes contextos e domínios, fato crucial para a aplicação prática de modelos de aprendizado de máquina em áreas como planejamento ecológico e urbano, onde os dados podem variar significativamente de um local para outro. Foram utilizados dados de duas universidades latino-americanas com ecossistemas distintos: UCDB, no Brasil, e UPS, no Equador. Resultados preliminares indicam que, apesar de todos os modelos testados (FCN, DeepLabV3 e SegFormer) apresentarem bom desempenho, o FCN se destacou na generalização entre os conjuntos de dados, com altas métricas de F1-score, IoU e precisão. O estudo aponta para áreas de melhoria, como a adaptação da normalização, o aprimoramento da rede e o ajuste fino dos parâmetros. Futuramente, serão incorporadas mais classes de segmentação, dados LiDAR e conjuntos de dados de diferentes hemisférios para aprofundar a análise da generalização do modelo. Com isso, pretendemos propor técnicas para melhor adaptação de modelos de aprendizado profundo a diferentes domínios, por meio de segmentação semântica de imagens, uso de redes neurais profundas para a análise de imagens de vegetação e ecossistemas, redundando em aplicações diretas para a pesquisa em monitoramento ambiental, agricultura de precisão e planejamento urbano, por exemplo. |
| Download |
|
|
| A Fast and Scalable Feedback-Driven Scheduler for Datacenter Applications |
|
| Curso |
Mestrado em Ciência da Computação |
| Tipo |
Dissertação |
| Data |
27/08/2025 |
| Área |
CIÊNCIA DA COMPUTAÇÃO |
| Orientador(es) |
|
| Coorientador(es) |
- FABRICIO BARBOSA DE CARVALHO
|
| Orientando(s) |
|
| Banca |
- Carlos Alberto da Silva
- FABRICIO BARBOSA DE CARVALHO
- LUCIANO PASCHOAL GASPARY
- Nahri Balesdent Moreano
- Ronaldo Alves Ferreira
|
| Resumo |
Aplicações de centros de dados que operam na escala de microssegundos exigem garantias rigorosas de latência ao operar sob alta carga e tempos de serviço variáveis. Esse ambiente frequentemente envolve uma mistura de requisições extremamente curtas e longas, onde as curtas — que duram somente alguns microssegundos — são frequentemente atrasadas pelas mais longas devido ao bloqueio problema de Head-of-Line (HOL) blocking, resultando em maiores latências, especialmente na cauda da distribuição.
No entanto, abordagens existentes para mitigar o HOL blocking, como despacho centralizado, preempção de granularidade fina e reserva de recursos, enfrentam limitações fundamentais de escalabilidade.
Este trabalho apresenta Synergy, um sistema de escalonamento cooperativo e consciente da aplicação, que utiliza feedback direto das aplicações para priorizar requisições curtas, adapta dinamicamente os parâmetros de escalonamento e evita preempções desnecessárias. Synergy adota uma arquitetura descentralizada, com filas distribuídas, preempção sensível ao tipo de tarefa e ajuste dinâmico de quantum.
Ao eliminar a classificação centralizada e utilizar medições em tempo real das aplicações, Synergy mitiga de forma eficaz o HOL blocking sem comprometer a vazão. Synergy supera os sistemas mais avançados do estado da arte, alcançando até 43% mais vazão enquanto atende objetivos de nível de serviço em escala de microssegundos. |
| Download |
|
|
| Pedagogical And Accessibility Guidelines For Open Educational Resources Focused On Blind Students |
|
| Curso |
Doutorado em Ciência da Computação |
| Tipo |
Tese |
| Data |
21/08/2025 |
| Área |
CIÊNCIA DA COMPUTAÇÃO |
| Orientador(es) |
- Debora Maria Barroso Paiva
|
| Coorientador(es) |
- Maria Istela Cagnin Machado
|
| Orientando(s) |
- Michele dos Santos Soares
|
| Banca |
- Amaury Antonio de Castro Junior
- Awdren de Lima Fontao
- Debora Maria Barroso Paiva
- Ellen Francine Barbosa
- MARCELLE PEREIRA MOTA
- Marcelo Medeiros Eler
- Maria Istela Cagnin Machado
- Valter Vieira de Camargo
|
| Resumo |
Os Recursos Educacionais Abertos (REA) estão conquistando um espaço cada vez mais significativo, uma vez que proporcionam novas formas de aprendizagem, possibilitam trabalhar conteúdos de maneira interdisciplinar e permitem melhorar e adaptar conteúdos. Porém, nota-se que, embora os REA possam apoiar o processo de ensino-aprendizagem e beneficiar todas as partes do sistema educacional, os estudantes com deficiência ainda encontram muitos problemas de acessibilidade. Dessa forma, este trabalho tem como objetivo apresentar um conjunto de diretrizes pedagógicas e de acessibilidade para a construção de REA, com foco em estudantes cegos. Para o desenvolvimento dessas recomendações, foi utilizada uma metodologia que engloba as seguintes fases: exploratória, experimental, descritiva, correlação,
seleção, especificação, validação e refinamento. Dessa forma, as diretrizes foram criadas com base no levantamento bibliográfico e em respostas de um questionário submetido a estudantes cegos, em que foi possível detectar as principais barreiras de acessibilidade e descobrir as dificuldades que eles enfrentam. Em seguida, essas recomendações foram avaliadas por especialistas em acessibilidade e pedagogia e foi gerada uma nova versão de diretrizes. Por fim, essas diretrizes foram avaliadas pelos usuários finais (estudantes cegos e pedagogos) através de um estudo empírico. Essa avaliação foi planejada e melhorou significativamente a versão inicial das diretrizes. Os resultados mostraram um conjunto de diretrizes mais completo, evoluído e validado. Logo, as diretrizes atendem tanto as características pedagógicas quanto as de acessibilidade e são úteis para a construção de REA acessíveis. |
| Download |
|
|
| Análise Comparativa de Estratégias de Mitigação de Alucinações em Modelos de Linguagem de Grande Escala |
|
| Curso |
Mestrado em Ciência da Computação |
| Tipo |
Dissertação |
| Data |
20/08/2025 |
| Área |
CIÊNCIA DA COMPUTAÇÃO |
| Orientador(es) |
|
| Coorientador(es) |
|
| Orientando(s) |
- Salef Gabriel Gamberini Silva
|
| Banca |
- Bruno Magalhaes Nogueira
- Dionisio Machado Leite Filho
- Luciano Jose Senger
- Renato Porfirio Ishii
- Rodrigo Calvo
|
| Resumo |
Modelos de Linguagem de Grande Escala (LLMs) avançaram rapidamente, demonstrando capacidades notáveis em compreensão e geração de linguagem natural. Contudo, sua tendência a "alucinar" informações representa um desafio crítico para sua adoção profissional. Este trabalho investiga e separa métodos contemporâneos de mitigação de alucinações em LLMs por meio de uma revisão sistemática da literatura, classificando-os em categorias distintas. Com base na disponibilidade de código para replicação, quatro técnicas representativas (KCA, ICD, Wiki-Chat, RepE) foram selecionadas para uma análise empírica sobre uma base de modelo unificada, o Llama2 7b. As avaliações, utilizando benchmarks de perguntas e respostas e medidas de similaridade textual, revelaram um desempenho variável. KCA destacou-se em tarefas de perguntas e respostas, WikiChat obteve os melhores resultados em medidas de correspondência de tokens como ROUGE, e ICD demonstrou superioridade em precisão semântica. Conclui-se que a eficácia dos métodos de mitigação depende da tarefa e da medida de avaliação, sublinhando a ausência de uma solução universal e a importância de uma abordagem multifacetada. |
| Download |
|
|
| Do Macro ao Micro: Abordagens em Reconhecimento e Segmentação de Objetos em Imagens |
|
| Curso |
Doutorado em Ciência da Computação |
| Tipo |
Tese |
| Data |
01/08/2025 |
| Área |
CIÊNCIA DA COMPUTAÇÃO |
| Orientador(es) |
|
| Coorientador(es) |
|
| Orientando(s) |
|
| Banca |
- Celso Soares Costa
- Jonathan de Andrade Silva
- LUCAS CORREIA RIBAS
- Mauro dos Santos de Arruda
- Robson Soares Silva
- Wesley Nunes Goncalves
|
| Resumo |
Detectar objetos pequenos em imagens de alta resolução é um desafio relevante na visão computacional, especialmente em cenários agrícolas, nos quais o tamanho dos insetos tende a ocupar poucos pixels em relação à imagem inteira. Apesar dos avanços proporcionados pelas Convolutional Neural Networks (CNNs), o uso padrão dessas arquiteturas apresenta limitações, pois as informações associadas a objetos pequenos tendem a se perder devido às operações de downsampling e pooling. Considerando esse contexto, esta tese propõe estratégias para aprimorar a detecção e segmentação de objetos pequenos. Inicialmente, as imagens são divididas em recortes menores, e cada recorte é utilizado individualmente para treinar e validar os modelos. Para a inferência e predição no conjunto de teste, os recortes são sobrepostos, garantindo que, em pelo menos um deles, o objeto não seja recortado. Assim, para contornar o problema de objetos que acabam sendo divididos entre diferentes recortes, são apresentadas técnicas para filtrar predições fora do padrão, com baixa pontuação de confiança ou com regiões redundantes e sobrepostas. Para permitir que as técnicas também fossem aplicadas em abordagens de segmentação, foram geradas máscaras a partir das anotações originais, possibilitando a avaliação tanto de modelos detectores quanto segmentadores. Considerando as limitações da métrica tradicional de Intersection over Union (IoU) para objetos pequenos, especialmente devido à sensibilidade a pequenas imprecisões espaciais, esta tese também propõe uma métrica alternativa baseada na distância entre os centros das caixas delimitadoras. Os resultados experimentais demonstram que as abordagens propostas contribuem para a localização de objetos pequenos em imagens de alta resolução, mostrando que tanto técnicas de detecção quanto de segmentação podem ser eficazes, desde que os dados sejam processados adequadamente antes e depois de passarem pelo modelo. |
| Download |
|
|
| Morte de Ecossistemas de Software: causas, fases, estratégias e métricas |
|
| Curso |
Mestrado em Ciência da Computação |
| Tipo |
Dissertação |
| Data |
30/07/2025 |
| Área |
CIÊNCIA DA COMPUTAÇÃO |
| Orientador(es) |
|
| Coorientador(es) |
|
| Orientando(s) |
- FELIPE DE SOUZA SOUPINSKI
|
| Banca |
- Awdren de Lima Fontao
- Bruno Barbieri de Pontes Cafeo
- Debora Maria Barroso Paiva
- Hudson Silva Borges
- Maria Istela Cagnin Machado
|
| Resumo |
Os Ecossistemas de Software (ECOS) dependem de plataformas que servem
como ambientes para interação dos desenvolvedores. Quando a organização proprietária da plataforma não suporta a sinergia entre os objetivos organizacionais e as
expectativas dos desenvolvedores, o ECOS pode morrer. A morte resulta na suspensão definitiva de atividades vitais, impactando diretamente os desenvolvedores, que
perdem parte do aprendizado e da experiência adquirida. Projetos que dependem
da plataforma do ECOS poderão ser descontinuados. Em última análise, a organização responsável perde os recursos investidos no desenvolvimento e manutenção do
software e das comunidades. Assim, é importante compreender os sinais que podem
indicar a morte de um ECOS. Neste mestrado, discutimos o conhecimento existente
sobre a morte de ECOS e delineamos uma visão para complementar a pesquisa sobre
o tema. Nossa visão de longo prazo é estabelecer pontos de referência em relação às
causas, fases, estratégias e métricas em torno da morte de ECOS. Com base em um
mapeamento multivocal da literatura (18 estudos acadêmicos e 19 documentos da
indústria), foram identificadas cinco categorias principais de causas de morte: envelhecimento tecnológico, fatores sociais, falhas organizacionais, pressões competitivas
e insustentabilidade financeira. O processo de morte segue quatro fases distintas:
envelhecimento inicial, declínio manifesto, fase mórbida/crítica e fase terminal. A
triangulação metodológica resultou em um catálogo de 47 grupos de métricas organizadas em dimensões social, técnica e de negócios. Validação empírica com 24
especialistas estabeleceu hierarquia de priorização: Capital Humano (31,0%), Sustentabilidade (26,6%), Competitividade (24,4%) e Fundação Técnica (20,6%). As
métricas sociais predominaram (61,38% das seleções), com "Contributors and Active
Developers"emergindo como métrica prioritária universal (28,79% das seleções). A
pesquisa revelou consenso sobre métricas fundamentais e padrões de especialização
contextual, onde diferentes desafios organizacionais geram demandas específicas por
categorias de métricas, estabelecendo pontos de referência empiricamente validados
para monitoramento de sinais vitais de ECOS. |
| Download |
|
|
| Traçado de raios para superfícies de Bézier em GPU |
|
| Curso |
Mestrado em Ciência da Computação |
| Tipo |
Dissertação |
| Data |
12/03/2025 |
| Área |
CIÊNCIA DA COMPUTAÇÃO |
| Orientador(es) |
|
| Coorientador(es) |
|
| Orientando(s) |
- Felipe Machado da Silva Fujiki
|
| Banca |
- Jonathan de Andrade Silva
- Marcio Artacho Peres
- Paulo Aristarco Pagliosa
- Renato Porfirio Ishii
|
| Resumo |
Superfícies paramétricas são representações de superfícies que utilizam funções de base paramétricas para interpolar sobre um conjunto pré-determinado de pontos no espaço, chamados de pontos de controle. Objetos tridimensionais com silhueta curva e cantos arredondados são representados com maior fidelidade por essas superfícies quando comparados à tradicional malha de triângulos. Portanto, elas são amplamente utilizadas em design assistido por computador (CAD) e na indústria de animação cinematográfica. Recentemente, elas têm sido alvos de estudos no contexto de análise isogeométrica. Dada a importância de visualizar estas representações, este trabalho estuda utilizar o algoritmo de traçado de raios para sintetizar imagens de cenas contendo objetos compostos por superfícies de Bézier, também chamados de retalhos de Bézier, um tipo clássico de superfície paramétrica. Visto que é possível extrair retalhos de Bézier a partir de superfícies como NURBS, T-Spline e superfícies de subdivisão Catmull-Clark utilizando um operador de extração de Bézier definido por uma matriz, o traçado de raios de retalhos de Bézier pode ser estendido para traçar também tais superfícies. O traçado de raios foi implementado em GPU, mais especificamente em CUDA, a fim de utilizar a grande quantidade de núcleos disponibilizados pela placa de vídeo para paralelizar o algoritmo, e em CPU, para fins de comparação. Adaptações para executar o programa em GPU foram descritas, incluindo a travessia da estrutura de aceleração sem pilha. Dois métodos para intersecção entre um raio de luz e um retalho de Bézier foram implementados: subdivisão recursiva e recorte de Bézier. Testes de desempenho mostraram que o traçado de raios em GPU com o método de recorte de Bézier para intersecção raio/retalho foi ao menos oito vezes mais rápido que em CPU. |
| Download |
|
|
| Um Método de Refinamento Local de T-splines Conformes para Análise |
|
| Curso |
Mestrado em Ciência da Computação |
| Tipo |
Dissertação |
| Data |
12/03/2025 |
| Área |
CIÊNCIA DA COMPUTAÇÃO |
| Orientador(es) |
|
| Coorientador(es) |
|
| Orientando(s) |
- Gabriel Carvalho Sanches Rocha
|
| Banca |
- Alexandre Soares da Silva
- Jonathan de Andrade Silva
- Paulo Aristarco Pagliosa
- Renato Porfirio Ishii
|
| Resumo |
No contexto de simulação computacional de problemas físicos, a análise isogeométrica (IGA) de um sólido é aquela em que o modelo de análise tem a mesma ordem de continuidade do modelo geométrico do sólido. A representação geométrica mais utilizada na literatura de IGA é baseada em retalhos de superfícies NURBS (non-uniform rational B-splines), visto ser essa a forma de representação mais comumente empregada na indústria de desenho e manufatura assistida por computador (CAD/CAM). Uma superfície NURBS, e, em IGA, o modelo de análise dela derivado, tem sua geometria definida por funções de interpolação racionais que atuam em uma malha estruturada de pontos de controle. Uma alternativa recentemente adotada em softwares de CAD/CAM são T-splines. Estas generalizam superfícies NURBS admitindo formação de superfícies herméticas com malhas de pontos de controle não estruturadas e com junções em T, chamadas T-malhas. Em adição, permitem refinamento local, resultante da adição de vértices e arestas e da subdivisão de faces de uma T-malha.
Embora diversos trabalhos atestem a viabilidade de T-splines em IGA, ainda existem limitações quanto às características das T-splines utilizadas. Essas restrições motivam a definição de um subconjunto de T-splines ditas conformes para análise. Neste trabalho, exploram-se métodos de refinamento de T-splines conformes para análise sob malhas não estruturadas. Para tanto, emprega-se uma estrutura de dados hierárquica para representação computacional de T-malhas, chamada HBDS (handle-body data structure). Os objetivos desse trabalho incluem desenvolver uma aplicação gráfica interativa capaz de apresentar T-splines, manipular seus elementos topológicos, refinar sua T-malha e prescrever arestas de vinco, além de permitir montagem flexível de cenas, com T-splines geradas pela aplicação desenvolvida, ou importação de malhas prontas de terceiros. |
| Download |
|
|
| Uso de LLMs no apoio à geração de strings de busca para o desenvolvimento de Estudos Secundários |
|
| Curso |
Mestrado em Ciência da Computação |
| Tipo |
Dissertação |
| Data |
07/03/2025 |
| Área |
CIÊNCIA DA COMPUTAÇÃO |
| Orientador(es) |
|
| Coorientador(es) |
|
| Orientando(s) |
- MARIA LUÍSA DE BARROS COSTA SILVA
|
| Banca |
- Bruno Magalhaes Nogueira
- Edson Takashi Matsubara
- Jonathan de Andrade Silva
- Mariana Caravanti de Souza
|
| Resumo |
Estudos Secundários (ESs) são uma metodologia amplamente utilizada no meio científico da Engenharia de Software, desde a introdução do conceito de Engenharia de Software Baseada em Evidências. ESs possuem por objetivo coletar todas as informações disponíveis sobre um conceito ou fenômeno. Uma das etapas necessárias para o desenvolvimento de ESs é a definição e execução da estratégia de busca. A busca automatizada é uma das principais estratégias utilizadas no contexto de busca por estudos acadêmicos, e para realizá-la, o processo de geração e refinamento de strings de busca que irão ser aplicadas nas bibliotecas digitais é executado. Nos últimos anos, o
domínio de tecnologia textual sofreu expressiva evolução com o avanço dos modelos de linguagem, sobretudo a partir dos Large language models (LLMs), que por meio da arquitetura transformers e uma grande gama de parâmetros,
comportam alto desempenho semântico em conjunto a uma baixa complexidade de utilização. Baseando-se na dificuldade de construção de strings de busca, neste trabalho é proposta a criação da SeSGx-LLM. SeSGx-LLM é uma extensão do trabalho de Alves et al. (2022), responsável pela criação da Search String Generator (SeSG). A versão proposta neste trabalho possui como objetivo integrar LLMs ao framework da SeSG. Em conclusão, foi possível observar que LLMs podem contribuir beneficamente no processo de geração de sinônimos que irão compor as strings, sendo o Mistral 7B o modelo mais consistente testado. Em complemento, foi possível observar que o LDA obteve desempenho superior no processo de extração de palavras-chaves. |
| Download |
|
|
| Caracterização e Detecção de Sequestros de Prefixo na Internet |
|
| Curso |
Mestrado em Ciência da Computação |
| Tipo |
Dissertação |
| Data |
07/02/2025 |
| Área |
CIÊNCIA DA COMPUTAÇÃO |
| Orientador(es) |
|
| Coorientador(es) |
|
| Orientando(s) |
- Adriano Bastos de Carvalho
|
| Banca |
- Carlos Alberto da Silva
- Fabrício Sérgio de Paula
- Pedro de Botelho Marcos
- Ronaldo Alves Ferreira
|
| Resumo |
O protocolo de roteamento BGP (Border Gateway Protocol) não possui mecanismos nativos de segurança, permitindo que atores maliciosos manipulem os anúncios de rota ou anunciem prefixos que não lhe pertencem. Quando um sistema autônomo (AS – Autonomous System) anuncia um prefixo que não lhe pertence, ocorre um sequestro de prefixo, o que pode deixar o AS legítimo inacessível, desviar o tráfego para roubo de informações ou permitir a utilização indevida dos endereços sequestrados (e.g., para envio de spam). Alguns trabalhos propõem soluções para esse problema, como RPKI, BGPSec e ASPA, mas essas soluções ainda não foram amplamente implementadas para eliminar o problema.
A primeira parte deste trabalho utiliza um conjunto extensivo de simulações, com dados reais, para caracterizar a vulnerabilidade a sequestros de prefixo de 29 redes militares, revelando que redes mais conectadas e com vizinhos distribuídos geograficamente são menos afetadas. O estudo realizado também discute possibilidades para tornar os sistemas de roteamento dessas redes mais robusto.
Trabalhos recentes utilizam aprendizado de máquina para identificar esses sequestros, mas os modelos são complexos e do tipo caixa-preta, tornando inviável determinar se utilizam as features mais adequadas. A segunda parte deste trabalho aplica técnicas de Inteligência Artificial Explicável (XAI) para avaliar e melhorar um modelo de detecção de sequestros de prefixo proposto recentemente. A partir de uma análise do modelo original com 28 features, foram criados dois modelos reduzidos com 11 e 5 features, que produzem resultados sem diferenças estatísticas do modelo completo, mas reduzem o tempo de processamento em mais de 31% (9 min por dia) e o espaço de armazenamento total necessário em mais de 36% (970 MB em 160 dias). Quando os resultados obtidos pelos modelos reduzidos com base em novos enlaces identificados são avaliados, o modelo de 5 features se mostrou mais preciso em 0,1152 em relação ao modelo original, demonstrando a importância da correta seleção de features. Analisando os sequestros simulados de redes militares, até 77% dos ataques podem passar despercebidos, mesmo com a melhor ferramenta disponível para detectar sequestros com origem forjada. Além da redução de features, duas abordagens que buscam melhorar o modelo também são apresentadas, uma verificando o impacto no modelo caso seja possível a obtenção de novas informações para incrementar os valores obtidos para uma das features de bidirecionalidade e outra verificando o resultado do modelo com uma nova amostragem para o treinamento. A primeira abordagem resultou em aumento no F1-score para ambas as classes e a segunda em aumento no MCC (Matthews Correlation Coefficient) do modelo de -0,0530 para 0,3165. |
| Download |
|
|
| ResGhostU-Net: U-Net compacta para segmentação de eucalipto em imagens multiespectrais da Sentinel-2 |
|
| Curso |
Mestrado em Ciência da Computação |
| Tipo |
Dissertação |
| Data |
31/01/2025 |
| Área |
CIÊNCIA DA COMPUTAÇÃO |
| Orientador(es) |
- Jonathan de Andrade Silva
|
| Coorientador(es) |
|
| Orientando(s) |
|
| Banca |
- Jonathan de Andrade Silva
- Jose Marcato Junior
- Wesley Nunes Goncalves
|
| Resumo |
O mapeamento do eucalipto utilizando imagens de sensoriamento remoto pode ser um processo impreciso e trabalhoso, especialmente quando se considera a análise multitemporal de imagens em larga escala. Para tentar resolver este problema, novas abordagens de aprendizado de máquina foram propostas. Neste trabalho, propomos uma U-Net modificada compacta (ResGhostUNet) para a tarefa de segmentação semântica de eucalipto utilizando imagens do satélite Sentinel-2. Além da arquitetura simplificada que possui número reduzido de filtros e convoluções de profundidade e downsampling, introduzimos o Bloco Residual Fantasma, que permite reduzir o custo computacional e aumentar a eficiência do treinamento. Este estudo utiliza um novo conjunto de dados que contém imagens de plantações de eucalipto em diferentes cidades do bioma Cerrado brasileiro. Os resultados quantitativos e qualitativos demonstram que o método proposto é altamente competitivo em relação aos métodos populares de segmentação semântica. O estudo de ablação destaca a eficácia do componente proposto do método. Além disso, demonstra que a utilização de pelo menos quatro bandas selecionadas produz resultados ligeiramente melhores em comparação com a utilização de todas as 13 bandas. O método proposto supera consistentemente os métodos populares de segmentação semântica, sendo mais simples em termos de design, leve em termos de parâmetros e rápido em termos de processamento. Devido a estas características, a ResGhostU-Net é potencialmente aplicável para mapeamento de eucalipto em grande escala usando imagens de satélite de acesso aberto. |
| Download |
|
|
| Approximate Computing: Contributions to the Design of Arithmetic Circuits and Instruction-Set Architectures |
|
| Curso |
Doutorado em Ciência da Computação |
| Tipo |
Tese |
| Data |
20/12/2024 |
| Área |
CIÊNCIA DA COMPUTAÇÃO |
| Orientador(es) |
- Ricardo Ribeiro dos Santos
|
| Coorientador(es) |
|
| Orientando(s) |
|
| Banca |
- Edson Antonio Batista
- Liana Dessandre Duenha Garanhani
- Lucas Francisco Wanner
- RICARDO DOS SANTOS FERREIRA
- Ricardo Ribeiro dos Santos
|
| Resumo |
O crescimento da demanda por poder computacional, aliado às limitações do fim da escala de Dennard, desafiou os projetistas a encontrar soluções alternativas para manter o desempenho dentro dos limites de energia e custo. A computação aproximada (CA) emerge como uma abordagem promissora para equilibrar desempenho e eficiência energética em aplicações que toleram erros. No entanto, muitas técnicas de CA focam em problemas específicos ou exigem muita intervenção do programador. Este trabalho identificou lacunas que foram transformadas em oportunidades de pesquisa. Uma delas está relacionada aos circuitos aritméticos aproximados, que focam em operações de um único bit, limitando a análise do comportamento fisico, da precisão e do desempenho desses circuitos em plataformas reais com entradas e saídas maiores. Há também limitações na técnica de perfuração de loops, visto que uma vez que o grau de perfuração (pd) é estabelecido, as métricas do aplicativo melhorarão apenas ao custo da precisão. Ao adotar uma estratégia em que o pd possa usar recursos de hardware aproximado, esta limitação seria mitigada, além de obter uma maior flexibilidade sem forçar nenhuma etapa de compilação adicional. Há pouca exploração sobre o uso de instruções aproximadas, especialmente no contexto de operações de ponto flutuante, deixando uma lacuna de implementação, que poder ser resolvida com a introdução de um nível adicional de aproximação, substituindo instruções precisas (não aproximadas) por instruções aproximadas, oferecendo desta forma, uma técnica aproximada de nível de hardware sobre um código-fonte que já é (ou não) aproximado por uma técnica de nível de software. Desta forma, este trabalho tem por objetivo a exploração do espaço de projeto (DSE) em diferentes níveis de abstração, investigando o impacto da CA em circuitos aritméticos aproximados, instruções aproximadas e técnicas de perfuração de loops e de funções matemáticas aproximadas. Além disso, são projetadas extensões do conjunto de instruções da arquitetura RISC-V com suporte à CA. A integração de técnicas de CA foi realizada em plataformas amplamente utilizadas, como SPIKE e ACCEPT, para proporcionar uma infraestrutura flexível e eficiente no desenvolvimento de sistemas aproximados. Os resultados demonstram que a CA pode melhorar significativamente o desempenho e a eficiência energética, sem comprometer substancialmente a precisão dos sistemas. Este trabalho contribui com novas instruções aproximadas, circuitos aritméticos e um modelo energético para instruções aproximadas, além de explorar a viabilidade dessas técnicas em funções matemáticas e estruturas de controle (loop) em aplicações que exigem alto desempenho, mas que toleram erros controlados. |
| Download |
|
|
| Scaling Stateful Network Services on Multicore Architectures |
|
| Curso |
Doutorado em Ciência da Computação |
| Tipo |
Tese |
| Data |
07/11/2024 |
| Área |
CIÊNCIA DA COMPUTAÇÃO |
| Orientador(es) |
|
| Coorientador(es) |
|
| Orientando(s) |
- Fabricio Barbosa de Carvalho
|
| Banca |
|
| Resumo |
Nos últimos anos, as velocidades de rede aumentaram enquanto as velocidades de CPU se estabilizaram, tornando as pilhas de rede baseadas em kernel cada vez mais impraticáveis, particularmente para servidores multicore em datacenters. Consequentemente, pilhas de rede de sistemas de kernel-bypass e aplicações multicore se tornaram necessárias para acompanhar redes de datacenter mais rápidas. Um grande número de aplicações ainda requer TCP para interoperabilidade com aplicações legadas. No entanto, o processamento TCP consome muitos recursos em comparação com aplicações em escala de microssegundos, e seu estado por conexão complica o escalonamento em arquiteturas multicore. A interação entre a pilha de rede e o escalonamento de aplicações, seja em trabalhadores compartilhados ou não (por exemplo, núcleos), impacta fortemente o desempenho ao afetar o uso do cache, a eficiência do pipeline da CPU e os padrões de acesso à memória. Dadas as demandas de redes de alta velocidade, otimizar essas arquiteturas é essencial, mas muitos sistemas existentes falham em abordar o desempenho do TCP e suas interações com a aplicação em condições do mundo real.
Um dos objetivos desta tese é investigar o escalonamento efetivo de uma pilha TCP juntamente com aplicações em arquiteturas multicore, enfatizando as compensações envolvidas na alocação de trabalhadores para processamento TCP e de aplicações. Esta tese analisa com base em princípios a relação entre um protocolo de rede com estado e garantias fortes para escalonamento de tal pilha com aplicações multicore. Para permitir comparações justas, projetamos e implementamos o Demieagle, um framework de benchmark que inclui (i) uma pilha TCP flexível, com kernel-bypass e em escala de microssegundos que escalona o processamento de rede e as solicitações de aplicações com diferentes arquiteturas multicore e (ii) um conjunto de benchmark com cargas de trabalho em uma variedade de características que enfatizam diferentes compensações no escalonamento multicore. O Demieagle permite a execução de experimentos comparáveis para descobrir as compensações de diferentes políticas e arquiteturas de escalonamento multicore; assim, orientando os programadores de aplicações em direção a uma política de escalonamento ideal para sua carga de trabalho.
Nesta tese, também abordamos a complexidade do dimensionamento de funções de rede. A Virtualização de Funções de Rede (NFV) promete melhor utilização de recursos computacionais ao dimensionar dinamicamente os recursos sob demanda. No entanto, a maioria das funções de rede são com estados e exigem atualizações de estado por pacote. Durante uma operação de dimensionamento, os trabalhadores precisam sincronizar o acesso a um estado compartilhado para evitar condições de corrida e garantir que as funções de rede processem os pacotes na ordem de chegada. Infelizmente, a abordagem clássica para controlar o acesso simultâneo a um estado compartilhado com locks não é escalável para os requisitos de taxa de transferência e latência atuais. Para abordar esses desafios, projetamos, implementamos e avaliamos o Dyssect, um sistema que permite o dimensionamento dinâmico de funções de rede com estados ao desagregar seus estados. Ao coordenar cuidadosamente as ações entre os trabalhadores e um controlador central, o Dyssect migra fragmentos e fluxos entre os trabalhadores para balanceamento de carga ou priorização de tráfego sem usar locks ou reordenar pacotes. Além disso, a desagregação de estado do Dyssect permite o offloading de funções de rede com estado para NICs programáveis e torna mais fácil explorar compensações de hardware-software que se adaptam melhor a funções de rede específicas e cargas de tráfego. Nossa avaliação experimental mostra que o Dyssect reduz a latência de cauda em até 32,04% e aumenta o vazão em até 19,36% em comparação com soluções estado da arte. |
|
| Automatic Inference of BGP Community Semantics |
|
| Curso |
Doutorado em Ciência da Computação |
| Tipo |
Tese |
| Data |
24/09/2024 |
| Área |
CIÊNCIA DA COMPUTAÇÃO |
| Orientador(es) |
|
| Coorientador(es) |
- Ítalo Fernando Scotá Cunha
|
| Orientando(s) |
- Brivaldo Alves da Silva Junior
|
| Banca |
- Antonio Marinho Pilla Barcellos
- Carlos Alberto da Silva
- Edmundo Albuquerque de Souza e Silva
- Ítalo Fernando Scotá Cunha
- Pedro de Botelho Marcos
- Ronaldo Alves Ferreira
|
| Resumo |
O Border Gateway Protocol (BGP) orquestra as comunicações de Internet entre Sistemas Autônomos (ASes). A flexibilidade do BGP permite que os operadores expressem políticas complexas e implantem sistemas avançados de engenharia de tráfego. Um mecanismo essencial para essa flexibilidade é marcar anúncios de rota com comunidades BGP, que têm semântica arbitrária definida pelo operador, para passar informações ou solicitações de roteador para roteador. Os usos típicos das comunidades BGP incluem anexar metadados a anúncios de rota, como onde uma rota foi aprendida ou se foi recebida de um cliente, e controlar a propagação de rota, por exemplo, para direcionar o tráfego para caminhos preferenciais ou bloquear ataques DDoS usando comunidades de blackhole. No entanto, não há um padrão para especificar a semântica nem um repositório centralizado que catalogue o significado das comunidades BGP. A falta de padrões e repositórios centrais dificulta o uso de comunidades pelo operador e comunidades de pesquisa.
O principal objetivo desta tese é desenvolver técnicas para inferir a semântica das comunidades BGP usando dados disponíveis publicamente por coletores BGP. Primeiro, propomos um conjunto de técnicas para inferir comunidades de localização. Nossas técnicas inferem comunidades relacionadas às entidades ou locais por onde uma rota atravessa correlacionando comunidades com os AS-path. Também propomos um conjunto de heurísticas para filtrar inferências incorretas introduzidas por redes com comportamento inadequado, compartilhamento de comunidades BGP entre sistemas autônomos siblings e dumps BGP inconsistentes. Aplicamos nossas técnicas a bilhões de registros de roteamento de coletores BGP públicos e disponibilizamos um banco de dados público com mais de 15 mil comunidades de localização. Nossa comparação com bancos de dados construídos manualmente mostra que nossas técnicas fornecem alta precisão (93%), melhor cobertura (81% de recall) e atualizações dinâmicas, complementando a compreensão dos operadores e pesquisadores de sobre a semântica das comunidades BGP.
Também projetamos e avaliamos algoritmos para descobrir automaticamente comunidades BGP de ação e ASes que violam práticas padrão usando consistentemente as comunidades de informação de outros ASes, revelando relacionamentos não documentados entre eles (ex: siblings). Nossa avaliação experimental com bilhões de anúncios de rotas de coletores de rotas BGP públicos de 2018 a 2023 revela relacionamentos entre ASes que eram desconhecidos e mostra que nosso algoritmo para identificar comunidades de ação atinge precisão média e recall de 92,5% e 86,5%, respectivamente. |
| Download |
|
|