Segmentação de Documentos Jurídicos usando Supervisão Fraca |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
22/03/2023 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
- Eraldo Luis Rezende Fernandes
|
Orientando(s) |
|
Banca |
- Bruno Magalhaes Nogueira
- Edson Takashi Matsubara
- Eraldo Luis Rezende Fernandes
- Leandro Guimarães Marques Alvim
- Valeria Quadros dos Reis
|
Resumo |
Milhões de processos estão em tramitação no sistema judiciário brasileiro.
Os acórdãos são decisões colegiadas de tribunais brasileiros e, por conta disto,
são fundamentais na uniformização do entendimento entre os magistrados e entre diferentes tribunais.
Portanto, desenvolver e implementar soluções tecnológicas eficazes para auxiliar
juízes,
desembargadores e
outros profissionais envolvidos no processo judicial
a lidar com o crescente volume de processos judiciais no Brasil.
Essas soluções devem ser capazes de acelerar a tomada de decisões e reduzir a carga de trabalho,
garantindo a eficiência do sistema judiciário e a satisfação dos cidadãos que dependem dele.
Os acórdãos dos tribunais brasileiros estão disponíveis publicamente,
entretanto, como estes documentos não estão em formato estruturado,
o processamento automático deles é dificultado.
Um dos primeiros passos para o processamento de acórdãos é
a segmentação destes documentos que são compostos por diversas seções com diferentes informações sobre a decisão.
Neste trabalho, foram coletados mais de 960 mil
documentos contendo o inteiro teor de acórdãos de cinco tribunais de diferentes esferas do judiciário brasileiro.
Estes documentos estão em formato PDF e foram coletados nos portais de busca dos tribunais.
Após a coleta, o conteúdo textual e características de layout de 624.161 acórdãos
foram extraídos utilizando diferentes ferramentas.
Adicionalmente, um método de segmentação automática foi desenvolvido para cada tribunal
e todos os documentos foram segmentados em cinco seções obrigatórias em acórdãos de tribunais brasileiros.
A segmentação de 100 documentos de cada tribunal (500 no total) foi manualmente revisada
para servirem como validação e teste de modelos de Aprendizado de Máquina (AM).
Modelos de AM clássicos e baseados em aprendizado profundo foram avaliados utilizando estes datasets.
Todos os modelos foram treinados usando os dados anotados automaticamente (supervisão fraca).
Diversos experimentos foram realizados para avaliar diferentes aspectos do problema de segmentação de acórdãos.
Particularmente, um aspecto analisado foi a capacidade de generalização dos modelos para tribunais não vistos no treinamento.
Outro aspecto considerado nos experimentos foi o impacto de características de layout dos documentos em alguns modelos de AM.
Mais especificamente, foram analisados modelos baseados em aprendizado profundo,
propostos recentemente na literatura,
que consideram como entrada tanto o conteúdo textual quanto algumas características de layout.
Modelos de segmentação com incorporação de layout alcançam, em alguns casos,
desempenho superior aos métodos desenvolvidos especificamente para um tribunal.
Modelos que são treinados e testados no mesmo tribunal também tendem a apresentar um desempenho comparável
ou até superior aos métodos de anotação automática.
No entanto, quando se trata de modelos treinados em um tribunal e testados em outro,
o desempenho depende da correlação encontrada entre eles.
Em alguns casos, a perda de desempenho é substancial.
Neste trabalho, são disponibilizados diversos recursos que podem ser usados em trabalhos futuros.
Todos os documentos coletados em formato PDF,
assim como os correspondentes arquivos TSV e JSON com as anotações automáticas,
estão disponíveis livremente.
Também estão disponíveis os scripts de segmentação automática,
assim como os scripts usados para treinamento e avaliação de modelos.
Por fim, também estão disponíveis as anotações revisadas manualmente de 500 documentos (100 de cada tribunal). |
Download |
|
|
Análise Isogeométrica com Elementos de Contorno e Superfícies de Subdivisão |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
03/03/2023 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
|
Orientando(s) |
|
Banca |
- Afonso Paiva Neto
- Anderson Vicoso de Araujo
- Marcio Artacho Peres
- Paulo Aristarco Pagliosa
|
Resumo |
O método dos elementos de contorno (MEC), muito utilizado para solução numérica de problemas de mecânica do contínuo, depende de uma malha para a análise e essa malha tem impacto direto na precisão da solução numérica do problema considerado. Quando adotado junto à análise isogeométrica, a escolha de uma representação geométrica adequada é crucial, visto que o modelo de análise deriva diretamente do modelo geométrico. Um tipo de representação amplamente utilizado — que hoje é o padrão na indústria de animação, após forte incentivo da Pixar com o lançamento da API OpenSubdiv — são as superfícies de subdivisão, as quais possibilitam a construção de formas complexas e fornecem aproximações tão boas quanto se queira da forma do objeto a ser representado. Dada tamanha relevância das superfícies de subdivisão, com utilização crescente em diversas áreas, que incluem aplicações CAD (do inglês, Computer-aided Design), e tendo em vista que as simulações físicas não mais se restringem às áreas de ciências e engenharias, com papel importante em outros campos da computação gráfica, tais como jogos digitais, animações e efeitos especiais, neste trabalho foi proposta uma solução para a análise isogeométrica elastostática com elementos de contorno para sólidos representados por superf´ıcies de subdivisão. São introduzidos como parte central desta solução um método de posicionamento de pontos de colocação e um método de extração de elementos curvos para superfícies de subdivisão com bordas, pontos extraordinários e curvas de vinco. A solução proposta se mostrou adequada e equiparável às encontradas na literatura, e se estabelece como uma extensão ao modelo de análise no qual baseia-se este trabalho.
Palavras-chave: superfícies de subdivisão, análise isogeométrica, método dos elementos de contorno.
|
|
Deep Learning Approaches to Segment Eucalyptus Tree Images |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
17/02/2023 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
|
Orientando(s) |
|
Banca |
- Camilo Carromeu
- Celso Soares Costa
- Jose Marcato Junior
- Wesley Nunes Goncalves
|
Resumo |
O agronegócio é uma das principais fontes de riqueza e emprego do Brasil, representando uma parcela significativa do Produto Interno Bruto (PIB) nacional. Em 2021, o setor do agronegócio atingiu 27,4% do PIB brasileiro, a maior participação desde 2004, quando atingiu 27,53%. A indústria de base florestal é um importante segmento do agronegócio, pois fornece insumos vitais para diversos setores industriais, como produtos de madeira, móveis e papel. As florestas plantadas desempenham um papel essencial na captura de carbono e outros serviços ecossistêmicos, sendo o eucalipto a árvore mais utilizada, com 7,3 milhões de hectares de florestas de eucalipto em 2021. O mapeamento de árvores é vital para a economia e o meio ambiente, e as soluções baseadas em inteligência artificial são valiosas ferramentas de apoio à decisão em agricultura e mapeamento de árvores. Consequentemente, há um forte incentivo para buscar soluções mais abrangentes que utilizem tecnologias avançadas de aprendizado profundo para essa área. Assim, este trabalho tem como objetivo avaliar redes neurais convolucionais de aprendizado profundo eficientes para segmentação de imagens de troncos de eucalipto e apresentar uma proposta de segmentação específica para troncos de eucalipto que pode beneficiar aplicações agrícolas ou ferramentas de apoio à decisão para mapeamento de árvores. Este trabalho foi dividido em duas etapas principais para avaliar as redes de segmentação e criar uma técnica de pós-processamento. A primeira etapa deste estudo avaliou a eficiência de redes de aprendizado profundo na segmentação semântica de troncos de eucalipto em imagens panorâmicas em cores RGB capturadas no nível do solo. As redes de aprendizado profundo FCN, GCNet, ANN e PointRend foram avaliadas nesta etapa para segmentação de imagens de troncos de eucalipto. O treinamento e a avaliação das redes foram realizados usando uma abordagem de validação cruzada de cinco etapas, usando um conjunto de dados composto por imagens anotadas manualmente de uma floresta de eucalipto. O conjunto de dados inicial foi criado usando um campo de visão esférico da câmera. Ele incluiu uma variedade de eucaliptos com características distintas, como variações nas distâncias entre os troncos e mudanças na curvatura, tamanhos e diâmetros dos troncos, que representam desafios significativos para métodos de aprendizado profundo em tarefas de segmentação semântica. Para a primeira etapa deste estudo, o modelo FCN apresentou o melhor desempenho, com precisão de pixel de 78,87% e mIoU de 70,06%, além de obter um bom tempo de inferência. As redes GCNet e ANN também tiveram desempenho semelhante ao FCN, mas com impactos negativos em sua capacidade de generalizar tarefas em contextos específicos. O estudo conclui que o FCN foi o mais robusto, dentre os métodos avaliados, para segmentação semântica de imagens de árvores em imagens panorâmicas. Essa avaliação das redes de segmentação pode ser um passo crucial para o desenvolvimento de outras ferramentas relevantes no manejo florestal, como a estimativa de altura e diâmetro do tronco. A segunda etapa deste trabalho foi criar e avaliar uma técnica de pós-processamento de imagens RGB-D para melhorar os resultados das redes semânticas atuais para segmentação em imagens de eucalipto. Criamos uma nova imagem de conjunto de dados a partir de imagens obtidas de uma câmera estéreo, que capturou não apenas as informações de cor (RGB), mas também as informações de profundidade, o que permitiu uma visão ainda mais completa da floresta de eucalipto. Após a construção do novo banco de imagens, sua anotação foi realizada por especialistas. A próxima etapa deste estudo foi a avaliação de seis redes de segmentação semântica de imagens e a comparação com os resultados antes e depois da aplicação da técnica de pós-processamento. Treinamos, avaliamos e testamos as redes FCN, ANN, GCNet, SETR, SegFormer e DPT nas imagens anotadas. A técnica de pós-processamento melhorou significativamente os resultados das redes de segmentação de imagens testadas, com um ganho significativo de 24,13% em IoU e 13,11% em F1-score para redes baseadas em convolução e 12,49% para IoU e 6,56% em F1-score para redes baseadas em transformadores. A rede SegFormer obteve os melhores resultados em todos os testes antes e após a aplicação da técnica. A técnica também corrigiu com eficácia falhas de segmentação, erosão e erros de dilatação, resultando em bordas mais precisas e troncos mais bem delimitados. O custo computacional médio da técnica foi de 0,019 segundos, indicando que ela pode ser aplicada em redes de segmentação sem comprometer o desempenho. Os resultados obtidos pela aplicação da técnica de pós-processamento propõem uma abordagem inovadora com baixo custo computacional e melhorias significativas para as redes de segmentação existentes. |
|
Simulação de fluidos com PIC usando RBF-FD e grades adaptativas balanceadas |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
10/02/2023 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
|
Orientando(s) |
|
Banca |
- Afonso Paiva Neto
- Anderson Vicoso de Araujo
- Marcio Artacho Peres
- Paulo Aristarco Pagliosa
|
Resumo |
Em animações baseadas em física, a simulação de fluido por métodos híbridos, ou seja, empregando tanto uma discretização material quanto espacial, é normalmente baseada na subdivisão do espaço por uma grade regular. Essa abordagem, a depender da resolução adotada, pode gerar um grande número de células que não contém fluido e não precisam ser processadas, mas que ainda assim serão visitadas. Com o intuito de contornar esse problema, grades adaptativas foram introduzidas para eliminar células vazias. Nas grades regulares, o cálculo dos operadores diferenciais, que é necessário para a resolver a simulação, pode ser feito pelo método das diferenças finitas. O método aproxima o valor da derivada em um ponto com base em seus vizinhos --- que devem estar alinhados ao ponto em relação aos eixos do domínio e a uma distância do ponto sendo avaliado --- e essa vizinhança é chamada de estêncil. Como nas grades adaptativas os tamanhos das células podem ser diferentes, os estênceis gerados não são aptos para o uso do método das diferenças finitas como na grade regular. Uma alternativa para calcular os operadores diferenciais em uma grade adaptativa é o uso do método de diferenças finitas baseada em funções de base radial (RBF-FD), mas esse método é mais complexo e computacionalmente extensivo que o usado nas grades regulares. A fim de manter os benefícios de uma grade adaptativa e acelerar o cálculo dos operadores diferenciais com RBF-FD, este trabalho propõe o uso de grades adaptativas balanceadas, ou seja, grades em que a diferença de nível entre duas células vizinhas não seja maior que um. O objetivo é, uma vez identificado os estênceis gerados com tal condição, definir um dicionário cujas entradas contém funções que permitem o cálculo acelerado do RBF-FD para cada um desses estênceis possíveis. |
Download |
|
|
Mineração de Textos usando Word Embeddings com Contexto Geográfico |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
27/10/2022 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
- Ricardo Marcondes Marcacini
|
Orientando(s) |
|
Banca |
- Bruno Magalhaes Nogueira
- Camila Vaccari Sundermann
- Diego Furtado Silva
- Rafael Geraldeli Rossi
- Ricardo Marcondes Marcacini
|
Resumo |
Muitos fenômenos importantes estão relacionados a um contexto geográfico, como eventos extraídos de bases textuais na área da economia, saúde pública, violência urbana e questões sociais. A análise de eventos de maneira manual seria impraticável considerando a sua grande quantidade e as diversas formas nas quais os dados são encontrados. Assim, passou-se a ter a necessidade de processos baseados em métodos computacionais inteligentes como a Mineração de Textos que, por meio das suas etapas, torna capaz a exploração do conteúdo textual com informação geográfica e retorna padrões que não seriam encontrados por modelos tradicionais. O modelo tradicional para analisar a relação entre termos e regiões é o de calcular a probabilidade de um termo ser utilizado em textos associados a uma região, em geral, por meio da frequência de termos em regiões. No entanto, é reconhecido que essa abordagem falha para novos termos apresentados a um modelo, bem como para textos com termos ambíguos. Nesse contexto, modelos baseados em Word Embeddings são reconhecidos por melhorar a identificação das relações entre uma palavra e o possível local associado. Nesse sentido, neste projeto são investigadas representações textuais baseadas em Word Embeddings do modelo BERT (Bidirectional Encoder Representations from Transformers) em um processo de ajuste fino, na qual as informações georreferenciadas dos textos são utilizadas como contexto, culminando na proposta deste trabalho denominada GeoTransformers Language Model. Um dos diferenciais da proposta é automaticamente identificar macrorregiões e microrregiões a partir dos eventos e utilizá-las como contexto para ajuste fino de um modelo de linguagem. Os resultados gerados pelo modelo GeoTransformers, em comparação com outros modelos da literatura, apresentaram maiores valores para métricas de precisão, revocação, F1-Score. Além disso, o modelo proposto foi o único capaz de lidar com regiões com menor quantidade de eventos e difíceis de classificar. |
Download |
|
|
Modelagem e Desenvolvimento de Algoritmo para o Problema de Roteamento Dinâmico de Veículos |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
09/09/2022 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
- Ricardo Ribeiro dos Santos
|
Orientando(s) |
- Wilton Gustavo Gomes da Costa
|
Banca |
- Bianca de Almeida Dantas
- Fillipe Goulart Silva Mendes
- Ricardo Ribeiro dos Santos
- Willy Alves de Oliveira Soler
|
Resumo |
Encontrar rotas eficientes para uma frota de forma a minimizar a distância percorrida e o tempo de viagem e maximizar o lucro do serviço são alguns objetivos almejados na resolução do Problema de Roteamento de Veículos (PRV). O PRV e suas variantes são amplamente estudados na literatura técnica especializada, com diversas propostas de modelos, algoritmos e técnicas (métodos) de resolução. Neste trabalho de mestrado, o objetivo é resolver a variante do PRV, denominada Problema de Roteamento Dinâmico de Veículos (PRDV). O PRDV considera que os itens a serem entregues não são conhecidos a priori e podem aparecer para o roteamento de maneira dinâmica. Este é um problema atual e de interesse das empresas de logística, especialmente aquelas com enfoque em marketplace, que precisam lidar com milhares de itens de produtos para entregas ao longo do dia e possuem limitações de frotas de veículos e de horários para entrega. Neste trabalho foram desenvolvidos um algoritmo dinâmico, denominado Dynamic Search per Neighbors Routes (DSNR), e um algoritmo estático, denominado Kmeans, Relax-and-Fix and Optimizations (K-RFO). O cenário para o problema consiste em explorar o roteamento dinâmico a partir de lotes de pacotes para serem entregues em uma jornada de trabalho do mesmo dia. A técnica implementada no algoritmo DSNR é baseada em busca local associada a uma implementação de uma heurística denominada 2-Opt**, visando re-otimizar rotas vizinhas. Quando comparada com os algoritmos dinâmicos QRP-Sweep (QRPS) e Kmeans-Greedy (KG), disponibilizados no repositório Loggibud, observaram-se economias de 17% nos custos de transporte e operacionais, ao utilizar a técnica DSNR. |
|
Exploring code samples characteristics and their impacts on software ecosystems |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
23/08/2022 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
- Bruno Barbieri de Pontes Cafeo
|
Orientando(s) |
- Gabriel Santana de Menezes
|
Banca |
- Andre Cavalcante Hora
- Awdren de Lima Fontao
- Bruno Barbieri de Pontes Cafeo
- Davy de Medeiros Baía
- Eiji Adachi Medeiros Barbosa
- Hudson Silva Borges
|
Resumo |
Os sistemas de software modernos são geralmente construídos sobre frameworks, bibliotecas e APIs (plataformas).
Ambientes onde existem relações entre as organizações que mantêm essas plataformas
e os clientes que utilizam recursos dessas plataformas são conhecidos como Ecossistema de Software.
Nesse contexto, as organizações desenvolvem code samples para ajudar seus clientes com as barreiras de aprendizado.
Code samples são pequenos projetos de software, com fins educacionais, e ensinam como usar os recursos da plataforma.
No entanto, sabemos pouco sobre as características de code samples e sua relação com organizações e clientes.
Neste trabalho, pretendemos preencher essas lacunas avaliando quatro aspectos diferentes. Primeiro, comparando code samples com projetos convencionais através de seu código-fonte. Segundo, explorando o uso de code samples via Stack Overflow e GitHub. Terceiro, avaliando o perfil dos atores que interagem com code samples. Quarto, manutenção de code samples e seu impacto nos clientes.
Descobrimos que os code samples são menores e mais simples do que os projetos convencionais. Também descobrimos que code samples mudam com menos frequência, mas atualiza mais rapidamente para novas versões de plataforma do que os projetos convencionais. Em relação ao uso de code samples, descobrimos que a abordagem copiar/colar é pouco utilizada pelos clientes. Além disso, notamos que o problema mais comum enfrentado pelos clientes é quando eles tentam modificar a code samples e as melhorias são a necessidade mais comum dos clientes. Em relação aos atores em torno dos code samples, descobrimos que o público-alvo dos code samples pode variar de clientes inexperientes a clientes experientes. Além disso, notamos que plataformas de diferentes organizações parecem ter diferentes públicos-alvo. Além disso, os mantenedores de code samples são antigos e impopulares no GitHub.
Por fim, sobre a manutenção de code samples, descobrimos que a modificação de código é a atividade de manutenção mais comum de code samples, mas o gerenciamento de Pull Rquests desempenha um papel essencial no tempo de manutenção. Também descobrimos que os code samples se tornam menos complexas, mas maiores e menos legíveis ao longo do tempo. |
|
Towards an expertise-related metric to preprocessor-based configurable software systems |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
22/08/2022 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
- Bruno Barbieri de Pontes Cafeo
|
Orientando(s) |
- Karolina Martins Milano Neves
|
Banca |
- Awdren de Lima Fontao
- Bruno Barbieri de Pontes Cafeo
- Elder José Reioli Cirilo
- Hudson Silva Borges
- Maria Istela Cagnin Machado
|
Resumo |
Contexto: Métricas relacionadas à experiência dos desenvolvedores nos permitem encontrar os melhores desenvolvedores para uma tarefa específica em
um arquivo. Sistemas configuráveis usam a variabilidade de código como
unidade de abstração para gerar diferentes membros de uma família de programas. Esse desalinhamento entre os arquivos usados pelas métricas relacionadas à experiência e as variabilidades usadas pelos sistemas configuráveis pode impossibilitar o uso conjunto delas.
Objetivo: O objetivo é duplo. O primeiro é explorar como o trabalho em código mandatório e variável é dividido entre os desenvolvedores e se as métricas
relacionadas à expertise podem indicar um desenvolvedor com expertise para
uma tarefa envolvendo código variável. O segundo é propor uma métrica relacionada à experiência com conhecimento em variabilidades para indicar desenvolvedores com experiência em código variável.
Método: Foram investigados 49 sistemas configuráveis baseados em pré-processadores, sendo analisadas como as mudanças nas variabilidades são dstribuídas entre os desenvolvedores, e se esses desenvolvedores seriam os principais desenvolvedores indicados por métricas relacionadas a experiência do desenvolvedor em arquivos de código. Foram utilizadas técnicas de feature selection e regressão linear múltipla para propor uma métrica relacionada a experiência
do desenvolvedor em relação ao conhecimento de variabilidades de código. A métrica proposta foi validada comparando-a com duas métricas já conhecidas.
Resultados: Poucos desenvolvedores são especialistas em código variável. Foi identificado que poucos desenvolvedores concentram a maioria das alterações
em código variável. Os resultados também sugerem que que a expertise relacionada a métricas já conhecidas não são um bom ajuste para indicar experts em relação ao código variável. Foi proposta uma métrica relacionada a experiência dos desenvolvedores em relação às variabilidades e foi mostrado que a métrica proposta superou métricas relacionadas a experiência em relação a arquivos de código, já conhecidas.
Conclusão: Embora os resultados mostrem que um número considerável de desenvolvedores realizou alterações no código variável durante o histórico de
desenvolvimento, tais alterações são apenas ocasionais. Há uma concentração
de trabalho entre alguns desenvolvedores quando se trata de código variável.
Esta divisão desigual pode causar um esforço de manutenção desnecessário.
Também concluímos que as métricas relacionadas à experiência em relação ao conhecimento das variabilidades podem apoiar melhor a identificação de
especialistas em sistemas configuráveis quando comparadas às métricas existentes |
|
Uma Análise Exploratória da Influência dos Projetos Pedagógicos dos Cursos Superiores no Resultado do Enade por meio de Mineração de Textos e Aprendizado de Máquina |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
11/08/2022 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
- Liana Dessandre Duenha Garanhani
|
Orientando(s) |
- Charles Andre Profilio dos Santos
|
Banca |
- Anderson Vicoso de Araujo
- Bruno Magalhaes Nogueira
- Edson Norberto Caceres
- Liana Dessandre Duenha Garanhani
|
Resumo |
Um curso de ensino superior é orientado pelo Projeto Pedagógico do Curso (PPC), que orienta a formação esperada para o egresso do curso, tanto no aspecto profissional quanto humanístico, de acordo com as diretrizes curriculares nacionais vigentes. Para avaliar os cursos de graduação e as instituições de ensino superior, o Ministério da Educação (MEC) utiliza alguns indicadores de qualidade, como o Exame Nacional de Desempenho dos Estudantes (Enade), sendo uma avaliação aplicada a cada três anos aos estudantes egressos de cada curso, que visa avaliar a qualidade do ensino de graduação no país por meio da atribuição de um conceito a cada curso avaliado. Tal conceito e os demais relatórios de avaliação resultantes do Enade auxiliam os gestores das instituições de ensino superior, coordenadores de curso e professores atuarem para a melhoria de seus projetos pedagógicos, infraestrutura física, recursos humanos e demais aspectos que impactem na formação do aluno. Este trabalho propõe uma análise dos projetos pedagógicos de cursos utilizando aprendizado de máquina, para auxiliar na compreensão de como o seu conteúdo impacta na avaliação dos cursos, mais especificamente, nos conceitos Enade Faixa e Enade Contínuo dos cursos. A análise foi aplicada sobre projetos pedagógicos dos cursos de Ciência da Computação e Sistemas de Informação, porém a metodologia é aplicável para outros cursos, medi- ante replicação do método sobre novos dados de treinamento. Os resultados experimentais demonstraram que é possível predizer o Conceito Enade Faixa com acurácia de ≈ 80% e o Conceito Enade Contínuo com erro percentual absoluto médio de ≈ 11%. |
Download |
|
|
Exploração do Espaço de Projetos de Sistemas Heterogêneos Aplicada ao Problema de Alocação de Recursos em Nuvem |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
01/07/2022 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
- Ricardo Ribeiro dos Santos
|
Orientando(s) |
- Danillo Christi Almeida Arigoni
|
Banca |
- César Augusto Fonticielha De Rose
- Liana Dessandre Duenha Garanhani
- Renato Porfirio Ishii
- Ricardo Ribeiro dos Santos
|
Resumo |
Os serviços de computação em nuvem oferecem uma gama de recursos computacionais disponíveis sob demanda. Contudo, encontrar a melhor configuração de recursos que reduza custos e atenda as exigências do usuário tornou-se um grande desafio. Este desafio compartilha características essenciais com um problema da área de arquitetura de computadores, a exploração de espaço de projetos - Design Space Exploration (DSE). Em DSE, o foco é escolher, dentre uma grande quantidade de soluções arquiteturais, qual a mais indicada para uma determinada demanda, buscando atender objetivos e cumprindo as restrições de projeto. Diante disso, este trabalho propõe a aplicação de técnicas de exploração de espaço de projeto como potencial solução para o problema de alocação de recursos em nuvem. Este trabalho projetou e desenvolveu a ferramenta MultiExplorer-VM, uma extensão da ferramenta de DSE MultiExplorer. Essa extensão possui um fluxo de execução adaptado para a resolução do problema de alocação de recursos em nuvem, utilizando e adaptando algoritmos e técnicas de exploração de espaço de projeto.
Experimentos foram realizados visando a validação estatística e comparação com outro trabalho existente na literatura da área que utiliza a técnica Paramount Interation (PI). Os resultados mostram que MultiExplorer-VM possibilita alcançar configurações de recursos com melhorias significativas em relação a técnica de PI. Seguindo as restrições de um modelo de otimização, para algumas aplicações, as soluções obtidas por MultiExplorer-VM são similares às configurações ótimas obtidas por uma ferramenta de busca exaustiva de soluções aplicada ao mesmo problema. |
Download |
|
|
Exploração do Espaço de Projetos de Sistemas GP-GPU ciente de Dark Silicon |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
30/06/2022 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
- Liana Dessandre Duenha Garanhani
|
Orientando(s) |
- Rhayssa de Almeida Sonohata
|
Banca |
- Eraldo Luis Rezende Fernandes
- Jonathan de Andrade Silva
- Liana Dessandre Duenha Garanhani
- Ricardo Ribeiro dos Santos
|
Resumo |
O alto potencial de paralelismo e de largura de banda oferecidos pelas GPUs, aliados à popularização das linguagens de programação CUDA e OpenCL, fizeram com que as unidades de processamento gráfico fossem utilizadas em aplicações distintas daquelas para as quais foram originalmente criadas, consolidando, assim, o conceito de GP-GPU ou Unidades de Processamento Gráfico para computação de propósito geral. A partir do crescente uso de sistemas que unem CPUs e GPUs para processamento de forma colaborativa, foram desenvolvidas ferramentas para explorar o desempenho e o consumo dos diversos parâmetros arquiteturais dos projetos de computação heterogênea. Entretanto, essas ferramentas são escassas, limitadas, computacionalmente custo-
sas e precisam de parâmetros arquiteturais de difícil obtenção. Isso posto, este trabalho propõe o desenvolvimento e avaliação de modelos de predição de desempenho de sistemas heterogêneos GP-GPU usando técnicas de aprendizado de máquina, com objetivo de alcançar alta acurácia e substituir o custoso processo de simulação. Tais preditores foram validados a partir da integração a uma ferramenta de exploração de espaço de projeto ciente de dark-silicon,denominada MultiExplorer, que realiza a avaliação de alternativas arquiteturais para um projeto-base, buscando alcançar objetivos pré-estabelecidos como maximização de desempenho e minimização de área em dark-silicon, obedecendo restrições de área e consumo energético. Dependendo do espaço de projeto, tal ferramenta avalia centenas de milhares de alternativas arquiteturais e, portanto, os preditores de desempenho com baixo custo computacional e acurácia são essenciais. |
|
Medianas em genômica comparativa |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
27/05/2022 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
- Fabio Henrique Viduani Martinez
|
Orientando(s) |
- Helmuth Ossinaga Martines da Silva
|
Banca |
- Carlos Henrique Aguena Higa
- Diego Padilha Rubert
- Fabio Henrique Viduani Martinez
- Francisco Eloi Soares de Araujo
- José Coelho de Pina Junior
- Marco Aurelio Stefanes
|
Resumo |
A inferência de genomas ancestrais é uma tarefa clássica em genômica comparativa. Aqui, estudamos o problema da mediana de genomas tal que, dado um conjunto de três ou mais genomas, queremos encontrar um novo genoma que minimize a soma das distâncias par a par entre esse e os genomas dados. A distância representa a quantidade de evolução observada no nível do genoma, para a qual determinamos o número mínimo de operações de rearranjos necessárias para transformar um genoma em outro. Para quase todas as operações de rearranjo conhecidas, o problema da mediana é NP-difícil, com exceção da operação single-cut-or-join (SCJ) que pode ser resolvido eficientemente para genomas multicromossomais circulares e mistos. Neste projeto, estudamos o problema da mediana sob uma medida de rearranjo restrita chamada distância-c4, que é estreitamente relacionada à distância SCJ e à DCJ (double-cut-and-join). Identificamos limitantes precisos e decomposers da mediana-c4 e implementamos algoritmos para a sua construção, dois algoritmo exatos baseados em PLI (Programação Linear Inteira) e três heurísticas combinatórias. Posteriormente, realizamos experimentos com conjunto de dados simulados. Nossos resultados sugerem que a distância-c4 é útil para estudo do problema da mediana de genomas, de perspectiva teórica e prática. |
|
Predição de nível de rios da Região Hidrográfica do Rio Paraguai utilizando algoritmos de Aprendizado de Máquina |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
25/02/2022 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
|
Orientando(s) |
- Rogério Alves dos Santos Antoniassi
|
Banca |
- Bruno Magalhaes Nogueira
- Carlos Roberto Padovani
- Edson Takashi Matsubara
- Omar Andres Carmona Cortes
- Renato Porfirio Ishii
|
Resumo |
O Pantanal faz parte da Região Hidrográfica do Rio Paraguai (RH-Paraguai) e possui, como característica, a inundação de uma parcela de sua área em determinadas épocas do ano. Essa inundação gera uma série de problemas socioeconômicos à população que vive em seu entorno. Problemas estes que podem ser mitigados quando há previsão de sua ocorrência com antecedência. Nesse sentido, este trabalho investiga a aplicação de técnicas de Aprendizado de Máquina (AM) para a predição de níveis dos rios da RH-Paraguai, utilizando dados diários de estações a montante para previsão do nível de estações a jusante. Nessa perspectiva, a modelagem com técnicas de AM demonstra-se eficaz nas predições, na medida que trabalhos similares aparecem na literatura correlata. Dessa maneira, é utilizada uma fonte de dados com valores de níveis diários, sendo selecionada uma amostra de três estações. Em seguida, foi retirada a defasagem do tempo entre o pico de cheia de uma estação e outra, pesquisados os hiperparâmetros ideais para as redes Long Short Term Memory (LSTM), Gated Recurrent Unit (GRU) e Bidirectional Long Short Term Memory (BiLSTM) e submetidos ao processo de treinamento. Posteriormente, foram selecionados os modelos de melhores resultados de cada algoritmo, os quais foram comparados com a técnica de Regressão utilizada atualmente. Os resultados mostram que os três modelos testados podem ser utilizados para a tarefa de predição, em que, os três apresentam melhorias em relação ao modelo atual. O modelo com o algoritmo GRU se destacou por apresentar as menores taxas de erro e por ser 23,84% mais preciso que o modelo de Regressão, já LSTM e BiLSTM são, respectivamente, 18,09% e 19,16% mais precisos que o modelo de Regressão. Os modelos de LSTM e BiLSTM se aproximam mais do valor real nos picos de níveis máximos e mínimos, quando comparados ao de Regressão e ao GRU. |
Download |
|
|
Problema de roteamento em anéis de dois níveis |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
16/12/2021 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
|
Orientando(s) |
|
Banca |
- Edna Ayako Hoshino
- Fabio Henrique Viduani Martinez
- Fábio Luiz Usberti
- Francisco Eloi Soares de Araujo
- Henrique Mongelli
- Vagner Pedrotti
|
Resumo |
Nesta dissertação de mestrado estudamos o problema do roteamento em anéis de dois níveis, que consiste em, dado um grafo e custos associados às arestas, projetar uma rede hierárquica em dois níveis em que ambos os níveis são anéis. Apresentamos um modelo em programação linear inteira para o problema e propomos um algoritmo exato branch-and-price para resolvê-lo. Uma vez que o modelo proposto faz uso de um número exponencial de variáveis, utilizamos o método da geração de colunas para resolver a relaxação linear do modelo. Propomos também uma relaxação para a geração de colunas e heurísticas para melhorar o desempenho do algoritmo proposto. |
Download |
|
|
PUL-SSC: Aprendizado baseado em umaúnica classe com agrupamentosemissupervisionado |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
02/09/2021 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
|
Orientando(s) |
|
Banca |
- Bruno Magalhaes Nogueira
- Diego Furtado Silva
- Edson Takashi Matsubara
- Rafael Geraldeli Rossi
- Ricardo Marcondes Marcacini
- Solange Oliveira Rezende
|
Resumo |
A grande quantidade de dados disponíveis atualmente é uma fonte de extração de informações para fins comerciais e acadêmicos. Uma abordagem para extrair conhecimento em bases de dados que ganhou destaque é a classificação de uma única classe (em inglês, One-class Classification - OCC). O uso de OCC para classificar se um exemplo é de uma classe específica é apropriado em conjuntos de dados em que as classes são desbalanceadas ou apenas os dados da classe de interesse estão presentes durante o treinamento. Vários algoritmos de OCC encontrados na literatura utilizam agrupamento não supervisionado para delimitar a fronteira da classe de interesse. Esses algoritmos conseguem ter resultados competitivos com aqueles apresentados por outros algoritmos de OCC. Embora o aprendizado semissupervisionado tenha mostrado a possibilidade de alcançar melhores resultados em várias áreas do que com o agrupamento semissupervisionado, o agrupamento semissupervisionado ainda é pouco explorado para OCC. Uma abordagem para OCC é o Positive and Unlabeled Learning (PUL), em que o aprendizado ocorre apenas com dados positivos (interesse) e não rotulados. Os algoritmos de PUL procuram encontrar uma delimitação da classe positiva. Este trabalho de mestrado propõe um novo algoritmo PUL-SSC (Positive and Unlabeled Learning with Semi-Supervised Clustering) que aprende a delimitar a classe de interesse através da criação e utilização de restrições must-link e cannot-link, agrupamento de dados com algoritmo semisupervisionado e um processo de aprendizado transdutivo para propagação de rótulos. Foram explorados dois algoritmos de agrupamento semissupervisionados amplamente usados: PCKMeans e MPCK-Means. Na avaliação experimental, os algoritmos semissupervisionados superaram o algoritmo baseado em k-Means e o SVM de uma classe (OC-SVM) na maioria dos cenários. Em particular, o algoritmo baseado em distância MPCK-Means foi dominante na maioria das comparações usando conjuntos de dados numéricos e textuais. |
Download |
|
|
Contagem de Fluxo de Pessoas Utilizando Aprendizado Profundo |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
25/08/2021 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
|
Orientando(s) |
|
Banca |
- Bruno Magalhaes Nogueira
- Edson Takashi Matsubara
- Jonathan de Andrade Silva
- Rafael Geraldeli Rossi
- Wesley Nunes Goncalves
|
Resumo |
A contagem do fluxo de clientes é a contabilização da quantidade de pessoas que entram no estabelecimento. Esta contagem permite extrair diferentes métricas do negócio como taxa de conversão das ações de marketing, duração das visitas e tráfego de pessoas. O objetivo principal desta dissertação é propor, desenvolver e avaliar uma solução para contar clientes utilizando câmeras de segurança. A proposta consiste em combinar algoritmos de aprendizado profundo para contagem das pessoas. Adicionalmente identificar pessoas que não devem entrar na contagem, como funcionários e colaboradores. A partir de vídeos coletados em dois locais distintos que foram anotados manualmente foi definido a contagem Real. Posteriormente foram submetidos à Yolov5 para a definição da contagem por Pessoas e RetinaFace por Face. A contagem realizada pela proposta foi comparada com a contagem manual utilizando teste de significância. Segundo o teste houve não diferença significativa entre as contagens de Pessoa e Real. Sendo assim a técnica da solução proposta foi validada e a viabilidade econômica apresentou custo de 24,4USD por mês, considerando 10 horas de vídeo diárias para processamento em nuvem. A solução proposta não necessita de inserção de hardware específico e modificações nos espaços dos lojistas, sendo uma alternativa promissora para esse o problema. |
Download |
|
|
Uso de redes neurais para o problema de previsão de pacientes de alto custo |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
26/07/2021 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
|
Orientando(s) |
|
Banca |
- Bruno Magalhaes Nogueira
- Eraldo Luis Rezende Fernandes
- Luciano Jose Senger
- Omar Andres Carmona Cortes
- Renato Porfirio Ishii
|
Resumo |
O crescente envelhecimento da população mundial, juntamente com diversos fatores ambientais, sociais e econômicos, acabam gerando grandes desafios para a saúde pública em geral. Dentro deste cenário é de interesse tanto
para operadoras de planos de saúde privados quanto para gestores da saúde
pública um melhor gerenciamento dos recursos disponíveis, a fim de atingir a
maior parcela possível da sociedade. Para isso, tendo em mente a quantidade
de informações produzidas diariamente, fica evidente também, a necessidade
do uso de tecnologias de processamento de dados e auxílio à tomada de decisões para que tal gerenciamento seja feito de maneira satisfatória.
Este trabalho tem como objetivo analisar a aplicação de técnicas de machine learning na área da saúde. Uma das possíveis aplicações inclui a detecção de possíveis pacientes de alto custo a partir de dados históricos, a fim de
melhor direcionar intervenções que venham a evitar a transição de pacientes
regulares em pacientes de alto custo, ou, no caso daqueles que já estão nessa
condição, permitir abordagens apropriadas ao invés de genéricas. Em ambos
os casos, a detecção de tais pacientes pode ser benéfica, reduzindo custos
evitáveis e melhorando a condição dos pacientes.
A fim de realizar tais detecções, este trabalho se concentrou no uso de técnicas de machine learning, especificamente, Redes Neurais, juntamente com
um conjunto de dados composto por respostas de pesquisas aplicadas pelo
governo dos Estados Unidos, denominado Medical Expenditure Panel Survey
(MEPS) e atributos coletados a partir da literatura.
O modelo final escolhido para prever a condição de alto custo foi uma rede
neural sequencial totalmente conectada, com 3 camadas ocultas e 3 camadas
de dropout. Esta rede obteve 88% nas métricas de accuracy e f1 score, 91%
na métrica de recall, 86% de precision e 84% de specificity, demonstrando a
capacidade do modelo de prever corretamente exemplos de ambas as classes.
Este trabalho teve também como objetivo facilitar a criação e o teste dessas
redes, disponibilizando as ferramentas desenvolvidas durante sua evolução no GitHub.
|
Download |
|
|
Alinhamento Global de Várias Sequências Biológicas utilizando Cluster de GPUs |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
07/05/2021 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
|
Orientando(s) |
- Rodrigo Albuquerque de Oliveira Siqueira
|
Banca |
- David Corrêa Martins Junior
- Fabio Henrique Viduani Martinez
- Francisco Eloi Soares de Araujo
- Luiz Carlos da Silva Rozante
- Marco Aurelio Stefanes
|
Resumo |
O alinhamento de múltiplas sequências é uma ferramenta importante para o estudo e a representação de similaridades entre conjuntos de sequências biológicas – como DNAs, RNAs e proteínas. Este estudo permite a obtenção de informações relevantes destas sequências, como suas relações funcionais, evolucionárias e estruturas internas. Devido a sua importância, vários métodos foram propostos como solução a este problema. Entretanto, a complexidade inerente do problema, que é apresentado como computacionalmente NP-Difícil, conduz a tempos de execução proibitivos em cenários com muitas sequências longas.
Neste trabalho, apresentamos uma implementação completa para o método heurístico de Alinhamento Progressivo utilizando paralelismo híbrido para ambientes com múltiplas GPUs. Esta abordagem permite a construção de alinhamentos globais entre bases com muitas sequências de comprimentos longos em tempo razoável.
Nossa implementação atinge resultados expressivos, apresentando speedups de até 380 quando comparado ao alinhador paralelo ClustalW-MPI para sequências reais obtidas do banco de dados do NCBI. |
|
Detecção de Hiperônimos com BERT e Padrões de Hearst |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
01/04/2021 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
- Eraldo Luis Rezende Fernandes
|
Orientando(s) |
|
Banca |
- Anderson Vicoso de Araujo
- Bruno Magalhaes Nogueira
- Edson Takashi Matsubara
- Eraldo Luis Rezende Fernandes
- Rafael Geraldeli Rossi
|
Resumo |
A relação de hiperônimo é uma importante relação semântica entre palavras que é útil para resolver problemas como resolução de correferência, extração de relações, textual entailment, dentre outros. Um hiperônimo é uma palavra de sentido mais genérico, enquanto um hipônimo é uma palavra de
sentido mais específico. Por exemplo, cidade é hiperônimo de roma, e cachorro é hipônimo de animal. Neste trabalho, propomos um algoritmo não-supervisionado para a tarefa de detecção de hiperônimo que combina os chamados padrões de Hearst com o modelo de linguagem BERT. Padrões de Hearst são padrões linguísticos como banana é um tipo de fruta, o qual é um
indício que fruta é um hiperônimo de banana. Uma limitação deste tipo de abordagem é o problema de escassez (sparsity), comum a métodos baseados em padrões linguísticos.
O modelo de linguagem BERT é um modelo profundo de representação contextual que é treinado para predizer palavras mascaradas na sequência de entrada.
Nós combinamos esta característica do BERT com padrões de Hearst para derivar um algoritmo de detecção de hiperônimo que obtém os melhores resultados da literatura em 7 de 13 datasets considerados.
Dentre estes datasets, estão os três primeiros datasets em português e
que foram desenvolvidos neste trabalho. Nós comparamos nosso método com
o algoritmo DIVE, uma extensão do conhecido algoritmo word2vec que detinha os melhores resultados na maioria dos datasets em inglês para detecção
de hiperônimo. Nosso método alcança um desempenho 3 pontos acima do
DIVE na média dos treze datasets considerados. |
Download |
|
|
Mecanismos para apoiar o desenvolvimento de interfaces Web acessíveis para surdos |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
05/03/2021 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
- Maria Istela Cagnin Machado
|
Orientando(s) |
- Gênesis Medeiros do Carmo
|
Banca |
- Cássio Leonardo Rodrigues
- Debora Maria Barroso Paiva
- Jane Dirce Alves Sandim Eleuterio
- Marcelo Medeiros Eler
- Maria Istela Cagnin Machado
|
Resumo |
|
Download |
|
|