Doutorado em Ciência da Computação

Atenção! O edital referente ao processo seletivo e arquivos pertinentes ao curso estão disponíveis no site do curso.
Os resultados dos processos seletivos serão divulgados no site do curso.

Trabalhos

Trabalhos Disponíveis

TRABALHO Ações
Correspondência de Pontos em Formas 3D Baseada em Aprendizagem Profunda Multivisão
Curso Doutorado em Ciência da Computação
Tipo Tese
Data 23/12/2022
Área CIÊNCIA DA COMPUTAÇÃO
Orientador(es)
    Orientando(s)
      Banca
      • Afonso Paiva Neto
      • Douglas Cedrim Oliveira
      • Eraldo Luis Rezende Fernandes
      • Hemerson Pistori
      • Paulo Aristarco Pagliosa
      • Renato Porfirio Ishii
      • Thales Miranda de Almeida Vieira
      • Thiago Oliveira dos Santos
      Resumo Na área de processamento geométrico, diversas técnicas propostas na literatura
      requerem que sejam estabelecidos pares de pontos de correspondência entre duas ou
      mais superfícies, isto é, dado um ponto sobre uma superfície fonte, é preciso associar
      qual é o ponto sobre uma superfície alvo que corresponde ao ponto dado. As aplicações
      incluem reconstrução de superfícies, parametrização cruzada, transferência de pose,
      transferência de texturas ou animações, reconhecimento e busca de formas, entre outras. A definição de uma função de mapeamento entre duas formas, mesmo para um número discreto de pontos característicos, nem sempre envolve somente relações geométricas ou estruturais, mas também relações semânticas. Uma vez que tal mapeamento em geral não pode ser diretamente expresso por abordagens puramente axiomáticas, em vários métodos de processamento geométrico a indicação de um conjunto inicial de pontos de correspondência é efetuada manualmente, através de processos que podem ser laboriosos e sujeitos a erros. De fato, descobrir relações semânticas entre formas quaisquer sem qualquer interação do usuário tratava-se de um problema ainda em aberto. Modelos de aprendizagem de máquina, em especial aprendizagem profunda, têm evoluído por sua capacidade de utilizar grandes conjuntos de dados para estimar a solução de problemas em diversas áreas do conhecimento, inclusive processamento geométrico. Este trabalho apresenta um método que utiliza aprendizagem multivisão profunda como parte do processamento responsável por encontrar automaticamente, isto é, sem a intervenção direta do usuário, pontos de correspondência entre superfícies de formas 3D, representadas por malhas de triângulos. O método é dividido em dois componentes: treinamento e correspondência. O primeiro trata-se de um treinamento multivisão que aprende, com o auxílio de uma CNN, a detectar pontos de interesse em imagens 2D oriundas de malhas de triângulos dos conjuntos de treinamento. O último, utiliza o resultado do treinamento para inferir correspondências semânticas com pontos de interesse (vértices) em formas 3D. A descoberta desses pontos não requer novo treinamento e nem interação humana durante o pipeline de correspondência.
      Correspondência de Pontos em Formas 3D Baseada em Aprendizagem Profunda Multivisão
      Curso Doutorado em Ciência da Computação
      Tipo Tese
      Data 23/12/2022
      Área CIÊNCIA DA COMPUTAÇÃO
      Orientador(es)
      • Paulo Aristarco Pagliosa
      Orientando(s)
      • Alexandre Soares da Silva
      Banca
      • Afonso Paiva Neto
      • Douglas Cedrim Oliveira
      • Eraldo Luis Rezende Fernandes
      • Hemerson Pistori
      • Paulo Aristarco Pagliosa
      • Renato Porfirio Ishii
      • Thales Miranda de Almeida Vieira
      • Thiago Oliveira dos Santos
      Resumo Na área de processamento geométrico, diversas técnicas propostas na literatura requerem que sejam estabelecidos pares de pontos de correspondência entre duas ou mais superfícies, isto é, dado um ponto sobre uma superfície fonte, é preciso associar qual é o ponto sobre uma superfície alvo que corresponde ao ponto dado. As aplicações incluem reconstrução de superfícies, parametrização cruzada, transferência de pose, transferência de texturas ou animações, reconhecimento e busca de formas, entre outras. A definição de uma função de mapeamento entre duas formas, mesmo para um número discreto de pontos característicos, nem sempre envolve somente relações geométricas ou estruturais, mas também relações semânticas. Uma vez que tal mapeamento em geral não pode ser diretamente expresso por abordagens puramente axiomáticas, em vários métodos de processamento geométrico a indicação de um conjunto inicial de pontos de correspondência é efetuada manualmente, através de processos que podem ser laboriosos e sujeitos a erros. De fato, descobrir relações semânticas entre formas quaisquer sem qualquer interação do usuário tratava-se de um problema ainda em aberto. Modelos de aprendizagem de máquina, em especial aprendizagem profunda, têm evoluído por sua capacidade de utilizar grandes conjuntos de dados para estimar a solução de problemas em diversas áreas do conhecimento, inclusive processamento geométrico. Este trabalho apresenta um método que utiliza aprendizagem multivisão profunda como parte do processamento responsável por encontrar automaticamente, isto é, sem a intervenção direta do usuário, pontos de correspondência entre superfícies de formas 3D, representadas por malhas de triângulos. O método é dividido em dois componentes: treinamento e correspondência. O primeiro trata-se de um treinamento multivisão que aprende, com o auxílio de uma CNN, a detectar pontos de interesse em imagens 2D oriundas de malhas de triângulos dos conjuntos de treinamento. O último, utiliza o resultado do treinamento para inferir correspondências semânticas com pontos de interesse (vértices) em formas 3D. A descoberta desses pontos não requer novo treinamento e nem interação humana durante o pipeline de correspondência.
      Download
      Acelerando Florestas de Decisão Paralelas em Processadores Gráficos para a Classificação de Texto
      Curso Doutorado em Ciência da Computação
      Tipo Tese
      Data 12/09/2022
      Área CIÊNCIA DA COMPUTAÇÃO
      Orientador(es)
      • Wellington Santos Martins
      Orientando(s)
      • Julio Cesar Batista Pires
      Banca
      • Fabrizzio Alphonsus Alves de Melo Nunes Soares
      • Júnio César de Lima
      • SÁVIO SALVARINO TELES DE OLIVEIRA
      • Wellington Santos Martins
      Resumo
      Download
        Desenvolvimento e Avaliação de Métodos de Interação com Dispositivos e Ambientes Inteligentes Utilizando Smartwatches: Uma Abordagem com Reconhecimento Contínuo de Gestos
        Curso Doutorado em Ciência da Computação
        Tipo Tese
        Data 06/12/2021
        Área CIÊNCIA DA COMPUTAÇÃO
        Orientador(es)
        • Fabrizzio Alphonsus Alves de Melo Nunes Soares
        Orientando(s)
        • Thamer Horbylon Nascimento
        Banca
        • Alexandre Cardoso
        • Deborah Silva Alves Fernandes
        • Fabrizzio Alphonsus Alves de Melo Nunes Soares
        • Fátima de Lourdes dos Santos Nunes Marques
        • Gélson da Cruz Júnior
        • Renato de Freitas Bulcão Neto
        • Ronaldo Martins da Costa
        Resumo
        Download
          String-Recommender: Combining temporal information with Collaborative Filtering using string-comparison measures
          Curso Doutorado em Ciência da Computação
          Tipo Tese
          Data 17/09/2021
          Área CIÊNCIA DA COMPUTAÇÃO
          Orientador(es)
          • Hugo Alexandre Dantas do Nascimento
          Orientando(s)
          • Luiz Mário Lustosa Pascoal
          Banca
          • Anderson da Silva Soares
          • Claudia Lage Rebello da Motta
          • Gustavo Post Sabin
          • Hugo Alexandre Dantas do Nascimento
          • Sílvio César Cazella
          • Telma Woerle de Lima Soares
          • Thierson Couto Rosa
          • Wellington Santos Martins
          Resumo
          Download
            Soluções de alto desempenho para a Ordenação Segmentada de Vetores e o Escalonamento de Tarefas
            Curso Doutorado em Ciência da Computação
            Tipo Tese
            Data 05/08/2021
            Área CIÊNCIA DA COMPUTAÇÃO
            Orientador(es)
            • Edson Norberto Caceres
            Orientando(s)
            • Rafael Freitas Schmid
            Banca
            • Edson Borin
            • Edson Norberto Caceres
            • Henrique Mongelli
            • Liana Dessandre Duenha Garanhani
            • Nalvo Franco de Almeida Junior
            • Philippe Olivier Alexandre Navaux
            • Ronaldo Alves Ferreira
            • Wellington Santos Martins
            Resumo O problema do escalonamento de tarefas consiste na distribuição de tarefas entre as máquinas disponíveis no ambiente. Uma das formas de resolver esse problema é usando a heurística min-min, que consegue resolvê-lo de forma rápida, ao mesmo tempo que entrega soluções eficientes. Neste trabalho, foram realizadas implementações da heurística min-min para o escalonamento de tarefas em múltiplas CPUs e uma implementação de mochila linear para o escalonamento de kernels em uma GPU. Além disso, essas duas estratégias foram unidas para resolver o escalonamento de kernels em múltiplas GPUs. O algoritmo mais eficiente da heurística min-min consiste em resolver o problema da ordenação segmentada de vetores. Dessa forma, foi realizado também um estudo sobre as implementações da ordenação segmentada existentes e comparadas com as novas sugeridas. Os estudos de escalonamento foram realizados em ambientes reais de desenvolvimento, bem como, em ambientes simulados de computação em nuvem, usando os frameworks Cloudsim e GPUCloudsim. Os resultados mostraram que o uso de heurísticas, como o min-min, pode otimizar a utilização dos recursos nesses ambientes.
            Download
            Classificação de Tecidos Epiteliais Tumorais Empregando Imagens Hiperespectrais e Infravermelho de Ondas Curtas
            Curso Doutorado em Ciência da Computação
            Tipo Tese
            Data 04/08/2021
            Área CIÊNCIA DA COMPUTAÇÃO
            Orientador(es)
            • Anderson da Silva Soares
            Orientando(s)
            • Daniel Vitor de Lucena
            Banca
            • Aldo André Díaz Salazar
            • Anderson da Silva Soares
            • Arlindo Rodrigues Galvão Filho
            • Clarimar José Coelho
            • Fabrizzio Alphonsus Alves de Melo Nunes Soares
            • Gustavo Teodoro Laureano
            • Isabela Jubé Wastowski
            • Rafael Viana de Carvalho
            Resumo
            Download
              Elementos de Contorno para Análise Isogeométrica de Sólidos Elásticos com Vincos
              Curso Doutorado em Ciência da Computação
              Tipo Tese
              Data 30/07/2021
              Área CIÊNCIA DA COMPUTAÇÃO
              Orientador(es)
              • Paulo Aristarco Pagliosa
              Orientando(s)
              • Márcio Artacho Peres
              Banca
              • Afonso Paiva Neto
              • Anderson Vicoso de Araujo
              • Fabiano Petronetto do Carmo
              • Marcelo Ferreira Siqueira
              • Marco Hiroshi Naka
              • Paulo Aristarco Pagliosa
              • Renato Porfirio Ishii
              Resumo O método dos elementos de contorno (MEC) é uma importante alternativa para solução numérica de diversos problemas derivados da mecânica do contínuo. Em mecânica dos sólidos, mais especificamente, o método é atrativo pois pode requerer somente uma discretização das superfícies dos corpos em análise, com consequente diminuição da dimensionalidade do sistema discreto. No contexto de análise isogeométrica (IGA), o MEC é ainda mais naturalmente atrativo, uma vez que a ideia da IGA é utilizar o modelo geométrico de um objeto - geralmente definido por retalhos de superfícies NURBS produzidos por uma ferramenta CAD - como o próprio modelo de análise, sem emprego de um processo particular de geração de malhas. Recentemente, vários trabalhos que comprovam a viabilidade da IGA podem ser encontrados na literatura. Contudo, ainda há uma série de limitações que impedem a utilização prática da IGA, decorrentes principalmente da dificuldade de imposição de condições de contorno não homogêneas.
              Nesta tese, efetua-se um estudo dessas limitações e propõe-se uma solução baseada no MEC para análise isogeométrica de sólidos elásticos. O arcabouço resultante permite a modelagem de descontinuidades de forças de superfície através de elementos descontínuos e/ou nós múltiplos, sendo a multiplicidade de um nó dada por regiões da superfície delimitadas por curvas de vincos.
              Os elementos de contorno são definidos como retalhos de Bézier associados às faces da malha elementar de uma superfície T-spline. T-splines foram empregadas no lugar de NURBS por permitirem malhas de pontos de controle não estruturadas com junções em T e pontos extraordinários, sem necessidade de curvas de recorte, mas qualquer representação da qual se possa extrair retalhos de Bézier pode ser adotada. Um procedimento de extração de Bézier para superfícies T-splines genéricas com vincos e um esquema robusto de integração numérica dos termos da equação integral de contorno são introduzidos. O arcabouço é implementado em C++. Um protótipo em MATLAB permite a seleção interativa de grupos de elementos para especificação de condições de contorno representando vínculos genéricos e carregamentos uniformemente distribuídos, pressões e torques, bem como a análise numérica e visualização dos resultados.
              Download
                Framework conceitual para heurísticas modernas de busca: Uma abordagem utilizando teoria das topologias e hipergrafos
                Curso Doutorado em Ciência da Computação
                Tipo Tese
                Data 22/07/2021
                Área CIÊNCIA DA COMPUTAÇÃO
                Orientador(es)
                • Telma Woerle de Lima Soares
                Orientando(s)
                • Lucas de Almeida Ribeiro
                Banca
                • Alexandre Cláudio Botazzo Delbem
                • Anderson da Silva Soares
                • Celso Gonçalves Camilo Junior
                • Danilo Sipoli Sanches
                • Fernando Marques Federson
                • Hugo Alexandre Dantas do Nascimento
                • Paulo Henrique Ribeiro Gabriel
                • Telma Woerle de Lima Soares
                Resumo
                Download
                  Graph to sequence syntactic pattern recognition for image classification problems
                  Curso Doutorado em Ciência da Computação
                  Tipo Tese
                  Data 22/06/2021
                  Área CIÊNCIA DA COMPUTAÇÃO
                  Orientador(es)
                  • Hemerson Pistori
                  Orientando(s)
                  • Gilberto Astolfi
                  Banca
                  • Anderson Vicoso de Araujo
                  • Edson Takashi Matsubara
                  • Hemerson Pistori
                  • Marco Antonio Alvarez Vega
                  • Marco Hiroshi Naka
                  • Ronaldo Cristiano Prati
                  • Wesley Nunes Goncalves
                  • Willian Paraguassu Amorim
                  Resumo Um interesse crescente na aplicação de modelos de Processamento de Linguagem Natural (PLN) em problemas de visão computacional tem emergido recentemente. Esse interesse é motivado pelo sucesso dos modelos de PLN em tarefas como tradução e sumarização de textos. Neste trabalho, um novo método para aplicação de PLN em problemas de classificação de imagens é proposto. O objetivo é representar os padrões visuais de objetos usando uma sequência de símbolos do alfabeto e, em seguida, treinar alguma forma de Gated Recurrent Unit (GRU), Long Short-Term Memory (LSTM) ou Transformer usando essas sequências para classificar objetos. A representação de padrões visuais de objetos de maneira sintática permite que os modelos PLN sejam aplicados a problemas de classificação de imagens de uma forma natural, ou seja, da mesma forma que são aplicados a problemas de linguagem natural. Duas abordagens de representação de padrões visuais de objetos de maneira sintática foram investigadas: representação usando pontos-chave e representação usando partes componentes de objetos. Na abordagem que usa pontos-chave, os pontos-chave são identificados nas imagens, associados a símbolos do alfabeto e, em seguida, relacionados usando um grafo para derivar sequências de símbolos das imagens. As sequências de símbolos são as entradas para treinar um codificador LSTM. Experimentos mostraram evidências de que a representação sintática de padrão pode representar variações visuais em imagens de superpixel capturadas por Veículos Aéreos não Tripulados, mesmo quando há um pequeno conjunto de imagens para treinamento. Na abordagem que usa partes componentes de objetos, as partes componentes são fornecidas por meio de caixas delimitadoras nas imagens. As partes componentes são associadas aos símbolos do alfabeto e relacionadas entre si para derivar uma sequência de símbolos do objeto para representar seu padrão visual. Então, alguma forma de GRU, LSTM ou Transformer são treinados para aprender a relação espacial entre as partes componentes dos objetos contidos nas sequências. Uma extensa avaliação experimental, usando um número limitado de amostras para treinamento, foi conduzida para comparar nosso método com a arquitetura de aprendizagem profunda ResNet-50. Os resultados alcançados pelo método proposto superam a ResNet-50 em todos os cenários de teste. Em um teste, o método apresenta acurácia média de 95,3% contra 89,9% da ResNet-50. Ambos os experimentos mostraram evidências de que a partir de um conjunto finito de estruturas primitivas é possível obter muitas variações no padrão visual do objeto mesmo quando há poucas amostras para treinamento. Além disso, os experimentos evidenciaram que os modelos PLN podem ser aplicados de forma natural a problemas de classificação de imagens em visão computacional.
                  Download
                  Operadores para Representações Baseadas em Codificação Nó-Profundidade em Algoritmos Evolutivos
                  Curso Doutorado em Ciência da Computação
                  Tipo Tese
                  Data 16/03/2021
                  Área CIÊNCIA DA COMPUTAÇÃO
                  Orientador(es)
                  • Telma Woerle de Lima Soares
                  Orientando(s)
                  • Gustavo Post Sabin
                  Banca
                  • Alexandre Cláudio Botazzo Delbem
                  • Anderson da Silva Soares
                  • Celso Gonçalves Camilo Junior
                  • Danilo Sipoli Sanches
                  • Hugo Alexandre Dantas do Nascimento
                  • João Bosco Augusto London Júnior
                  • Telma Woerle de Lima Soares
                  Resumo As Representações Baseadas em Codificação Nó-Profundidade (RBNP) são representa-
                  ções para algoritmos evolutivos aplicados a problemas modelados por árvores armazenando os nós e suas respectivas profundidades em uma lista adequadamente ordenada.
                  Uma das representações desse tipo foi a Representação Nó-Profundidade-Grau, cujos
                  operadores de inicialização, mutação e recombinação possuem baixa complexidade de
                  tempo em relação a outras representações que tratam o mesmo tipo de problema presentes na literatura. Embora os operadores atuais tenham obtido bons resultados, é desejável
                  que existam operadores com características não atendidas por eles. Este trabalho propõe
                  um operador de inicialização de baixa complexidade de tempo e não tendencioso, mas que
                  permita a inclusão de tendência ou atenda a restrições do problema com facilidade. Um
                  operador de mutação também é proposto, possuindo como principal diferencial a possibilidade de incluir qualquer aresta na solução, possuindo alta localidade, sempre gerando
                  soluções factíveis e sem a necessidade de qualquer mecanismo de correção. Por fim, um
                  operador de recombinação é proposto, com a capacidade de gerar soluções com a má-
                  xima hereditariedade possível, podendo recombinar quaisquer soluções da população a
                  qualquer momento, com o objetivo de melhorar a convergência da busca. Todos os operadores propostos podem ser aplicados em qualquer RBNP e possibilitam tratar problemas
                  modelados por florestas com uma ou mais árvores. Este estudo analisou a redundância
                  das RBNP e também efetuou uma investigação sobre a tendência, localidade e hereditariedade dos operadores propostos, mostrando que eles possuem características adequadas
                  para tratar problemas de alta dimensionalidade. Para verificar a adequação dos operadores propostos, foi implementado o Algoritmo Evolutivo com Hereditariedade Máxima
                  e aplicado em testes empíricos em três diferentes problemas: Optimal Communication
                  Spanning Tree Problem, One Max Tree Problem e One Max Forest Problem.
                  Download
                    Balanceamento de dados com base em oversampling em dados transformados
                    Curso Doutorado em Ciência da Computação
                    Tipo Tese
                    Data 17/08/2020
                    Área CIÊNCIA DA COMPUTAÇÃO
                    Orientador(es)
                    • Rommel Melgaço Barbosa
                    Orientando(s)
                    • Camila Maione
                    Banca
                    • Ana Paula Cabral Seixas Costa
                    • Katia Kelvis Cassiano Lozano
                    • Leila Roling Scariot da Silva
                    • Nadia Felix Felipe da Silva
                    • Plinio de Sa Leitão Junior
                    • Rommel Melgaço Barbosa
                    • Ronaldo Martins da Costa
                    Resumo
                    Download
                    Geração de sequências de teste a partir de Máquinas de Estados Finitos baseada em busca
                    Curso Doutorado em Ciência da Computação
                    Tipo Tese
                    Data 14/07/2020
                    Área CIÊNCIA DA COMPUTAÇÃO
                    Orientador(es)
                    • Telma Woerle de Lima Soares
                    Orientando(s)
                    • Mariana Soller Ramada
                    Banca
                    • Adenilso da Silva Simão
                    • Alexandre Cláudio Botazzo Delbem
                    • Anderson da Silva Soares
                    • André Takeshi Endo
                    • Auri Marcelo Rizzo Vincenzi
                    • Celso Gonçalves Camilo Junior
                    • Fernando Marques Federson
                    • Telma Woerle de Lima Soares
                    Resumo
                    Download
                    Classificação de cenas uƟlizando a análise da aleatoriedade por aproximação da complexidade de Kolmogorov
                    Curso Doutorado em Ciência da Computação
                    Tipo Tese
                    Data 13/05/2020
                    Área CIÊNCIA DA COMPUTAÇÃO
                    Orientador(es)
                    • Anderson da Silva Soares
                    Orientando(s)
                    • Rafael Divino Ferreira Feitosa
                    Banca
                    • Alexandre Cláudio Botazzo Delbem
                    • Anderson da Silva Soares
                    • Fabrizzio Alphonsus Alves de Melo Nunes Soares
                    • Gustavo Teodoro Laureano
                    • Rommel Melgaço Barbosa
                    • Ronaldo Martins da Costa
                    Resumo
                    Download
                    Predição de complicações em pacientes diabéticos utilizando dados transacionais de operadoras de planos de saúde
                    Curso Doutorado em Ciência da Computação
                    Tipo Tese
                    Data 14/04/2020
                    Área CIÊNCIA DA COMPUTAÇÃO
                    Orientador(es)
                      Orientando(s)
                        Banca
                          Resumo O avanço da taxa de mortalidade e custos relacionados as doenças crônicas tem aumentado significativamente em uma escala global. São doenças cujo tratamento inclui mudan-
                          ças de hábitos e monitoramento constante por profissionais de saúde. A avaliação de risco
                          em pacientes crônicos é um elemento importante no cuidado preventivo, pois identifica
                          pacientes de alto risco futuro. A Inteligência Artificial vem sendo usada como ferramenta
                          para esse tipo de avaliação por meio de dados clínicos de Prontuário Eletrônico do Paciente (PEP). Devido a baixa adesão, falta de interoperabilidade e dificuldade de acesso ao
                          PEP este trabalho propõe o uso de dados transacionais de operadoras de planos de saúde
                          como alternativa para avaliação de crônicos. Para viabilizar a modelagem por meio desses dados este trabalho apresenta alguns métodos de aprendizado de representações com
                          redes neurais profundas (Deep Learning). Os métodos propostos são: uma representação
                          vetorial densa para códigos TUSS capaz de capturar relações e significados; um método
                          de representação de informação de datas em forma vetorial a fim de levar à compreensão
                          temporal a quaisquer modelos de Machine Learning e uma arquitetura de rede neural com
                          capacidade de processar sequências de dados transacionais para reconhecer padrões. Toda
                          a proposta foi avaliada em um estudo de caso na modelagem da diabetes para a predição
                          de complicações relacionadas a doença em duas operadoras. O desempenho obtido foi
                          uma AUC de 0;92 na predição de complicações com seis meses de antecedência. Por fim
                          foi realizada uma avaliação do risco calculado a fim de compreender o comportamento do
                          modelo. Foram encontradas relação de acordo com a literatura médica como o aumento
                          do risco com a idade. Algumas limitações foram encontradas na proposta, como a dificuldade em determinar quais indivíduos possuem condições crônicas devido à falta de
                          informações clínicas. A proposta vem apresentando êxito na identificação de indivíduos
                          de risco e no aprimoramento dos programas de monitoramento das operadoras, que já
                          utilizam regularmente a solução.
                          Predição de complicações em pacientes diabéticos utilizando dados transacionais de operadoras de planos de saúde
                          Curso Doutorado em Ciência da Computação
                          Tipo Tese
                          Data 14/04/2020
                          Área CIÊNCIA DA COMPUTAÇÃO
                          Orientador(es)
                          • Anderson da Silva Soares
                          Orientando(s)
                          • Rafael Teixeira Sousa
                          Banca
                          • Anderson da Silva Soares
                          • Arlindo Rodrigues Galvão Filho
                          • Edson Amaro Junior
                          • Gustavo Teodoro Laureano
                          • Marcos Ricardo Omena de Albuquerque Máximo
                          • Rogerio Lopes Salvini
                          • Ronaldo Martins da Costa
                          Resumo O avanço da taxa de mortalidade e custos relacionados as doenças crônicas tem aumentado significativamente em uma escala global. São doenças cujo tratamento inclui mudan-
                          ças de hábitos e monitoramento constante por profissionais de saúde. A avaliação de risco
                          em pacientes crônicos é um elemento importante no cuidado preventivo, pois identifica
                          pacientes de alto risco futuro. A Inteligência Artificial vem sendo usada como ferramenta
                          para esse tipo de avaliação por meio de dados clínicos de Prontuário Eletrônico do Paciente (PEP). Devido a baixa adesão, falta de interoperabilidade e dificuldade de acesso ao
                          PEP este trabalho propõe o uso de dados transacionais de operadoras de planos de saúde
                          como alternativa para avaliação de crônicos. Para viabilizar a modelagem por meio desses dados este trabalho apresenta alguns métodos de aprendizado de representações com
                          redes neurais profundas (Deep Learning). Os métodos propostos são: uma representação
                          vetorial densa para códigos TUSS capaz de capturar relações e significados; um método
                          de representação de informação de datas em forma vetorial a fim de levar à compreensão
                          temporal a quaisquer modelos de Machine Learning e uma arquitetura de rede neural com
                          capacidade de processar sequências de dados transacionais para reconhecer padrões. Toda
                          a proposta foi avaliada em um estudo de caso na modelagem da diabetes para a predição
                          de complicações relacionadas a doença em duas operadoras. O desempenho obtido foi
                          uma AUC de 0;92 na predição de complicações com seis meses de antecedência. Por fim
                          foi realizada uma avaliação do risco calculado a fim de compreender o comportamento do
                          modelo. Foram encontradas relação de acordo com a literatura médica como o aumento
                          do risco com a idade. Algumas limitações foram encontradas na proposta, como a dificuldade em determinar quais indivíduos possuem condições crônicas devido à falta de
                          informações clínicas. A proposta vem apresentando êxito na identificação de indivíduos
                          de risco e no aprimoramento dos programas de monitoramento das operadoras, que já
                          utilizam regularmente a solução.
                          Download
                          Reconhecimento de Padrões por Processos Adaptavos de Compressão
                          Curso Doutorado em Ciência da Computação
                          Tipo Tese
                          Data 02/03/2020
                          Área CIÊNCIA DA COMPUTAÇÃO
                          Orientador(es)
                          • Anderson da Silva Soares
                          Orientando(s)
                          • Adriano Soares de Oliveira Bailão
                          Banca
                          • Anderson da Silva Soares
                          • Cláudio Gottschalg Duque
                          • Francisco José Mônaco
                          • Nadia Felix Felipe da Silva
                          • Ronaldo Martins da Costa
                          Resumo A compressão de dados é um processo amplamente utilizado pela indústria no armazenamento e transporte de informações sendo aplicada a uma variedade de domínios como
                          texto, imagem, áudio e vídeo. Os processos de compressão constituem-se em um conjunto de operações matemáticas que visam representar cada amostra de dados na forma
                          comprimida, ou com menor tamanho. Técnicas de reconhecimento de padrões podem
                          utilizar propriedades e métricas de compressão para conceber modelos de aprendizado de
                          máquina a partir de algoritmos adaptativos que representam as amostras na forma comprimida. Uma vantagem dos modelos de compressão adaptativos, é que dispõem de técnicas
                          de redução de dimensionalidade decorrentes das propriedades de compressão. Essa tese
                          propõe um modelo de aprendizado não-supervisionado geral (para diversos domínios de
                          problema e diferentes tipos de dados), que reúne as estratégias adaptativas de compressão
                          em duas fases : a granulação, responsável pela percepção e representação do conhecimento necessário para resolver um problema de generalização, e a fase de codificação,
                          responsável pela estruturação do raciocínio do modelo, a partir da representação e organização dos objetos do problema. O raciocínio expresso pelo modelo denota a capacidade
                          de generalização dos objetos de dados no contexto geral. Métodos genéricos, baseados
                          em compactadores (sem perda de informação), carecem de capacidade de generalização
                          para alguns tipos de objetos de dados, sendo, nessa tese, utilizadas também, técnicas de
                          compressão, com perdas, visando contornar o problema e aumentar a capacidade de generalização do modelo. Resultados demonstram que a utilização de técnicas e métricas
                          baseadas em compressão adaptativa produzem uma boa aproximação das amostras de dados originais em fontes de dados com alta dimensionalidade. Testes apontam para bons
                          modelos de aprendizado de máquina com boa capacidade de generalização derivados da
                          abordagem baseada na redução de dimensionalidade oferecida por processos adaptativos
                          de compressão.
                          Download
                          Algoritmos e heurísticas para a busca de regiões genômicas de interesse
                          Curso Doutorado em Ciência da Computação
                          Tipo Tese
                          Data 19/12/2019
                          Área CIÊNCIA DA COMPUTAÇÃO
                          Orientador(es)
                          • Nalvo Franco de Almeida Junior
                          Orientando(s)
                          • Deiviston da Silva Aguena
                          Banca
                          • Edson Norberto Caceres
                          • Graziela Santos de Araujo
                          • Henrique Mongelli
                          • Leandro Márcio Moreira
                          • Marcelo Henriques de Carvalho
                          • Nalvo Franco de Almeida Junior
                          • Said Sadique Adi
                          Resumo
                          Uma Plataforma de IoT para Pecuária de Precisão
                          Curso Doutorado em Ciência da Computação
                          Tipo Tese
                          Data 18/11/2019
                          Área CIÊNCIA DA COMPUTAÇÃO
                          Orientador(es)
                          • Nalvo Franco de Almeida Junior
                          Orientando(s)
                          • Camilo Carromeu
                          Banca
                          • Cleber Oliveira Soares
                          • Edson Norberto Caceres
                          • Hana Karina Salles Rubinsztejn
                          • Luciano Gonda
                          • Nalvo Franco de Almeida Junior
                          • Ronaldo Alves Ferreira
                          • Wesley Nunes Goncalves
                          Resumo
                          Problema de Particionamento em Subgrafos Complementares: Complexidade e Convexidade
                          Curso Doutorado em Ciência da Computação
                          Tipo Tese
                          Data 11/11/2019
                          Área CIÊNCIA DA COMPUTAÇÃO
                          Orientador(es)
                          • Diane Castonguay
                          Orientando(s)
                          • Julliano Rosa Nascimento
                          Banca
                            Resumo
                            Página 1 de 3 (20 de 53 registros).