Análise comportamental de bovinos baseada em trajetórias semânticas aplicadas à Pecuária de Precisão |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
27/09/2013 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
- Hana Karina Salles Rubinsztejn
|
Coorientador(es) |
|
Orientando(s) |
- Marcel Tolentino Pinheiro de Oliveira
|
Banca |
- Hana Karina Salles Rubinsztejn
- Luciano Gonda
- Pedro Paulo Pires
- Ricardo Guimaraes Andrade
|
Resumo |
Com o mercado exigindo cada vez mais informação sobre os produtos que consome, a agricultura e a pecuária passaram a desenvolver novos meios de controle e de produção afim de atender essas exigências. Com objetivo de cumprir essas demandas, o conceito do monitoramento animal surgiu para a pecuária como uma solução para o controle de qualidade. Assim, a ideia é monitorar cada animal da propriedade com a finalidade de fornecer ao produtor o resumo diário das atividades do bovino. Na maioria dos casos, o monitoramento é realizado através de colares com um sensor GPS embutido, armazenando o posicionamento do animal em um determinado ambiente. A proposta desta pesquisa é a construção de um sistema computacional que seja capaz de identificar padrões comportamentais e informações relevantes através das trajetórias dos animais, produzidas durante o pastejo. Para isso, são utilizadas metodologias de trajetória semântica. Essas descobertas irão auxiliar os pecuaristas e pesquisadores na tomada de decisões. Este projeto consiste em mais uma parceria entre Embrapa - Gado de Corte e a FACOM/UFMS, na área de Pecuária de Precisão. |
Download |
|
|
Aim - P: Um Arcabouço para Apoiar a Implantação de Melhoria de Pessoas |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
25/09/2013 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
- Maria Istela Cagnin Machado
|
Coorientador(es) |
|
Orientando(s) |
- Leandro Magalhães de Oliveira
|
Banca |
- Marcelo Augusto Santos Turine
- Maria Istela Cagnin Machado
- Rogéria Cristiane Gratão de Souza
|
Resumo |
As organizações estão participando de um novo paradigma econômico que estabelece novas necessidades. Esse novo paradigma vêm pressionando as organizações em direção à modernização na forma de gerir pessoas. Por um lado, as organizações necessitam do maior envolvimento e comprometimento das pessoas, por outro, também as pessoas estão mudando sua expectativa perante o trabalho. Nesse contexto foi proposto o P-CMM (People Capability Maturity Model), um modelo capaz de guiar as organizações de software em direção às modernizações na gestão de pessoas. Entretanto, mecanismos para apoiar e facilitar a utilização e implantação desse modelo não foram encontrados. Buscando preencher a lacuna apresentada, este trabalho propõe o Aim-P, um arcabouço capaz de apoiar a implantação das práticas propostas pelo modelo P-CMM, além de oferecer diretrizes de apoio ao estabelecimento de equipes ágeis de desenvolvimento e um mecanismo capaz de avaliar os resultados obtidos com a utilização do arcabouço. A concepção desse arcabouço foi baseada nos principais fundamentos de abordagens de apoio a implantação de melhoria de processos de software e no modelo incremental. O Aim-P contém diversas tarefas e modelos de artefatos que agem como facilitadores para a implantação do P-CMM, principalmente no âmbito de pequenas e médias empresas brasileiras que utilizam ou não métodos ágeis. Salienta-se que alguns dos modelos de artefatos disponíveis são específicos do nível 2 do modelo P-CMM, no entanto pode ser evoluídos para os demais níveis desse modelo. Para avaliar a aplicabilidade do arcabouço proposto, foi conduzido um estudo de caso em um ambiente real. Os resultados obtidos foram satisfatórios, sendo que a maioria dos objetivos de melhoria de pessoas esperados foi alcançada para a iteração do projeto de implantação de melhorias executada no estudo de caso.
|
Download |
|
|
ONTO - ResAsset-Ontologia de Ativos Reutilizáveis |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
17/09/2013 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
- Maria Istela Cagnin Machado
|
Coorientador(es) |
|
Orientando(s) |
- Luciano Édipo Pereira da Silva
|
Banca |
- Debora Maria Barroso Paiva
- Ellen Francine Barbosa
- Maria Istela Cagnin Machado
|
Resumo |
A reutilização de software, apesar de ter sido criada há diversos anos, ainda é considerada um importante mecanismo para melhorar a prática de Engenharia de Software. De acordo com a literatura, repositórios de reuso colaboram para o sucesso de programas de reutilização, porém outros mecanismos devem estar associados para que o reuso seja realizado de maneira sistemática, como é o caso da mudança cultural. Apesar do código fonte ser o ativo mais comumente reutilizado pelas empresas de software, outros tipos de ativos também são reutilizados, como modelos de processos de negócios, soluções de análise e de projeto, casos de teste, dentre outros. Devido a isso, é necessário utilizar geralmente diversos tipos de repositórios tornando a prática do reuso uma tarefa custosa, propensa a erros e redundante no armazenamento de informações em diversos locais e em formatos diferentes; ressaltando a importância do uso de um único repositório. Porém, a seleção ou o desenvolvimento de um único repositório adequado às necessidades da empresa não é uma tarefa trivial, visto que os interessados podem não ter conhecimento suficiente para isso. Nesse contexto, é importante que o conhecimento sobre os ativos reutilizáveis de software e sobre a gestão desses ativos seja difundido. Sob essa perspectiva, este trabalho de mestrado define uma ontologia de ativos reutilizáveis, denominada ONTO-ResAsset, tendo em vista que ontologia é uma técnica robusta de conceitualização do conhecimento. Para apoiar o desenvolvimento da ONTO-ResAsset é utilizada a metodologia Methontology e sua avaliação é conduzida sob o ponto de vista de especialistas no domínio e não especialistas no domínio (ou seja, voluntários de uma equipe de desenvolvimento de software de uma empresa real e alunos de pós-graduação da Facom/UFMS). A avaliação dos especialistas no domínio permitiu o refinamento da ONTO-ResAsset principalmente em relação a representação dos conceitos no modelo conceitual e a revisão dos glossários de termos; e a avaliação dos não especialistas no domínio permitiu observar o compartilhamento e a difusão do conhecimento sobre especificação e gestão de ativos reutilizáveis por meio da ontologia. |
Download |
|
|
Acessibilidade nas Fases de Engenharia de Requisitos, Projeto e Codificação de Software: uma ferramenta de apoio |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
09/09/2013 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
- Debora Maria Barroso Paiva
|
Coorientador(es) |
|
Orientando(s) |
- Rodrigo Gonçalves de Branco
|
Banca |
- Debora Maria Barroso Paiva
- Maria Istela Cagnin Machado
- Thiago Jabur Bittar
|
Resumo |
Fornecer produtos acessíveis deixou de ser um diferencial de determinadas empresas. Acessibilidade, nos dias atuais, é um requisito fundamental de qualquer solução desenvolvida, indicando principalmente respeito e cumplicidade com os clientes. Essa afirmação é especialmente verdadeira para os produtos desenvolvidos para a Internet, porta de acesso para toda a intercomunicação mundial. A Internet se mostrou a tecnologia mais rápida e barata de aquisição de informação, levando tecnologias legadas (serviços bancários, por exemplo) a se adaptarem de forma que pessoas com dificuldades permanentes ou momentâneas consigam interagir com a sociedade. Contudo, fornecer um produto acessível nem sempre é uma tarefa fácil. Além de diversas classes diferentes de deficiências e dificuldades (o que acarreta problemas de acessibilidade diferentes), a falta de treinamento e experiência na área faz com que desenvolvedores cometam erros em vários aspectos, resultando num produto inacessível. Os modelos de processos e frameworks de desenvolvimento de software ainda não se adaptaram de forma consistente e homogênea, em relação a acessibilidade na fábrica de software. A área de Tecnologia da Informação está passando por uma fase de transição entre o HTML 4 e XHTML para o HTML 5, que, entre outras coisas, pretende enfatizar a web semântica e tratar dos problemas específicos de acessibilidade. Por fim, as ferramentas disponíveis aos desenvolvedores não conseguem, de maneira eficaz, auxiliar efetivamente os desenvolvedores a entregarem um produto acessível. Neste trabalho considera-se que os requisitos de acessibilidade devem ser levados em conta durante todas as fases do processo de desenvolvimento de software, ou seja, devem evoluir desde a fase de análise de requisitos até a fase de teste de software para que se obtenha acessibilidade como um atributo de qualidade do produto final de software. Assim, buscou-se, sobretudo, criar uma abordagem que pudesse promover a rastreabilidade dos requisitos de acessibilidade desde sua concepção até a fase de codificação. Esta abordagem associou requisitos, modelos UML e técnicas de implementação de acessibilidade, mapeadas em uma ontologia de acessibilidade. Além disso, foi desenvolvido um plugin para o Eclipse que promoveu a associação das técnicas de implementação de acessibilidade e da matriz de rastreabilidade. Foi criada uma prova de conceito com a proposta de verificar se os objetivos do trabalho foram alcançados. O trabalho demonstrou que é possível realizar, de forma automática, o rastreamento dos requisitos de acessibilidade bem como suas técnicas de implementação, desde a Fase de Engenharia de Requisitos até a Fase de Codificação. |
Download |
|
|
Homero: Um framework de apoio ao desenvolvimento de interfaces de aplicações Web acessíveis |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
27/08/2013 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
- Hana Karina Salles Rubinsztejn
|
Coorientador(es) |
|
Orientando(s) |
- Roberto Cícero de Oliveira
|
Banca |
- André Pimenta Freire
- Debora Maria Barroso Paiva
- Hana Karina Salles Rubinsztejn
- Maria Istela Cagnin Machado
|
Resumo |
A expansão da internet tornou-se evidente nos últimos anos, tanto pelo número de usuários, que atingiu a marca de 2,4 bilhões de pessoas no final de 2012, quanto pela quantidade de serviços disponíbilizados na rede, como por exemplo, boletim de ocorrência on-line, e-bank, e-commerce, entre outros.
Com tamanha expansão é essencial que o conteúdo seja acessível a todos os usuários, independente das dificuldades e limitações de cada um. Para isso é necessário desenvolver software com acessibilidade.
A concepção do framework Homero foi impulsionada pela necessidade de propiciar acessibilidade aos sistemas desenvolvidos e simplificar a utilização das diretrizes de acessibilidade propostas pelo W3C.
Desenvolvido utilizando a linguagem PHP, e de acordo com as diretrizes automatizáveis da Web Content Accessibility Guidelines (WCAG) 2.0, o framework Homero facilita a criação de interfaces web acessíveis em conformidade com o nível AAA na categorização da WCAG.
Buscando indícios da qualidade do framework proposto, um estudo empírico foi realizado junto a uma amostra controlada da população. Os resultados obtidos durante o estudo comprovaram a eficácia do Homero em auxiliar o desenvolvimento web acessível.
Palavras-chaves: Framework, Acessibilidade, Interfaces Web, WCAG. |
Download |
|
|
Orthologsorter: inferindo genotipagem e funcionalidade a partir de famílias de proteínas ortólogas |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
27/06/2013 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
- Nalvo Franco de Almeida Junior
|
Coorientador(es) |
|
Orientando(s) |
|
Banca |
- Luciana Montera Cheung
- Maria Emilia Machado Telles Walter
- Nalvo Franco de Almeida Junior
- Said Sadique Adi
|
Resumo |
Os métodos que permitem identificar e classificar espécies e subespécies de bactérias de maneira homogênea contam com uma variedade de técnicas para obter evidências biológicas. A genotipagem tem sido uma das principais metodologias utilizadas por estudos de epidemiologia, estrutura populacional e filogenética de bactérias. No entanto, tais técnicas apresentam limitações no que diz respeito ao poder de discriminação de cepas, ao tempo e esforço laborial bem como ao custo dos equipamentos e materiais necessários para sua execução. Diante disso, o presente trabalho tem por objetivo desenvolver ferramentas computacionais baseadas em comparação de sequências para a genotipagem de bactérias que contribuem para diminuir tais restrições. Mais especificamente, este trabalho criou um pipeline automático que fornece dois produtos finais. O primeiro consiste em uma ferramenta de busca via web, denominada Orthologsorter, que permite realizar buscas no conjunto de famílias de proteínas obtidas por algum método de clusterização de sequências a fim de obter informações funcionais e evolutivas das espécies analisadas. O segundo consiste em uma árvore filogenética construída através de uma busca específica utilizando Orthologsorter, contribuindo para a inferência da história evolutiva das espécies envolvidas. O pipeline proposto foi testado usando, em especial, os dados biológicos pertencentes a dois complexos bacterianos, Bacillus cereus e Mycobaterium tuberculosis e apresentou resultados satisfatórios, quando comparados com outras técnicas de genotipagem. Desse modo, os resultados obtidos demonstram que a ferramenta criada neste trabalho pode inferir relações filogenéticas entre espécies/cepas proximamente relacionadas baseando-se na comparação direta dos conjuntos de proteínas preditas dos organismos analisados. |
Download |
|
|
Moderação de Sítios Utilizando Aprendizado Semissupervisionado Ativo |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
27/06/2013 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
|
Coorientador(es) |
|
Orientando(s) |
|
Banca |
- Maria Carolina Monard
- Renato Porfirio Ishii
|
Resumo |
A internet não é um lugar seguro para criancas. Sítios com conteudo adulto e violento podem ser facilmente acessados por meio de qualquer computador, celular ou tablet. Uma possível solução e o uso de sistemas de controle de acesso a internet. Porem, os sistemas disponíveis atualmente necessitam de muita supervisão, nos quais deve-se bloquear sítio por sítio. Como a internet esta em constante mudanca, todos os dias sítios novos são criados, ha muita dificuldade em fazer o controle do conteudo que se deve bloquear. Com isso em vista, este trabalho propõe um novo sistema moderador de conteudo. Esse sistema foi desenvolvido usando técnicas de Aprendizado de Máquina para facilitar a moderacão de sítios da internet, tornando a moderação menos custosa e mais eficiente. Para atingir esse objetivo, faz-se uso do Aprendizado Semissupervisionado Ativo combinado com técnicas de seleção de atributos. Neste trabalho, averiguou-se o desempenho de algoritmos supervisionados para serem usados como algoritmos-base em uma técnica semelhante ao CoTesting, porém, ao invés de usar duas visões, usou-se dois algoritmos supervisionados juntamente com técnicas de seleção de atributos. Os resultados experimentais foram obtidos utilizando noveécnicas de escolha de exemplos para o aprendizado ativo com melhorias signicativas em duas estratégias. Além disso, vericou-se o uso de seleção de atributos para o problema e foi detectada diferença signicativa nos resultados, indicando que o uso de seleção de atributos pode melhorar a qualidade da classicação. As contribuições deste trabalho não ficam apenas na resolução do problema de moderação de sítios de internet, mas também nas recomendações do uso de aprendizado semissupervisionado ativo e seleção de atributos para o problema.
|
Download |
|
|
PBIW-SPARC: Uma estratégia de Codificação de Instruções para Programas SPARC |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
21/06/2013 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
- Ricardo Ribeiro dos Santos
|
Coorientador(es) |
|
Orientando(s) |
- Renato Fernando dos Santos
|
Banca |
- Edward David Moreno Ordonez
- Luciano Gonda
- Milton Ernesto Romero Romero
|
Resumo |
Este trabalho apresenta o projeto e implementação da técnica de codificação de instruções PBIW (Pattern Based Instruction Word), baseada em fatoração de padrões, sobre o conjunto de instruções SPARCv8. A técnica PBIW é implementada sobre uma infraestrutura de codificação de instruções que mapeia o código de saída de um compilador para o esquema de codificação PBIW em um processador alvo. Na codificação PBIW-SPARC, as instruções passam a ter o tamanho de 16 bits e novos padrões de instruções possuem tamanho de 24 bits. Mesmo com a sobrecarga dos padrões, pode-se notar que o tamanho dos programas diminui significativamente, gerando, inclusive, impactos no desempenho final dos programas codificados. A fim de possibilitar o endereçamento a uma quantidade maior de padrões, extendeu-se a codificação PBIW-SPARC para instruções de 24 bits. Essa extensão possibilitou codificar programas dos benchmarks MediaBench e MiBench. Os experimentos realizados visam caracterizar detalhadamente a técnica de codificação PBIW-SPARC sobre os efeitos gerados sobre o código do programa e sobre o processador alvo. Os resultados demonstram que a técnica PBIW-SPARC oferece ganhos significativos tanto na compressão do tamanho programa (resultados estáticos) - 42% de redução do cóidigo - quanto no desempenho do código final (resultados dinâmicos) - speedup de 2,06 sobre o código original SPARCv8. Os resultados também permitem notar que a utilização da técnica PBIW-SPARC oferece oportunidades interessantes para exploração do espaço de projeto de decodificadores de código junto à via de dados e controle do processador alvo. |
Download |
|
|
Aprendizado de Máquina em Representações Tridimensionais |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
10/05/2013 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
|
Coorientador(es) |
|
Orientando(s) |
|
Banca |
- Gedson Faria
- Hemerson Pistori
|
Resumo |
Aprendizado consiste em adquirir novos, ou modificar os existentes, conhecimentos, comportamentos, habilidades, valores ou preferências e pode envolver a síntese de diferentes tipos de informação. O aprendizado está fortemente relacionado à representação do conhecimento. Uma representação de conhecimento está ligada a capacidade de se inferir, ou seja, aprender. Uma representação de dados bastante presente nos últimos tempos se refere à representação tridimensional, associada fortemente a imagens 3D. Neste trabalho apresenta-se um estudo sobre aprendizado 3D com base em dois estudos de caso, imagens 3D adquiridas a partir do Kinect e movimentos adquirido a partir dos dados do wiimote. A visão humana sempre despertou um grande fascínio por ser considerada um dos sensores humanos mais ricos em informação. Sempre existiu um grande interesse em simular a capacidade de visão do ser humano. Com o surgimento e popularização de sistemas RGB-D (RedGreenBlue - Depth), é possível obter informação de profundidade de cada pixel de maneira rápida e confiável. Isto permitiu a aproximação da tecnologia atual com a visão humana, que com dois olhos são capazes de estimar a profundidade aproximada de um objeto. Uma imagem capturada de um sistema RGB-D é muito mais rica em informação do que uma imagem capturada de uma câmera comum. Estudar como este ganho de informação pode ser utilizado para melhorar a capacidade de representação e reconhecimento de objetos em Inteligência Artificial é um dos objetivos deste projeto. Por meio de uma proposta de um pipeline de aprendizado 3D, desde captura dos dados até algoritmos de reconhecimento, será provido um estudo sobre aprendizado em sistemas RGB-D. Assim como o Kinect, o nintendo Wii também revolucionou a indústria de games graças ao seu controle capaz de reconhecer os movimentos do jogador. Neste trabalho apresenta-se um estudo sobre reconhecimento de padrões em estruturas tridimensionais com o objetivo de explicitar que com a utilização da técnica de aprendizado de máquina juntamente com a representação adequada do problema é possível atingir altas taxas de acerto com um baixo tempo de processamento, o que foi realizado com sucesso. |
Download |
|
|
Algoritmos para Escalonamento de Instruções e Alocação de Registradores na Infraestrutura LLVM |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
27/03/2013 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
- Ricardo Ribeiro dos Santos
|
Coorientador(es) |
|
Orientando(s) |
|
Banca |
- Amaury Antonio de Castro Junior
- Ricardo Ribeiro dos Santos
- Sandro Rigo
|
Resumo |
O objetivo deste trabalho e apresentar uma proposta integrada para Escalonamento de Instrucões e Alocacão de Registradores baseada em Isomorsmo de Subgrafos implementada no compilador LLVM. A contribuicão principal deste trabalho e mapear as fases de escalonamento instrucões e alocacão de registradores como um problema de Isomorsmo de Subgrafos. A resolucão e baseada na modelagem dos recursos de hardware (unidades funcionais, banco de registradores e suas interconexões) como um grafo base e a representacão do programa de entrada como um Directed Acyclic Graph (DAG) com vertices representando instrucões, operandos de entradas e sada, e as arestas as dependências entre esses vertices.O DAG de entrada possui atributos especiais para indicar a latência de instrucões, operandos
especiais (registradores de instrucões específicas/dedicadas) e dependências de controle. As entradas para o algoritmo são compostas por um DAG G1 e um grafo base G2 que representa a arquitetura alvo. A saída e um grafo G0 2 isomorco para G1. Outra contribuicão é a
definição de grafo base como uma ferramenta para modelar diferentes modelos arquiteturais de processadores. A técnica tem-se mostrado particularmente viável para arquiteturas com restricões de registradores e interconexões. No entanto, pode-se vislumbrar extensões
para arquiteturas Very Long Instruction Word (VLIW), máquinas escalares e até mesmo processadores que exploram paralelismo em nível de instrução utilizando outros modelos de execução. Experimentos foram realizados visando a validação, caracterização do algoritmo
e a comparação com outras téecnicas existentes na infraestrutura de compilação LLVM. Os resultados mostram que o algoritmo proposto, apesar de necessitar melhorias quanto ao tempo de compilação, pode obter ganhos de desempenho no código final gerado. |
Download |
|
|
Linha de Produtos de Software no Domínio de Portais e-Gov Acessíveis |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
25/03/2013 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
- Marcelo Augusto Santos Turine
|
Coorientador(es) |
|
Orientando(s) |
- Vitor Mesaque Alves de Lima
|
Banca |
- Maria Istela Cagnin Machado
- Renata Pontin de Mattos Fortes
|
Resumo |
As Tecnologias de Informação e Comunicação (TIC) têm se desenvolvido com intensidade nos últimos anos, espalhando-se pelo setor governamental por meio do que é chamado e-Gov ou Governo Eletrônico, representado pela informatização de suas atividades internas e pela comunicação com o público externo. As diretrizes do Governo Eletrônico brasileiro estimulam a cidadania, inclusão digital e no que tange ao desenvolvimento de software enfatizam a utilização de tecnologias open source, racionalização de recursos e o desenvolvimento colaborativo. Uma forma para essa informatização é a construção de portais governamentais. Os portais e-Gov são um meio para a democratização da informação e devem viabilizar o acesso a ela para todos os cidadãos sem distinção. Entretanto, grande parte dos portais e-Gov desenvolvidos não seguem os padrões Web e nem padrões de acessibilidade, o que inviabiliza o acesso à informação por pessoas com necessidades especiais. O reúso de software tem como objetivo principal o desenvolvimento de produtos de qualidade e economicamente viável utilizando artefatos já especificados, implementados e testados. Nesse contexto, visando consolidar uma plataforma para o desenvolvimento de portais e-Gov acessíveis, é apresentada uma plataforma baseada em software livre e tecnologias que promovem o reúso, racionalizando recursos e estimulando a colaboração entre órgãos governamentais. Dentre as diversas abordagens de reúso encontradas na literatura, optou-se, nesta proposta, por utilizar um processo de Linha de Produtos de Software (LPS), automatizado por meio do uso de frameworks, geradores de aplicação e repositório de reúso. Com a utilização de tais tecnologias, pretende-se desenvolver uma plataforma de LPS automatizada no domínio de portais e-Gov acessíveis, promovendo o reúso de software e o desenvolvimento colaborativo.
|
Download |
|
|
Otimização de colônias de formigas em CUDA: O problema da mochila e o problema quadrático de alocação |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
23/03/2013 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
|
Coorientador(es) |
|
Orientando(s) |
|
Banca |
- Edna Ayako Hoshino
- Edson Norberto Caceres
- Wellington Santos Martins
|
Resumo |
O problema da mochila binária multidimensional e o problema quadrático de alocação não possuem algoritmos exatos que encontrem a solução ótima em tempo viável para uma aplicação prática, a não ser que as instâncias sejam muito pequenas. Nestes casos, algoritmos aproximados, que não garantem encontrar a solução ótima, mas tentam encontrar uma próxima, podem ser utilizados. Dentre estes algoritmos, temos as meta-heurísticas, que são algoritmos não-dependentes do problema que iterativamente buscam no espaço de soluções uma solução satisfatória. Uma destas meta-heurísticas é a otimização de colônia de formigas, que imita o comportamento de formigas procurando por comida. Quando estas formigas caminham pelo território, depositam feromônios, que é o método de comunicação entre elas e as guiam a fontes de comida já encontradas. Devido ao poder de computação das placas de vídeo atuais, a implementação foi feita em paralelo usando CUDA, a linguagem para GPGPUs da NVIDIA. |
Download |
|
|
Métodos para Construção de Árvores Filogenéticas a partir de Redes Metabólicas |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
06/03/2013 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
- Fabio Henrique Viduani Martinez
|
Coorientador(es) |
|
Orientando(s) |
|
Banca |
- Luiz Carlos da Silva Rozante
- Said Sadique Adi
|
Resumo |
Desde a concepção da teoria da evolução, a determinação das relações evolutivas entre os organismos existentes tem sido um dos grandes desafios das Ciênias Biológias. Após o advento do sequenciamento de genomas de organismos, árvores logenéticas passaram a ser
concebidas baseadas na similaridade das sequências de pequenas subunidades ribossômicas ou de genes individuais. Com o avanço das téc
nicas de sequenciamento, uma grande quantidade de informações está atualmente disponível para consulta e análise e muitos métodos têm sido propostos para construção de árvores filogenéticas a partir de caraterísticas do genoma completo, tais como a composição de oligonucleotídeos, a ocorrência de fragmentos do genoma e a presença/ausência de caraterístias metabólicas. Ao mesmo tempo, muitos trabalhos têm sido direcionados no sentido da análise da similaridade dos processos metabólicos dos organismos, já que tais processos estão fortemente relacionados ao ambiente e à adaptação e manutenção do equilíbrio dos componentes de seu meio. Dessa forma, considerações sobre o metabolismo dos organismos podem revelar informações importantes sobre a interação entre os organismos e o ambiente onde vivem, como por exemplo simbiose ou adaptação a ambientes extremos. Neste trabalho, estudamos dois tipos de métodos para construção de árvores filogenéticas baseadas em redes metabólicas. No primeiro deles, uma via metabólica é fixada, as distâncias entre pares de vias metabólicas dos organismos são computadas e, finalmente, uma árvore filogenética é obtida a partir dessas distâncias. No segundo método, um conjunto de vias metabólicas é fixado e, para cada via, o mesmo processo é realizado, isto é, uma árvore filogenética é construída baseada nas distâncias entre as vias metabólicas nesses organismos. Em seguida, o conjunto de árvores assim obtidas é transformado em uma única árvore filogenética dos organismos de entrada. |
Download |
|
|
Detecção Automática de Anomalias em Ambientes Distribuídos Utilizando Redes Bayesianas |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
14/02/2013 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
|
Coorientador(es) |
|
Orientando(s) |
- Brivaldo Alves da Silva Junior
|
Banca |
- Fabio Moreira Costa
- Irineu Sotoma
- Ronaldo Alves Ferreira
|
Resumo |
Diagnosticar anomalias em grandes redes corporativas consome tempo considerável das equipes de suporte técnico, principalmente pela complexidade das inúmeras interações existentes entre as aplicações e os elementos de rede (servidores, roteadores, enlaces, etc.).
Nos últimos anos, vários trabalhos científicos propuseram ferramentas automatizadas para detecção de anomalias em ambientes distribuídos. As ferramentas são divididas em dois grandes grupos: as que usam abordagens intrusivas, em que as aplicações precisam ser alteradas para registrar eventos de comunicação e facilitar o rastreamento de proble- mas; e as não intrusivas, em que pacotes são capturados diretamente da rede e técnicas estatísticas são aplicadas para se inferir, com um certo grau de confiança, as possíveis causas dos problemas. As duas abordagens possuem vantagens e desvantagens. Entretanto, as técnicas não intrusivas são mais aceitas pela facilidade de implantação e também por não exigirem que aplicações já desenvolvidas sejam alteradas para incluir mecanismos de registro de eventos.
A abordagem mais completa e promissora para a solução desse problema, denominada Sherlock, utiliza traços de rede para construir automaticamente um Grafo de Inferência (GI) que modela as múltiplas interações e dependências presentes em um ambiente distribuído. Apesar do progresso feito por Sherlock na modelagem do problema, o seu tempo de execução para se inferir as possíveis causas e a precisão dos resultados de detecção das anomalias ainda deixam a desejar.
Este trabalho propõe Nemo, uma ferramenta que explora conhecimento específico do domínio do problema e uma propriedade teórica de Redes Bayesianas para reduzir significativamente um GI e, consequentemente, o tempo de execução. Resultados de simulação utilizando dados reais e sintéticos mostram que Nemo reduz o tempo de execução de Sherlock em mais de 90% e melhora sua precisão em todos os cenários simulados. Além disso, este trabalho também apresenta uma extensa revisão bibliográfica sobre o assunto e comparações qualitativas dos principais métodos propostos na literatura. |
Download |
|
|
GLPN - Uma Abordagem para Gestão de Linhas de Processos de Negócios |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
12/12/2012 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
- Maria Istela Cagnin Machado
|
Coorientador(es) |
|
Orientando(s) |
|
Banca |
- Debora Maria Barroso Paiva
- Elisa Yumi Nakagawa
- Maria Istela Cagnin Machado
|
Resumo |
Organizações lidam com ambientes em constante evolução de seus processos de negócios para satisfazer as necessidades de seus clientes. A Gestão por Processos de Negócio faz uso da Modelagem de Processos de Negócio com o intuito de aprimorar a gestão de conhecimento, medir o desempenho e promover a melhoria contínua de processos de negócio. No entanto, essa atividade despende tempo e esforço e é passível de erros. Nesse contexto, o reúso de modelos de processos de negócio permite uma maior agilidade em resposta à constante mudança do ambiente de negócio, reduzindo tempo, esforço e custos associados. Por outro lado, arcabouços de Linha de Produto de Software (LPS) fornecem mecanismos para reúso de componentes e artefatos de software por meio do gerenciamento de variabilidades. A essência da LPS pode ser adaptada para apoiar o reúso de modelos de processos de negócio. A investigação dessa união resulta na chamada Linhas de Processos de Negócios, uma área de pesquisa, ainda pouco explorada, composta por aspectos interdisciplinares de Engenharia de Software e Gestão Por Processos de Negócios. Diante do cenário exposto, este trabalho propõe uma abordagem de Gestão de Linhas de Processos de Negócio, para apoiar o ciclo de vida dos processos de negócio e promover a melhoria contínua alinhada às melhores práticas do domínio de negócio. Um estudo de caso foi conduzido para avaliar a etapa de instanciação de uma linha de processos de negócio por meio da abordagem proposta. A partir dos resultados obtidos nesse estudo de caso foi possível observar que a abordagem proposta necessita de apoio computacional, possui uma tendência a acelerar a modelagem de processos de negócio e apoia profissionais inexperientes a produzir modelos de processos de negócio com qualidade.
|
Download |
|
|
Infra-estrutura para Codificação de Código Baseada em Fatoração de Padrões |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
20/11/2012 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
- Ricardo Ribeiro dos Santos
|
Coorientador(es) |
|
Orientando(s) |
|
Banca |
- Fabio Iaione
- Ricardo Ribeiro dos Santos
- Rodolfo Jardim de Azevedo
|
Resumo |
Este trabalho apresenta o projeto e implementação da técnica de codificação de instruções PBIW (Pattern Based Instruction Word), baseada em fatoração de padrões, sobre o processador softcore embarcado denominado p-VEX. A técnica PBIW é implementada sobre uma infraestrutura de codificação de instruções que mapeia o código de saída de um compilador para o esquema de codificação PBIW em um processador alvo. A infraestrutura é construída com uma arquitetura modular e extensível que possibilita acoplar novos algoritmos codificadores e otimizadores, além de suporte a novos conjuntos de instruções e processadores. Neste trabalho foram projetadas e implementadas duas versões da técnica PBIW para o processador p-VEX e foram realizados experimentos estáticos e dinâmicos para validação e caracterização. Esses experimentos visam caracterizar detalhadamente a técnica PBIW sobre os efeitos gerados sobre o código do programa e sobre o processador alvo. Os resultados demonstram que a técnica PBIW oferece ganhos tanto na compressão do tamanho programa (resultados estáticos), quanto em área ocupada e dissipação de potência dinâmica. Os resultados também permitem notar que a utilização da técnica PBIW oferece oportunidades interessantes para exploração do espaço de projeto de decodificadores de código junto à via de dados e controle do processador alvo. A taxa de compressão média para
as versões 1.0 e 2.0 foram de 85,82% e 76,87% respectivamente. As taxas de compressões mínimas variaram de 94,35% e 105,00% e as taxas de compressão máximas variaram de 56,51% e 59,70%, respectivamente.
|
Download |
|
|
Estratégias de Otimização em GPU para Análise de Sequências Biológicas |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
08/10/2012 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
|
Coorientador(es) |
|
Orientando(s) |
|
Banca |
- Edson Borin
- Nahri Balesdent Moreano
- Ronaldo Alves Ferreira
|
Resumo |
Uma importante tarefa na área de Bioinformática é comparar uma sequência em relação a uma família de sequências e, dependendo do resultado obtido, incluir essa sequência na família em questão. HMMer [17, 18] é um conjunto de ferramentas bastante utilizado para realizar essa tarefa e aplica um algoritmo denominado algoritmo de Viterbi. Existem implementações do HMMer buscando ganhos de desempenho nas mais variadas plataformas. Entretanto, o tamanho das bases de sequências biológicas vem crescendo muito nos últimos anos, fazendo com que a comparação de sequências utilizando essas bases de dados se torne cada vez mais custosa em termos de tempo de processamento. Poucas implementações utilizam como plataforma de execução a GPU e avaliam esse dispositivo, que possui grande capacidade computacional e evoluiu muito nos últimos anos. Assim, este trabalho apresenta o desenvolvimento de soluções em GPU para o algoritmo de Viterbi aplicado à análise de sequências biológicas e avalia as maneiras mais eficientes de utilizar os recursos disponíveis nessa plataforma. O acelerador proposto alcança um ótimo desempenho, com speedup médio de 48,82 e máximo de 102,83, em relação ao HMMer2 executado em um computador convencional. O desempenho obtido também é superior ao alcançado por outros aceleradores em GPU descritos na literatura. |
Download |
|
|
Classificação de sequências metagenômicas |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
05/09/2012 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
- Nalvo Franco de Almeida Junior
|
Coorientador(es) |
|
Orientando(s) |
|
Banca |
- Luciana Montera Cheung
- Maria Emilia Machado Telles Walter
- Nalvo Franco de Almeida Junior
- Said Sadique Adi
|
Resumo |
|
Download |
|
|
Remontagem de genomas: uma avaliação das técnicas de novo e por comparação |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
05/09/2012 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
|
Coorientador(es) |
|
Orientando(s) |
- Sérgio Ronaldo Alves de Sousa Júnior
|
Banca |
- Luciana Montera Cheung
- Maria Emilia Machado Telles Walter
- Nalvo Franco de Almeida Junior
- Said Sadique Adi
|
Resumo |
|
Download |
|
|
Uma Estratégia para Publicação de um Linked Open Data Baseado em Data Warehouse |
|
Curso |
Mestrado em Ciência da Computação |
Tipo |
Dissertação |
Data |
28/08/2012 |
Área |
CIÊNCIA DA COMPUTAÇÃO |
Orientador(es) |
- Marcelo Augusto Santos Turine
|
Coorientador(es) |
|
Orientando(s) |
- Davison André Zangerolami de Oliveira
|
Banca |
- Debora Maria Barroso Paiva
- Marcelo Augusto Santos Turine
- Marilde Terezinha Prado Santos
|
Resumo |
O Ministério da Educação (MEC) e o Instituto de Estudos e Pesquisas em Educação Anísio Teixeira (INEP) vêm aplicando censos e avaliações educacionais a fim de auxiliar a tomada de decisão em relação às políticas educacionais no Brasil. Com isso, é preciso
que os dados gerados sejam transformados em dados estatístico-educacionais de forma ágil, auxiliando a visualização da realidade socioeducacional do país. Nesse contexto, este projeto visa trabalhar com os microdados do ENEM (Exame Nacional do Ensino Médio),
no período de 1998 até 2008, disponibilizados no formato ASCII, e transformá-los em um Data Warehouse (DW), o qual deve dar suporte a consultas analíticas que subsidiar~ao a tomada de decisão. Appós a finalização do DW,é realizada a criação de um Linked Open Data (LOD) para o ENEM, que se destina a dar suporte à pesquisa de informações de forma automatizada e também oferecer suporte à descoberta de novas ligações/associações entre os dados. Além disso, foram selecionados e analisados três processos open sources
para serem analisados: o primeiro utiliza as ferramentas Stdtrip, Triplify e Virtuoso; o segundo utiliza Ontowiki, Olap2DataCube e Virtuoso; e o terceiro processo utiliza as ferramentas Babel e Virtuoso, sendo que a ferramenta Olap2DataCube foi a escolhida para
uso no projeto, pois foi a que apresentou melhor desempenho no processo de triplificação. Dessa forma, a contribuição prática deste projeto é o desenvolvimento de um modelo de processo de publicação de Linked Data, consistindo na triplificação dos dados do DWENEM
e sua liberação para consulta via SPARQL no banco Virtuoso.
|
Download |
|
|