Universidade Federal de Pernambuco (UFPE)
Centro
de Informática (CIn)
Graduação em Ciência da Computação, Engenharia da Computação, e Sistemas de Informação

Trabalhos de Graduação - 2019.1


Ciência da Computação
Responsável: Prof. Juliano Iyoda (jmi@cin.ufpe.br)
Código
da disciplina no Google Sala de Aula: mbt13e

  1. Título: Análise e detecção de métodos usados para coleta de informações sensíveis em Crimes Cibernéticos
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Allan de Lima Araújo
    Curso: Ciência da Computação
    Orientador(a): Vinicius Cardoso Garcia
    Possíveis Avaliadores: Carla Taciana Lima Lourenço Silva
    Resumo da Proposta:

A tecnologia evolui rapidamente, a quantidade de dispositivos e aplicações usadas pelas pessoas tendem a aumentar com o passar do tempo. Devido ao avanço tecnológico, o uso da internet se torna cada vez mais essencial na vida das pessoas. O aumento do uso da internet e de novas tecnologias faz com que cada vez mais pessoas realizem operações envolvendo informações sensíveis, como o uso de cartões ou senhas de contas bancárias, logo mais dados estarão em tráfego na internet. Invasores que possam estar monitorando a rede, podem utilizar essa massa de dados gerados pelas pessoas para realizar crimes cibernéticos, extorquindo, comprometendo pessoas e ambientes corporativos, divulgando informações confidenciais, comprometendo a máquina com o intuito de identificar todo tráfego ou dado trafegado pela máquina, fazendo redirecionamento para páginas falsas e infiltração de dados. Este trabalho de graduação apresentará algumas dessas técnicas e formas utilizadas para roubo de informação.

Apresentação: dia: 28/06/2019, hora: 16:00, local: E121

  1. Título: Compreensão da Adoção da Linguagem Kotlin em Repositórios Android
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Albertinin Mourato Santos
    Curso: Ciência da Computação
    Orientador(a): Leopoldo Motta Teixeira
    Possíveis Avaliadores: Fernando José Castor de Lima Filho, Márcio Cornélio Lopes
    Resumo da Proposta:

Desde o início da década de oitenta, com a diminuição dos custos de produção de circuitos integrados e o aumento da capacidade computacional destes, o número de dispositivos móveis começou a crescer exponencialmente. Cada vez mais ouve-se falar de dispositivos menores que estão presentes em nosso dia a dia, facilitando e promovendo comodidade para os usuários. Em 2017 havia estimativas de que 7.22 bilhões de dispositivos móveis existiam ao redor do planeta [1]. Esse número tende a crescer ainda mais com o barateamento e evolução de dispositivos eletrônicos, além do crescimento do número de dispositivos e automação destes, o que deu origem ao termo "Internet das Coisas". Diante disso, novas linguagens de programação foram inventadas para ser utilizadas na programação desses dispositivos. Algumas outras, passaram por mudanças para se adaptar à crescente mudança de paradigma. Java é a linguagem de programação mais utilizada para programação de aplicações para dispositivos móveis que utilizam Android como Sistema Operacional (SO). O maior benefício da linguagem é o fato de poder-se escrever um só programa e ser executado em diferentes tipos de dispositivos, daí que veio o termo write once, run anywhere [2]. Atualmente, Java está presente em smartphones, smartwatches, smart TVs, entre outros dispositivos utilizados no cotidiano da maior parte da população. A necessidade de adaptação da linguagem com os dias atuais levou à criação de uma nova linguagem, chamada Kotlin. Kotlin é uma linguagem multiplataforma, assim como Java, mas que possui sintaxe mais concisa e menos verbosa, além de dar suporte a diferentes paradigmas de programação como, por exemplo, o paradigma funcional. Foi adotada pela Google, desenvolvedora do Android, como a linguagem oficial para o desenvolvimento na plataforma.

Apresentação: dia: 08/07/2019, hora: 14:00, local: E121

  1. Título: Segurança da informação em dispositivos móveis
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Alexandre Ferreira Cavalcante
    Curso: Ciência da Computação
    Orientador(a): Alexandre Marcos Lins de Vasconcelos
    Avaliadora: Jéssyka Flavyanne Ferreira Vilela
    Resumo da Proposta:

Dispositivos móveis estão evoluindo rapidamente e se tornaram populares. Os novos aparelhos permitem diversos tipos de conexões e uma troca de dados intensa. Para defender os dados dos dispositivos móveis contra acessos indevidos, algumas técnicas são utilizadas. Por meio de pesquisas realizadas, este trabalho apresentará algumas dessas técnicas, e também abordará algumas formas utilizadas pelos invasores para roubos de informação. Durante o desenvolvimento da pesquisa, será apresentada uma análise sobre o panorama da segurança da informação em dispositivos móveis. Ao final serão apresentadas algumas sugestões de medidas de segurança para dispositivos móveis com base na análise feita anteriormente.

Apresentação: dia: 04/07/2019, hora: 14:00, local: E122

  1. Título: Geração Procedural de Conteúdo ajustável por Game Designer
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Alexsandro Vítor Serafim de Carvalho
    Curso: Ciência da Computação
    Orientador(a): Geber Ramalho
    Possíveis Avaliadores:
    Resumo da Proposta:

Geralmente ao se desenvolver um jogo, é necessário incluir desafios e obstáculos para o jogador para que o mesmo possa superá-los ao jogar. Esses obstáculos podem existir na forma de mapas, inimigos, restrições de recursos, regras adicionais, bem como combinações desses elementos citados. A inclusão desses conteúdos no jogo deve ser planejada por um game designer, que elabora os obstáculos, onde e quando eles serão utilizados. Por ser um processo manual, o desenvolvimento das fases do jogo é limitado pela velocidade com que o game designer consegue pensar e testar suas ideias. Uma alternativa a esse processo manual é a geração procedural de conteúdo. Neste caso, as fases do jogo são produzidas por algoritmos, que geram ou combinam aleatoriamente assets do jogo. Além de ser um processo mais rápido, ele pode ser executado durante a sessão de jogo, o que fortalece o replay value do mesmo ao gerar desafios inéditos para o jogador continuamente. Apesar disso, a automatização da geração de conteúdo tem suas limitações. O processo manual permite o planejamento não só de cada obstáculo e da recompensa por superá-lo individualmente mas também da relação deles como um todo. Ao longo do jogo, o jogador possuirá diferentes níveis de habilidade, acesso a recursos e a mecânicas do mesmo. Esses fatores são levados em consideração pelo game designer, que ajusta os desafios em resposta a eles, mantendo a dificuldade do jogo alta o bastante para torná-lo desafiador, mas não o bastante para torná-lo frustrante. Dada a importância desse equilíbrio para o prazer fornecido pelo jogo, é interessante que os envolvidos na produção do jogo mantenham um controle sobre a dificuldade em cada ponto dele. Um algoritmo completamente aleatório, por outro lado, não é capaz de prever o nível de habilidade do jogador ou quais recursos estão disponíveis ao mesmo, o que o torna menos eficiente em manter esse equilíbrio na dificuldade do jogo. O objetivo deste trabalho de graduação é desenvolver uma ferramenta de geração de conteúdo que seja capaz de gerar novas fases aleatoriamente, mas que ainda consiga aplicar o conhecimento do game designer e a sua visão geral do jogo, beneficiando-se dos pontos positivos de ambas as abordagens. Essa ferramenta será aplicada no desenvolvimento das fases do jogo Shooter, da Manifesto Game Studio. É esperado que a ferramenta desenvolvida consiga tanto gerar fases com certo nível de aleatoriedade para tornar cada partida diferente uma da outra, como também que ela possa ser ajustável pelo game designer de forma que o mesmo seja capaz de controlar a experiência geral do jogo.

Apresentação: dia: 01/07/2019 , hora: 10:00, local: E113

  1. Título: Criação de uma base de dados biológica a partir de extração da informação de bases textuais
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Allyson Manoel Nascimento Venceslau
    Curso: Ciência da Computação
    Orientador(a): Luciano de Andrade Barbosa
    Possíveis Avaliadores: Ricardo Bastos Cavalcante Prudêncio
    Resumo da Proposta:

Com a popularização da web e a criação de redes sociais a, quantidade de dados trafegados cresceu exponencialmente. Essas informações podem ser encontrar de forma estruturadas, semi-estruturadas e não estruturadas. Dados estruturados têm um boa organização, algo que permite que as informações relacionadas a eles sejam recuperadas de forma rápida. Podemos citar, como exemplo, os dados de bancos de dados relacionais, como os bancos SQL e algumas linguagens de marcação, como o XML. Dados não-estruturados se encontram na forma de linguagem natural. São textos que não apresentam nenhuma marcação que identifique a que os dados se referem. Podemos citar como exemplo, artigos da web, artigos acadêmicos e tweets. Dados semi-estruturados são aqueles que embora se encontrem em forma de linguagem natural apresentam algum tipo de identificação de seu conteúdo. Por exemplo, tabelas com especificação de um produto em sites de venda. O modo mais prático de fazer análises de dados é utilizando base de dados estruturadas, porém nem sempre existe uma base dados estruturada disponível. E possível transformar base dados não estruturadas ou semi-estruturadas em bases estruturadas através de processos que envolvem utilização de recuperação da informação e técnicas de processamento de linguagem natural. Visto que muitos dados de domínios específicos ou muito restritos estão disponíveis na internet, porém não de forma estruturada, muitos profissionais de diversas áreas das ciências biológica tem tirado grande proveito de criação de bases de dados utilizando essas técnicas[1]. O objetivo deste estudo consiste em criar uma base dados estruturada sobre amostras de DNA extraídas a partir do Gene Expression Omnibus (GEO), uma base dados semi-estruturada que hospeda um grande número de experimentos de arrays de DNAm. Visto que a anotação manual de amostras de DNAm requer um especialista humano e é inviável para uma grande quantidade de dados não rotulados. Este projeto propõe o uso de abordagens de aprendizado de máquina para reduzir o esforço de anotar dados de DNAm. Para isso, investigaremos o uso de técnicas de mineração de texto para extração de informação, que examina padrões dentro e ao redor dos atributos da amostra nos dados para construir um modelo para extração.

Apresentação: dia: 03/07/2019, hora: 14:00, local: E203

  1. Título: UMA APLICAÇÃO PARA O AUXÍLIO NO TRATAMENTO DE INCONTINÊNCIA URINÁRIA DE ESFORÇO
    TG:
    Proposta inicial: aqui
    Autor(a): Antônio Carlos Portela Rodrigues
    Curso: Ciência da Computação
    Orientador(a): Leopoldo Motta Teixeira
    Possíveis Avaliadores: Verônica Teichrieb, Kiev Gama
    Resumo da Proposta:

A perda involuntária de urina representa um problema social e higiênico para uma parte significativa da população mundial, em especial mulheres com mais de 40 anos [1]. Entre os fatores que afetam a qualidade de vida dessas pessoas estão a baixa autoestima, ansiedade e embaraço. A maioria, no entanto, não procura orientação médica, muitas vezes por vergonha ou desconhecimento do próprio corpo. Dentre os tipos de incontinência urinária estão a de esforço, urgência e mista. No primeiro caso ocorre uma pequena perda de líquido, geralmente decorrente de tosse, espirro, soerguimento de objetos pesados, ou algo que venha a tensionar a musculatura abdominal. Seu tratamento é feito mediante o fortalecimento da musculatura do períneo, localizado no assoalho pélvico. Essa região, quando devidamente tonificada, atua no suporte à bexiga, evitando a perda involuntária de urina. Alguns fatores que dificultam esse processo são o stress, alteração hormonal, obesidade, obstipação e gravidez [2]. O tratamento da incontinência urinária de esforço pode ser realizado através de diferentes técnicas, entre elas o biofeedback, a eletroestimulação e o treinamento da musculatura pélvica. Na primeira, como o nome sugere, são apresentadas informações, através de respostas táteis, auditivas ou visuais, com o objetivo de conscientizar o paciente sobre a região fragilizada. Na eletroestimulação, sucessivos estímulos são emitidos para contrair e relaxar a região a fim de tonificá-la. Já os exercícios perineais propostos pelo ginecologista Arnold Kegel [3], em 1948, têm se mostrado bastante efetivos ao longo dos anos, podendo facilmente ser realizado em diversos ambientes. O tratamento, no entanto, a depender do caso, pode durar meses. O objetivo principal deste trabalho é o desenvolvimento de um aplicativo Android para auxiliar mulheres no tratamento da incontinência urinária de esforço através de exercícios simples, que possam ser praticados em qualquer local, reduzindo a dependência do profissional de saúde. Para tal, alguns pré-requisitos são fundamentais: a conscientização do problema por parte das pacientes, uma vez que boa parte não conhece o próprio corpo nem sabe identificar distúrbios miccionais, e o acompanhamento da frequência dos exercícios por um profissional.

Apresentação: dia: , hora: , local:

  1. Título: Seleção dinâmica de técnicas de aprendizado para predição de quantidade de falhas em softwares
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Antonio José Gadelha de Albuquerque Neto
    Curso: Ciência da Computação
    Orientador(a): George Darmiton da Cunha Cavalcanti
    Possíveis Avaliadores: Cleber Zanchettin
    Resumo da Proposta:

Identificar potenciais erros no desenvolvimento de softwares é uma atividade que possui grande relevância no mercado, pois possuir a capacidade de prever quais módulos do projeto têm mais chances de falhar pode ser determinante para o desenvolvimento das ferramentas, principalmente nos momentos de alocação e gerenciamento de recursos [1]. Utilizar técnicas de aprendizagem de máquina, em que o computador “aprende” a tomar decisões baseado em dados passados, é a melhor forma de tentar detectar falhas nos sistemas com antecedência, já que essa é uma atividade de alta complexidade para ser realizada apenas por humanos. Existem diversas técnicas de aprendizado que servem para realizar predições, cada uma se comportando de maneira diferente[2]. Considerando que software é um termo muito amplo, existem muitos projetos com características bem distintas, então utilizar apenas uma técnica de aprendizado para realizar a predição de erros costuma ter resultados que funcionam bem para um determinado grupo de sistemas, mas que não possuem boa capacidade de generalização[3]. Para se obter resultados melhores, pode-se tentar utilizar múltiplas técnicas para que os problemas possam ser atacados de maneira especializada, visando alcançar um bom desempenho para todos os tipos de softwares. Existem algumas formas diferentes de se utilizar múltiplos algoritmos para fazer a predição. Uma delas é escolher previamente uma técnica de acordo com as características específicas de cada sistema a ser testado. Com um conjunto de dados de treinamento em mãos, primeiro procura-se agrupar os módulos dos projetos de acordo com seus atributos, para que módulos similares compartilhem do mesmo grupo. Entendendo que os grupos possuem alto índice de similaridade, possivelmente as técnicas de aprendizado vão ter uma decisão parecida para cada componente de um grupo, dessa forma pode-se definir qual abordagem possui o melhor desempenho para cada um dos agrupamentos. No momento em que um módulo desconhecido vier a ser testado para a predição, com base em suas características, determina-se a qual grupo ele pertence e se escolhe o algoritmo de aprendizagem que possui os melhores resultados dentro daquele grupo, com isso obtém-se o modelo que provavelmente dará a resposta mais próxima da ideal para esse módulo de teste. Um estudo recente propôs essa seleção dinâmica de técnicas para realizar a regressão do número de falhas nos softwares, que determina a quantidade potencial de problemas[3]. No estudo é citado que essa área de regressão em predição de falhas é pouco explorada e que a abordagem utilizada por eles é bem particular. A proposta desse trabalho de graduação é alcançar os resultados obtidos em [3] e propor melhorias na fase de treinamento para que os resultados obtidos possam ser ainda melhores e com mais poder de generalização. O principal objetivo desse trabalho de graduação é propor uma nova abordagem de seleção dinâmica de técnicas de aprendizagem de máquina para prever a quantidade de falhas em sistemas de softwares, de forma a obter resultados robustos para diferentes tipos de modelos.

Apresentação: dia: 02/07/2019, hora: 10:00, local: E201

  1. Título: Extração de Dados em Anúncios de Imóveis
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Arthur Bezerra de Freitas
    Curso: Ciência da Computação
    Orientador(a): Luciano de Andrade Barbosa
    Possíveis Avaliadores: Paulo Salgado Gomes de Mattos Neto
    Resumo da Proposta:

Com o amplo uso da internet na atualidade, a quantidade de dados gerados diariamente na Web é enorme, principalmente, de dados não estruturados e semiestruturados. Do ponto de vista computacional, esses tipos de dados não são tão úteis quanto os estruturados, que podem ser usados em várias aplicações como, por exemplo, em bases de conhecimento e Big Data. Para atender a essa demanda por informação estruturada a área de extração de informação se utiliza de técnicas de processamento de linguagem natural que buscam extrair automaticamente esse tipo de elemento de textos gerados por pessoas. Uma das questões que a extração de informação tenta solucionar é o problema de dados faltantes em bases de conhecimento, onde se tem parte dos dados organizados de forma estruturada e a parte que falta para completude das informações pode ser extraída de dados não estruturados. Esse problema pode ser observado em Infoboxes de entidades da Wikipedia que muitas vezes têm atributos faltantes que poderiam ser extraídos do próprio artigo[1]. Esse problema também ocorre no contexto de anúncios de imóveis. Um hábito recorrente de usuários desse serviço é não preencher campos específicos dos anúncios. A ausência desses campos onde os dados são estruturados acabam dificultando a localização do anúncio por possíveis compradores ao filtrar o portal, além de impossibilitar análise dos dados, como predição de preços baseado em atributos por exemplo. Algo que poderia ser contornado se os dados faltantes fossem extraídos da descrição em texto livre do imóvel. Neste trabalho, pretendemos utilizar técnicas de extração de informação e distant supervision para a partir do texto dos anúncios de imóveis, extrair seus atributos como área, número de quartos, etc. Este trabalho se propõe a utilizar e avaliar soluções existentes para preencher atributos faltosos em entidades no domínio de anúncios de imóveis. Em um primeiro momento, será executada a coleta e o pré-processamento de dados de anúncios. Em seguida, será realizada a adaptação e a aplicação sobre esse novo corpus com a análise de métricas, buscando validar o uso das soluções.

Apresentação: dia: 02/07/2019, hora: 14:00, local: E203

  1. Título: Análise comparativa das abordagens para teste de interface gráfica em dispositivos móveis
    TG:
    Proposta inicial: aqui
    Autor(a): Arthur Jorge Ebrahim Wanderley
    Curso: Ciência da Computação
    Orientador(a): Leopoldo Motta Teixeira
    Possíveis Avaliadores:
    Resumo da Proposta:

No processo de busca pela qualidade e excelência de um determinado software é indispensável o uso de testes para validar o sistema ou encontrar possíveis bugs. Teste de software é um processo ou uma série de processos feitos para garantir tanto que o código faça o que foi proposto bem como que não faça nada inesperado [1]. No contexto de dispositivos móveis, em especial os dispositivos Android, essa escalada se torna aparente. De acordo com dados da Google Play, a loja de aplicativos oficial do sistema operacional, estão disponíveis cerca de 3 milhões de aplicações Android, cobrindo mais de 30 categorias, que vão desde o entretenimento e personalização até aplicativos educacionais e financeiros[2]. Tal quantidade de aplicativos exige que o software esteja preparado para suportar diversas circunstˆancias sem trazer nenhum tipo de prejuízo para o usuário final. Uma das categorias que pode ser usada para se testar e validar um software é o teste de interface gráfica. O teste de interface gráfica consiste em reproduzir sequências de ações que poderiam ser realizadas por um usuário final, a fim de encontrar bugs no software durante a execução. Hoje em dia na literatura existem várias técnicas que tem como objetivo a busca por falhas através de testes de interface gráfica [3]–[5]. Contudo, não existem estudos para medir a eficácia dessas ferramentas, pois a noção de eficácia pode variar dependendo do objetivo dos testes. Por exemplo, com certas aplicações não importa a quantidade de casos de teste criados, mas sim a cobertura e o tempo de execução destes testes [4]. O objetivo deste estudo consiste em fazer uma análise comparativa das ferramentas de teste de interface gráfica (GUI) em dispositivos móveis, a fim de: − Mostrar qual das ferramentas estudadas apresenta os melhores resultados, utilizando parˆametros pré-definidos. − Identificar as ferramentas mais adequadas a serem usadas em contextos específicos, onde os parˆametros pré-definidos passam a ter pesos distintos.

Apresentação: dia: , hora: , local:

  1. Título:Índices flexı́veis baseados em minimisers para busca aproximada de padrões em textos volumosos
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Arthur Lapache Pimentel Gesteira Costa
    Curso: Ciência da Computação
    Orientador(a): Paulo Gustavo Soares da Fonseca
    Possíveis Avaliadores: Nivan Ferreira Júnior e Gustavo Carvalho
    Resumo da Proposta:

Um problema algorı́tmico básico consiste em procurar ocorrências aproximadas de um padrão P num texto T (ou coleção de textos) de muito maior tamanho. Quando o texto é fixo, um ı́ndice I(T) é construı́do de forma a permitir que ocorrências de padrões sejam nele encontradas sem a necessidade de se percorrê-lo por completo. Diversos ı́ndices foram propostos na literatura, com relações diversas entre espaço de memória e tempo de busca. Em aplicações com grandes volumes de dados, como em Biologia Computacional, ı́ndices completos tradicionais como árvores de sufixos ou vetores de sufixos, que representam todas as subcadeias do texto, podem requerer um espaço proibitivo. Alternativamente, alguns ı́ndices parciais recentemente propostos representam apenas um subconjunto de subcadeias de tamanho fixo k, chamados minimisers. Esses ı́ndices são combinados a heurı́sticas de busca que permitem localizar ocorrências aproximadas de um padrão a partir de extensões de ocorrências exatas de subcadeias de tamanho fixo. Em geral, temos como caracterı́sticas conflitantes o tamanho do ı́ndice, sua relação entre sensibilidade e especificidade, e o tempo da busca. Esses fatores são diretamente influenciados pela escolha de quais, quantos e de que tamanho serão os minimisers indexados, e de como serão combinados para a busca. O objetivo deste trabalho é estudar a relação entre esses fatores e propor algoritmos e estruturas de dados que permitam uma parametrização flexı́vel para uma busca eficiente e com espaço reduzido.

Apresentação: dia: 05/07/2019, hora: 08:30, local: D003

  1. Título: Um algoritmo eficiente em tempo e espaço para o problema do ancestral comum mais profundo em arvores e grafos acíclicos
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Daniel Cândido Cauás
    Curso: Ciência da Computação
    Orientador(a): Paulo Gustavo Soares da Fonsceca
    Possíveis Avaliadores: Silvio Melo, Gustavo Carvalho
    Resumo da Proposta:

Um problema algorítmico recorrente em areas diversas como Engenharia de Software ou Biologia Computacional, é o de encontrar o ancestral comum mais profundo (Lowest Common Ancestor — LCA) em arvores e/ou grafos dirigidos. As principais soluções existentes consistem em pré-processar a árvore para facilitar a consulta, e portanto, são avaliadas em termos do tempo e espaço de pré-processamento e de consulta. O objetivo desse trabalho é propor uma solução simples para consultas de LCAs (queries) sucessivas e avaliar o seu desempenho em termos teóricos e práticos com respeito ao tempo de pre-processamento, consulta e uso de memória, em comparação a algumas soluções consagradas encontradas na literatura.

Apresentação: dia: 04/07/2019, hora: 10:00, local: D004

  1. Título: Sistema de recomendação baseado em filtragem colaborativa em uma base de dados de feedback implícito
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Danielle Sales de Oliveira
    Curso: Ciência da Computação
    Orientador(a): Ricardo Bastos Cavalcante Prudêncio
    Possíveis Avaliadores: Patrícia Cabral de Azevedo Restelli Tedesco
    Resumo da Proposta:

Sistemas de recomendação baseados em filtragem colaborativa são usados para sugerir itens para um determinado usuário a partir da opinião de outros usuários parecidos. Esta opinião pode ser coletada de forma implícita ou explícita e, apesar do feedback implícito ser mais comum na prática, o explícito ainda é mais comum na literatura. O objetivo deste trabalho é implementar e analisar técnicas de filtragem colaborativa em um conjunto de dados de feedback implícito.

Apresentação: dia: 03/07/2019, hora: 14:30, local: E203

  1. Título: UM ESTUDO COMPARATIVO DE ALGORITMOS PARA SÍNTESE DE CÓDIGOS
    TG: aqui
    Proposta inicial: aqui
    Autor(a): DIVINO GERVASIO DE MENEZES NETO
    Curso: Ciência da Computação
    Orientador(a): Juliano Iyoda
    Possíveis Avaliadores: Alexandre Cabral Mota
    Resumo da Proposta:

Todo o mercado de software da atualidade se limita por uma premissa de grande relevância: programas de computador somente podem ser escritos por profissionais qualificados. Apesar de essa ser a realidade em que vivemos, nada impede de mapearmos o problema de fazer um programa como um problema a ser resolvido por um programa já existente. Quando definimos a geração de código dessa maneira, podemos criar especificações de um comportamento esperado para um programa e usar um método para gerar um código que atenda a essas especificações. Existe um conjunto de métodos que seguem a ideia de que toda especificação deve ser completa. Em outras palavras, toda especificação deve conter todos os casos de testes ou uma definição formal que possa testar todas as entradas e saídas. Essa abordagem costuma ser bastante limitante: a maioria dos programas a serem sintetizados tem um conjunto não finito de entradas possíveis, além de esses métodos necessitarem de forte contexto matemático [1]. Esses métodos são chamados de programação dedutiva. Em contrapartida, existem os métodos de programação indutiva e programação genética, que assumem que a especificação não cobre todos os casos possíveis. Ambos são fortemente influenciados por correntes modernas do aprendizado de máquinas. A programação genética, em específico, trata tarefas de geração de programas como instâncias de problemas de otimização, vendo as especificações como uma função de fit para o programa a ser gerado [1]. Mesmo com essa diversidade de soluções que tentam seguir caminhos complementares, o estado da arte ainda é muito limitado quanto a capacidade de gerar código automaticamente. Por não existir uma solução muito escalável, métodos formais ainda são empregados para a produção de códigos críticos, como o assistente de provas Coq [1]. O objetivo dese trabalho é definir um conjunto de métricas para avaliar métodos de síntese de código e usá-las para comparar 2 métodos distintos, sendo um de programação genética [2] e um de programação indutiva [3].

Apresentação: dia: 05/07/2019, hora: 10:00, local: Auditório

  1. Título: LIMITES E POSSIBILIDADES DA LEI DE INFORMÁTICA NO BRASIL
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Eduardo de Abreu Almeida
    Curso: Ciência da Computação
    Orientador(a): José Carlos Cavalcanti
    Possíveis Avaliadores: Profa. Carla Taciana Lima Lourenço, Profa. Carina Frota Alves
    Resumo da Proposta:

A Lei no 8248 de 1991, conhecida desde então como “Lei de Informática”, é responsável por grandes avanços no setor de Tecnologias da Informação e Comunicação (TICs) no Brasil. Criada para estimular a competitividade e capacitação técnica das empresas no País, a Lei de Informática concede uma série de benefícios fiscais em contrapartida à investimentos locais em Pesquisa e Desenvolvimento (P&D), e atendimento ao Processo Produtivo Básico (PPB). Ao longo dos anos, os grandes players do setor de TICs passaram a atuar no Brasil e as empresas beneficiadas pela Lei 8248/91 não apenas estabeleceram parcerias com Instituições de Ciência e Tecnologia (ICTs), e Universidades, mas também instalaram seus próprios centros de P&D. Esses investimentos são responsáveis pelo surgimento de centros de excelência e, consequentemente, formação de capital humano de qualidade para o país. É importante destacar que a legislação determina também que parte dos recursos destinados a P&D sejam em ICTs das regiões Norte e Nordeste. Contudo, em 2014, o Tribunal de Contas da União divulgou um relatório intitulado “Auditoria na Lei de Informática” com o objetivo de “examinar as condições disponíveis para que os gestores públicos avaliem os resultados da Lei 8248/1991”. A fiscalização do TCU encontrou graves falhas e ausências na gestão da Lei de Informática e nos processos de monitoramento e avaliação dos dispositivos de P&D e do PPB. A partir de 2015, após contenciosos contra o Brasil registrados pela União Européia e Japão, a Organização Mundial do Comércio (OMC) considerou as políticas brasileiras de incentivos fiscais concedidos aos setores de informática, telecomunicações e automotivo discriminatórias. Com essa decisão, o Governo Federal anunciou que a Lei de Informática deverá ser revista. A última alteração na Lei de Informática ocorreu em 2014 e prorrogou sua validade até 2029. Tais mudanças completam e atualizam a legislação que trouxe muitos avanços para o país, e são necessárias para acompanhar o dinamismo do setor de TICs. Espera-se que a próxima revisão na Lei de Informática vá além das objeções levantadas pela OMC e seja adequada aos novos tempos, incluindo etapas de produção de maior valor agregado, áreas de software e empreendedorismo digital. O objetivo central do trabalho de graduação proposto é investigar os impactos gerados ao longo dos anos pela “Lei de Informática” no País e, a partir de um contexto atual, analisar suas conquistas, limitações e principais desafios, examinando potenciais cenários futuros para a lei.

Apresentação: dia: 05/07/2019, hora: 09:00, local: E121

  1. Título: Um sistema de tomada de decisão sensível ao contexto para ​offloading computacional em loudlets.
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Eduardo Henrique Alves Maia Mattos Oliveira
    Curso: Ciência da Computação
    Orientador(a): Kelvin Lopes Dias
    Possíveis Avaliadores: Carlos Ferraz, José Suruagy Monteiro
    Resumo da Proposta:

Offloading computacional em computação em nuvem móvel, ou Mobile Cloud Computing (MCC), tem atraído muita atenção pelos seus benefícios em economia de energia e melhorias de desempenho. No entanto, o offloading computacional estático apresenta um baixo desempenho por ignorar informações contextuais. Estudos recentes destacam o uso de informações contextuais para o melhoramento da decisão de offloading, porém ainda há desafios sobre o ambiente dinâmico de MCC. Várias soluções oferecem uma única técnica de decisão ou não consideram algoritmos de classificação mais recentes e robustos. Além disso, os trabalhos atuais, em geral, não levam em conta que o sistema precisa ser realimentado via retreinamento e que sem isso, em ambientes do mundo real, podem haver decisões incorretas baixando o desempenho do sistema como um todo. Então, esse trabalho propõe um sistema de offloading sensível ao contexto, que tira proveito de várias técnicas de classificação binária para tomar decisões sobre a realização ou não do offloading computacional, retreinando o modelo do algoritmo.

Apresentação: dia: 01/07/2019, hora: 15:00, local: E124

  1. Título: Análise de Processos de Testes de Software em Organizações
    TG:
    Proposta inicial: aqui
    Autor(a): Edymir Étienne Borges Lopes Semedo
    Curso: Ciência da Computação
    Orientador(a): Alexandre Marcos Lins de Vasconcelos
    Possíveis Avaliadores: Juliano Iyoda, Leopoldo Teixeira
    Resumo da Proposta:

Qualidade de software é o quão bem o software foi projetado e quão bem ele está de acordo com o uso pretendido e o se está satisfazendo todas as características de qualidade e de acordo com a satisfação do usuário (1). O processo de executar esse software num ambiente controlado o objetivo de avaliar se ele se comporta conforme o especificado é o que chamamos de Teste de software (2). Com o objetivo de auxiliar na identificação, avaliação e melhoria de processos de software foram criados modelos de maturidade como o CMM (Capability Maturity Model) em 1991, CMMI (Capability Maturity Model Integration) em 2000 e o MPS.Br (Melhoria do Processo de Software Brasileiro) proposto em 2003 (3). Com o crescimento e valorização da área de testes, novos modelos como o TMM (Test Maturity Model), TMMi (Test Maturity Model Integration) e MPT.Br (Melhoria do Processo de Testes Brasileiro) foram criados de forma a dar suporte especificamente a processos de teste de software com objetivo de garantir a qualidade do produto (3). Além destes modelos, temos também os métodos ágeis promovem a interação contínua entre desenvolvedor e testador, o que contribui na melhoria da qualidade de entrega, correção rápida de defeitos (4). As organizações podem optar por adotar um modelo híbrido, juntando dois modelos de maturidade ou um modelo de maturidade e uma metodologia ágil, dependendo das características da própria organização. Este trabalho tem como objetivo geral mapear e analisar os processos de testes de software numa organização e, a partir desta análise, identificar pontos de melhoria baseado em modelos de maturidade e/ou metodologias de desenvolvimento de software.

Apresentação: dia: , hora: , local:

  1. Título: TECNOLOGIA DA INFORMAÇÃO NA IMPLANTAÇÃO DE RECURSOS DE ENERGIA DISTRIBUÍDOS
    TG:
    Proposta inicial: aqui
    Autor(a): Emanuel Felipe Inácio da Silva
    Curso: Ciência da Computação
    Orientador(a): José Carlos Cavalcanti
    Possíveis Avaliadores: Kiev Santos da Gama
    Resumo da Proposta:

Nos últimos anos, houve um notável crescimento na inserção de Recursos de Energia Distribuídos no setor de energia. Em 2017 o World Energy Council indicou que no período entre 2017 e 2025, vários países devem passar por uma transição dos sistemas clássicos centralizados de distribuição de energia para sistemas híbridos. Esse crescimento e as próprias características inerentes à definição de Recursos de Energia Distribuídos denotam um potencial alto de transformação nos Sistemas de Distribuição de Energia Centralizados predominantes hoje em dia. Tal transformação deve mudar a direção do fluxo de energia nos Sistemas de Distribuição de Energia, bem como aumentar a complexidade dos sistemas atuais. Essas transformações no setor de energia criam uma demanda pela correta e eficiente implantação de tecnologias pertencentes ao setor de Tecnologia da Informação para o eficiente planejamento e operação das Malhas Energéticas. Os domicílios ou empresas, que no setor de energia participam sempre como consumidor, agora tomam um papel mais ativo na malha energética podendo contribuir ativamente para a geração e armazenamento de energia. Desse modo, se torna necessário o auxílio de técnicas de Big Data e a correta implantação de estratégias de Internet das Coisas para que se possa mensurar os reais benefícios da implantação de Recursos de Energia Distribuídos, bem como suas limitações. A introdução de Recursos de Energia Distribuídos tem impacto direto na distribuição, transmissão e geração de energia. Se essa introdução é otimizada, vantagens como o descongestionamento de linhas de fluxo energético, correta priorização dos investimentos, e correta mensuração da capacidade de geração podem ser alcançadas. A otimização da implantação de Recursos de Energia Distribuídos requerem a coleta e processamento de grandes volumes de dados relacionados à geração, transmissão, armazenamento, consumo e tarifação, em larga escala e com acesso imediato. A instalação de smart meters (medidores inteligentes) é uma das condições primordiais para que o setor seja mais informatizado proporcionando a coleta desse volume de informações. O conceito de Big Data e o avanço da Internet das Coisas devem moldar o processo de implantação dos Recursos de Energia Distribuídos, aumentando a conectividade dos geradores distribuídos, veículos e construções. O trabalho proposto tem por objetivo destacar a importância da Tecnologia da Informação, na correta mensuração e manutenção do sistema elétrico distribuído. Os desafios inerentes da implantação de técnicas da área de Big Data e Internet das Coisas nesse contexto, assim como a necessidade da correta implantação de coletores de dados na infraestrutura de transmissão e armazenamento dos recursos elétricos distribuídos, em larga escala e com acesso imediato.

Apresentação: dia: , hora: , local:

  1. Título: Extensão e comparação didática através do processamento de eventos complexos vs linguagem reativa em Swift.
    TG:
    Proposta inicial: aqui
    Autor(a): Franclin Cabral Menezes de Oliveira
    Curso: Ciência da Computação
    Orientador(a): Kiev Gama
    Possíveis Avaliadores: Leopoldo Motta Teixeira e Fernando José Castor de Lima Filho
    Resumo da Proposta:

Esse trabalho dará continuidade no desenvolvimento do framework CEPSwift com a extensão da mesma adicionando novos operadores já implementados em linguagens reativas e não utilizados em CEP voltado para swift, correções de alguns operadores que não atendem casos mais específicos mantendo a confiabilidade e independência dos operadores. As técnicas implementadas no projeto serão utilizadas para o desenvolvimento de um aplicativo iOS onde de forma didática pretendo comparar CEPSwift com RXSwift.

Apresentação: dia: 02/07/2019, hora: 10:00, local: E121

  1. Título: Platform Business Transition: from Product to Ecosystem
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Higor Cavalcanti Machado Botelho
    Curso: Ciência da Computação
    Orientador(a): Carina Frota Alves e George Valença
    Possíveis Avaliadores: Kiev Gama, Cristiano Coelho de Araujo
    Resumo da Proposta:

In October of 2008, Nathan Blecharczyk, Brian Chesky and Joe Gebbia designed a website that would allow anyone, anywhere, to make a spare sofa or guest room available to travelers. In exchange, the company—now dubbed Air Bed & Breakfast (Airbnb)—would simple take a slice of the rental fee. Today, Airbnb is a giant enterprise active in 119 countries, where it lists over 500,000 properties ranging from studio apartments to actual castles and has served over ten million guests. In its last round of investment funding (April 2014), the company was valued at more than $10 billion—a level surpassed by only a handful of the world’s greatest hotel chains. In less than a decade, Airbnb has siphoned off a growing segment of customers from the traditional hospitality industry—all without owning a single hotel room of its own. How can a major business segment be invaded and conquered in a matter of months by an upstart with none of the resources traditionally deemed essential for survival, let alone market dominance? And why is this happening today in one industry after another? The answer is the power of the platform—a new business model that uses technology to connect people, organizations, and resources in an interactive ecosystem in which amazing amounts of value can be created and exchanged. Airbnb, Uber, Alibaba, and Facebook are just four examples from a list of disruptive platforms that includes Amazon, YouTube, eBay, Wikipedia, iPhone, Upwork, Twitter, KAYAK, Instagram, Pinterest, and dozens more. Each is unique and focused on a distinctive industry and market. And each has harnessed the power of the platform to transform a swath of the global economy. Many more comparable transformations are on the horizon [1]. Present in more than 400 cities and more than 70 countries, Uber foresees a $120 billion evaluation for 2019—more than the evaluations of Ford, General Motors and Fiat together, some of the most successful brands in the world. All without owning a single car of its own. And today, at least 20% of its rides over the entire world are coming from UberPOOL, an alternate service released by the company years later to complement the traditional UberX. Just as Uber, new products and services are emerging everyday on platform companies. Airbnb has evolved to selling not only rooms, but also experiences. Apple has an suite of products and services that overlaps and Facebook is managing to create a living ecosystem of apps. A range of companies are now interested in establishing its own ecosystems seeking the many advantages that comes with this approach. Soaring innovation and attractivity to new users as consequence, reduced time to market, an increase in business opportunities and collaboration between ecosystem actors [2]. And while some companies design their ecosystems from scratch, it’s much more common companies emerge ecosystems from existing products because that allows the company to enhance the values of its core services through continuous integration with new and external products and services. As the examples of Airbnb and Uber both demonstrate, the successful introduction of ecosystems can rapidly undermine apparently unassailable positions in seemingly matured and settled industries. With the continuous diffusion of ICT technologies across industry sectors and the associated spread in the use of ‘platform strategies’, managerial attention is increasingly focusing on ‘business ecosystems’ or ‘innovation ecosystems’. Reflecting this uptake in managerial attention, research attention also seems to be increasing. GOALS Thus far, most of the ecosystem literature has focused on understanding the structure and dynamics of already existing innovation ecosystems, with research attention focused on issues such as value co-creation and value appropriation in ecosystem contexts. Much less attention has been attached to the creation of ecosystems, however [3]. Although the early ecosystem literature proposes a four stage model of an ecosystem lifecycle [4] and more recently [5] suggests an evolutionary typology of platform leadership, neither specifically examines the processes underlying ecosystem emergence. Two literatures appear to offer useful insight to address this issue. The industrial economics literature offers insights into participant adoption strategies in multi-sided market contexts, and the alliance formation literature offers insights into the social context of prior alliances and interdependence. However, although these literatures provide valuable insight, they do not specifically consider the creation processes of ecosystems. The lack of research on ecosystem emergence represents an important gap, given that many organizations, particularly in ICT sectors, today explicitly seek to create ecosystems and drive these to their advantage. As value creation processes become increasingly intertwined in today’s highly specialized industrial landscape, it is important to start considering how ecosystems are created in the first place, what activities and dynamics characterize ecosystem emergence and evolution, and under which conditions could ecosystem innovators stand a realistic prospect of achieving success [6]. The goal of this work is to conduct a case study with a brazilian software company—In Loco—that fits platform profile and is building a living ecosystem on the last few years. It aims on understanding how organizational, strategic or technological traits influence the emergence of new products and can originate a broader platform to foment innovation and collaboration with many companies and actors in the ecosystem. By the end of the study, we hope to: ● Have a better understanding of ecosystem emergence key contributors ● Gather insights on how to classify in which phase of ecosystem growth a company is found to be ● Know which technological, strategic and business decisions are key to take a company ecosystem to the next level Investigating In Loco’s path and perspective of decisions that led to positive, as well as negative growth will help researchers have a more clear vision of the process of ecosystem creation and ultimately contribute to build a comprehensive framework on how to grow a successful software ecosystem.

Apresentação: dia: 04/07/2019, hora: 10:20, local: E101

  1. Título: Ferramenta de Auxílio à Escrita de READMEs Orientada por Dados
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Hilton Pintor Bezerra Leite
    Curso: Ciência da Computação
    Orientador(a): Veronica Teichrieb e Lucas Silva Figueiredo
    Possíveis Avaliadores: Fernando Castor, Vinícius Garcia
    Resumo da Proposta:

No desenvolvimento de software, arquivos README (leia-me, em português) são utilizados para introduzir outros desenvolvedores a repositórios de código-fonte. No maior portal de hospedagem de código, o GitHub, estes arquivos são renderizados e apresentados em destaque na página inicial dos projetos. Trabalhos recentes buscaram entender o conteúdo dos READMEs gerais e de plataformas específicas, porém ainda não temos ferramentas que auxiliem o desenvolvedor na escrita destes arquivos levando em consideração como os repositórios populares similares o fazem. Este trabalho tem como objetivo o desenvolvimento e teste da eficácia de uma ferramenta de auxílio à escrita de READMEs que se baseia em dados dos repositórios mais populares do Github para sugerir estrutura e conteúdo relevantes ao projeto sendo documentado.

Apresentação: dia: 04/07/2019, hora: 10:00, local: E122

  1. Título: UMA FERRAMENTA ANDROID PARA AUMENTO DA COESÃO DE GRUPOS EM ATIVIDADES ESCOLARES BASEADAS NA METODOLOGIA PBL
    TG: aqui
    Proposta inicial: aqui
    Autor(a): HORÁCIO JOSÉ CAVALCANTI FILHO
    Curso: Ciência da Computação
    Orientador(a): PATRICIA CABRAL DE AZEVEDO RESTELLI TEDESCO
    Possíveis Avaliadores: Carla Taciana Lima Lourenço Silva Schuenemann, Geber Lisboa Ramalho, Giordano Ribeiro Eulalio Cabral
    Resumo da Proposta:

Um estudo de Berbel (2011) destaca a recorrente constatação de estudiosos de Educação de que nas últimas décadas, os crescentes avanços tecnológicos e mudanças nas interações escolares diante do cotidiano mais ativo dos estudantes na sociedade, estão demandando a busca por metodologias de ensino que sejam mais adequadas às habilidades requeridas aos estudantes nos dias de hoje. Tais mudanças afetam os diversos aspectos relacionadas ao interesse e desempenho dos estudantes em tarefas realizadas dentro e fora de sala de aula. Segundo Reeve (2009), metodologias ativas de ensino, aquelas onde o estudante é protagonista do processo de aprendizagem, tem causado melhorias significativas em aspectos como motivação, engajamento, desenvolvimento pessoal e aumento no desempenho, ao mesmo tempo que permitem ao estudante se perceber autônomo nas suas interações escolares. Neste trabalho, daremos destaque à metodologia ativa de ensino conhecida com Aprendizado Baseado em Problemas ou Problem Based Learning (PBL). Como a metodologia PBL é baseada na aprendizagem colaborativa, é de grande importantância para o desempenho dos membros do grupo que a coesão entre eles seja alta. Um grupo é tido como coeso se, entre outros fatores, existe a oportunidade de todos participarem das decisões, o que acarreta na necessidade de os membros estarem participando ativamente das reuniões do grupo. Desse modo, é necessário que os membros tenham horários disponíveis em comum. Quando os membros do grupo precisam conciliar uma rotina de trabalho e estudo, o que se verifica sem estudantes de faixa etária mais alta, se torna ainda mais necessário contar com uma ferramenta para gerir os horários livres e potencializar a realização de reuniões presenciais ou online, mesmo em situações mais difíceis, tais como dentro de transportes coletivos, durante o intervalo de trabalho, entre outras situações onde inicialmente não se acredita ser possível de realizar uma reunião com os membros do grupo. Este trabalho se propõe a criar uma aplicação Android, juntamente com toda a infraestrutura auxiliar que lhe confira todas as suas funcionalidades, responsável pelo monitoramento automático da localização dos estudantes e dos horários disponíveis dos membros de um grupo, a fim de sugerir oportunidades de reuniões e materiais de estudo. Os membros de um grupo, receberão, através da aplicação Android aqui proposta, notificações push sinalizando uma oportunidade de reunião em grupo. Tal ferramenta servirá como apoio na aplicação da metodologia BPL, uma vez que permite aos estudantes terem maior coesão dentro de seus grupos. Este trabalho também se propõe a realizar testes com estudantes da instituição de ensino IFPE - Campus Jaboatão, a fim de se identificar os efeitos da aplicação Android na coesão de grupos, especialmente aqueles formados por estudantes que precisam conciliar uma rotina de trabalho e estudo.

Apresentação: dia: 04/07/2019, hora: 10:20, local: E101

  1. Título: AVALIAÇÃO DE FERRAMENTAS DE AUTOMAÇÃO DE TESTES DE UNIDADE PARA SISTEMAS WEB
    TG:
    Proposta inicial: aqui
    Autor(a): IAGO RAPHAEL VASCONCELOS MARINHO
    Curso: Ciência da Computação
    Orientador(a): Alexandre Marcos Lins de Vasconcelos
    Possíveis Avaliadores: Juliano Manabu Iyoda, Marcelo Bezerra D’Amorim, Augusto Cézar Alves Sampaio
    Resumo da Proposta:

Testes de software consistem em executar um programa com o intuito de encontrar erros. [1] Os testes exercem, portanto, papel central na melhora na qualidade do produto final de software, já que as falhas são detectadas e corrigidas pela equipe durante o desenvolvimento, diminuindo assim o retrabalho por conta de erros detectados tardiamente durante o uso do programa. Há ferramentas de automação de testes para diversas plataformas, inclusive a Web, caracterizada por imensa diversidade de frameworks de desenvolvimento de aplicações e de dispositivos clientes. A série ISO (International Standards Organization) 25000 [2] é uma série de normas técnicas voltadas para a especificação e avaliação de qualidade de produto de software, também chamada Modelo SQuaRE. Desenvolvida pelo grupo de trabalho WG6 do Subcomitê de Sistemas e Software (SC7) da ISO, trata-se de uma evolução das normas ISO 9126 e ISO 14598 [3], que definiam, respectivamente, modelo e processo de avaliação de qualidade de produto de software. O Modelo SQuaRE pode ser utilizado para avaliar software de qualquer finalidade, incluindo ferramentas voltadas para desenvolvedores, como as ferramentas de automação de testes de software. Este trabalho tem como objetivo avaliar a qualidade de ferramentas de automação de testes de unidade para aplicações web e estabelecer a mais satisfatória de forma geral, além de apontar se determinadas ferramentas são mais apropriadas para cenários diversos. Para isso fixaremos os seguintes objetivos específicos: Realizar revisão da literatura pertinente, abordando os tópicos correspondentes de Automação de Testes de Software, Aplicações Web e de Qualidade de Software; Estabelecer e configurar o ambiente de desenvolvimento e testes, a ser detalhado no trabalho; Estabelecer a metodologia de avaliação de acordo com o Modelo SQuaRE, também a ser descrita ao longo do trabalho; Avaliar a qualidade de cada ferramenta, fazendo considerações sobre as mesmas, e definindo as escolhas mais apropriadas tanto de maneira geral quanto em situações específicas.

Apresentação: dia: , hora: , local:

  1. Título: Análise de engajamento de ciclistas em um aplicativo móvel. Caso de uso: Biciflow
    TG:
    Proposta inicial: aqui
    Autor(a): Igor Matos de Sá Pereira Costa
    Curso: Ciência da Computação
    Orientador(a): Kiev Gama
    Possíveis Avaliadores: Giordano Cabral
    Resumo da Proposta:

Pedalar é um grande desafio para quem vive em grandes cidades, em que se constata ausência de estrutura cicloviária, educação e fiscalização dos motoristas. Diante desse problema, alguns projetos, seja offline ou online, tentam ajudar a experiência do ciclista no meio urbano. Com a finalidade de dar uma maior segurança para os ciclistas, foi criado o Biciflow, aplicativo que facilita a criação de grupos para que as pessoas pedalem em conjunto e se ajudem. Um desafio do projeto é conseguir um maior engajamento dos usuários, facilitando o encontro dos ciclistas nas rotas. Este trabalho tem como objetivo analisar, através de testes A/B, como podemos superar esse desafio e ter um aplicativo que seja fácil e estimulante de se usar

Apresentação: dia: , hora: , local:

  1. Título: Processamento de eventos complexos aplicado a jogos 2D
    TG:
    Proposta inicial: aqui
    Autor(a): Isaac Douglas Rodrigues do Nascimento
    Curso: Ciência da Computação
    Orientador(a): Kiev Santos da Gama
    Possíveis Avaliadores: Fernando José Castor de Lima Filho
    Resumo da Proposta:

Atualmente vivemos em uma época onde big data, um termo relativamente novo, é bastante comentado, sendo relacionados a grandes volumes de dados estruturados ou não, que pode ser originado de diversas fontes [2]. Uma tarefa bastante comum com todo esse volume de dados é tentar extrair alguma informação relevante, como padrões e comportamentos. Existem várias abordagens para trabalhar com muitos dados, como por exemplo deep learning (uma abordagem de aprendizado de máquina) e também sistemas com arquitetura orientada a eventos ou do inglês (Event-Driven Architecture, EDA), um evento é um acontecimento notável que é disseminado a todas as partes interessadas imediatamente, que podem avaliar e realizar ações como a execução de um serviço, processamento entre outras coisas [3]. Ainda dentro do contexto da arquitetura baseada em eventos, existe a abordagem de Processamento de Eventos Complexos do inglês (Complex Event Processing, CEP), que busca combinar várias fontes de eventos simples a fim de detectar padrões mais complexos. Existem várias situações em que sistemas e software podem se beneficiar com o uso do CEP, como por exemplo, a indústria dos jogos que com o crescente aumento de smartphones no mercado o custo deles baixaram permitindo que tecnologia como sensores já virem embarcados. Os jogos evoluíram muito em termos de gráficos e sofisticação, alguns recentes exploram novas formas de jogabilidade como o uso dos sensores do celular que é o caso do acelerômetro que percebe a inclinação e serve como um tipo de controle usado em jogos de carros e corridas infinitas [4]. Com essas novas formas de jogabilidade, fica fácil relacionar o smartphone como um gerador de dados que podem ser aplicado a CEP. Na última década, os celulares sofreram grandes evoluções, passando de aparelhos destinados apenas a realizar ligações e receber dados simples a partir de um teclado físico, para um ecossistema com vários sensores e modos diferentes de interação, dando origem aos tão conhecidos smartphones. O avanço enfrentado possibilitou que os aparelhos se tornassem uma ótima fonte para fluxo de dados, e partindo de tal fato surgiu o interesse em trabalhar com jogos, tendo em vista que é um dos softwares que mais se utiliza desses dados. Mais especificamente, o presente trabalho, tratará sobre CEP aplicado a jogo 2D, onde esses dados são fornecidos pelo próprio usuário para realizar ações de uma forma orgânica e intuitiva. Utilizando a biblioteca CEPSwift desenvolvida por [1], este trabalho pretende avaliar em um primeiro momento a usabilidade de trocar comandos diretos por um stream das ações do jogador, como também tratamento de colisão dos objetos na cena entre outros eventos.

Apresentação: dia: , hora: , local:

  1. Título: Proposta de framework iOS para implementação de Feature Toggle
    TG:
    Proposta inicial: aqui
    Autor(a): ISABELLY CRISTINA FERREIRA DAMASCENA
    Curso: Ciência da Computação
    Orientador(a): LEOPOLDO MOTTA TEIXEIRA
    Possíveis Avaliadores:
    Resumo da Proposta:

Segundo Martin Fowler, Entrega Contínua ou Continuous Delivery (CD) é uma maneira de construir software de forma que este possa ser entregue a qualquer momento [1]. E para que isso seja possível, é necessário que o time de desenvolvimento de software se muna de algumas ferramentas. Uma dessas ferramentas é a Integração Contínua ou Continuous Integration (CI). Esta é uma prática que visa múltiplas integrações do software a ser construído diariamente. Cada integração é verificada por uma build automatizada, incluindo seus testes para a detecção de erros rapidamente, diz Martin Fowler [2]. Essa ferramenta, facilita a junção de códigos feitos por diferentes pessoas desenvolvedoras, e, no melhor cenário todo código integrado seria um código entregável. Em um time, ao ser estabelecida uma metodologia ágil como Scrum, algumas práticas são utilizadas para receber feedback de forma rápida dos stakeholders envolvidos no desenvolvimento do software: Product Owner (PO), usuários, clientes, entre outros. Muitas vezes, é responsabilidade da PO representar o usuário, decidindo se será feita a liberação do software (release) de uma funcionalidade que o time construiu. "A pessoa PO deve continuamente engajar os usuários e stakeholders para garantir que o time está construindo o produto certo, e portanto, entregando o ROI* esperado. A PO tem a oportunidade de conduzir o time em direções diferentes no final de cada Sprint, e precisa estar preparada para fazê-lo se necessário.[3]" O conceito de CI foi construído desprendido de modelos de branches ou controle de versionamento, contudo, a intenção original é que as múltiplas integrações sejam feitas em um ponto único, remetendo e casando quase que perfeitamente com o desenvolvimento baseado em trunks [4]. Ao utilizar-se desse modelo de branch, o time de desenvolvimento encontra alguns desafios relacionados a release e a PO. Um cenário que deixa claro um dos desafios é: dado um conjunto de cartões/funcionalidades apresentadas a PO apenas um subconjunto destas são aceitas como feature que podem entrar na release da nova versão do software. De fato, este momento é um ponto crítico para um time Ágil. No contexto, em que a PO aprova um subconjunto das funcionalidades que foram demonstradas e o time está construindo o software praticando Continuous Integration usando como modelo de branch Trunk-Based, em que existe uma branch principal onde diferentes funcionalidades são aplicadas a mesma, é preciso haver uma forma de separar o código que foi aceito pela PO do código que foi rejeitado e/ou precisa de algum ajuste. É nesta situação, em que a abordagem Feature Toggle toma forma, sendo uma ferramenta que de maneira simplista introduz condicionais dentro do código já feito; podendo assim, definir se um determinado trecho de código será executado ou não. "A ideia básica é ter um documento de configuração que define toggles para várias funcionalidades pendentes. A execução da aplicação usa as toggles para decidir mostrar ou não a nova funcionalidade[5]" Voltando a visão para o desenvolvimento móvel (mobile), mais precisamente para o desenvolvimento iOS - sistema operacional móvel da Apple, nota-se uma falta de suporte quando se trata do desenvolvimento de aplicativos (apps) usando Swift - uma das linguagens de programação desenvolvidas pela Apple. No cenário de desenvolvimento utilizando da CD e CI é necessário um levantamento sobre o contexto atual da área, analisando o status quo, os frameworks em evidência que possibilitam o uso de Feature Toggle. Este trabalho tem como objetivo principal a criação de um framework iOS, construído em Swift, que possibilite a implementação de Feature Toggles de maneira fácil e intuitiva. Faz-se necessário enfatizar que Swift é uma linguagem de código aberto que vem sendo atualizada e melhorada de acordo com as contribuições da comunidade. Como objetivos específicos, quer-se: (i) Levantar frameworks que possibilitam a implementação de Feature Toggle; (ii) Implementar e demonstrar um caso de uso do framework, através de uma aplicação prática; (iii) Comparar o framework criado com os frameworks levantados; (iv) Disponibilizar o código desenvolvido como código aberto para a comunidade, estimulando a contribuição; (v) Disponibilizar a ferramenta em gerenciadores de dependência existentes - Carthage, CocoaPods, etc.

Apresentação: dia: , hora: , local:

  1. Título: Proposta de Implementação de um Sistema de Recomendação para o Social Commerce
    TG:
    Proposta inicial: aqui
    Autor(a): Jailson da Costa Dias
    Curso: Ciência da Computação
    Orientador(a): Sergio Ricardo de Melo Queiroz
    Possíveis Avaliadores: Ricardo Bastos C. Prudêncio, Germano Crispim Vasconcelos
    Resumo da Proposta:

Com o surgimento do e-commerce, foi possível aumentar muito a quantidades e variedade de produtos vendidos no mesmo e-commerce. Com essa grande variedade de produtos no e-commerce e sem um contato físico para saber qual produto oferecer para o cliente, começa a ter uma perda de venda muito grande, pois mesmo no e-commerce tendo o produto que o cliente quer comprar muitas vezes ele não consegue encontrá-lo, assim juntamente com a inteligência artificial (IA) surge a recomendação de produtos no e-commerce, para conseguir vender mais para aqueles clientes que não conseguia encontrar os produtos que quer comprar. Com o surgimento e expansão das redes sociais o anúncio de produtos do e-commerce começou a ser divulgado nas redes sociais. Como essas redes sociais tem várias informações sobre os gostos dos usuários elas conseguem ter uma recomendação de produtos muito boa, só que essas informações sobre o usuário não existe no e-commerce, assim quando o usuário clica no anúncio e vai para o e-commerce, o e-commerce não consegue ter boas recomendações para ele. Neste trabalho vamos analisar as interações dos usuários com a rede social até a compra do produto para propor uma solução que melhore a qualidade da recomendação para esses usuários, assim aumentando a quantidade de vendas no e-commerce.

Apresentação: dia: , hora: , local:

  1. Título: Estudo sobre os programas de bug bounty e seus benefícios
    TG: aqui
    Proposta inicial: aqui
    Autor(a): João Lucas Gomes de Miranda
    Curso: Ciência da Computação
    Orientador(a): Vinicius Cardoso Garcia
    Possíveis Avaliadores:
    Resumo da Proposta:

Os programas de bug bounty são programas criados por algumas empresas de tecnologia – gigantes como Microsoft, Google e Facebook são exemplos – com o objetivo de incentivar pesquisadores de segurança a realizarem testes de penetração em seus sistemas, premiando os mesmos com dinheiro e/ou reconhecimento [1]. Valores dos prêmios normalmente variam de acordo com o impacto da(s) vulnerabilidade(s) encontrada(s). Tais programas permitem que os desenvolvedores da(s) aplicação(es) descubram falhas (algumas potencialmente críticas) antes delas virem a conhecimento público, evitando exploração da(s) vulnerabilidade(s) e abusos por outros hackers, crackers e script kiddies. Ao incentivar pesquisadores a procurar vulnerabilidades em seus serviços, sob oferta de premiá-los, empresas acabam tendo uma série de analistas – muitos deles world class – realizando testes em seus produtos "gratuitamente". Não somente empresas, porém, têm usado de programas de bug bounty. O Pentágono (órgão do governo dos EUA) também implementou o programa e obteve bons resultados com ele [4]. Enquanto pro lado das empresas, na maioria das vezes o resultado compensa – custos para implementar um programa de bug bounty são geralmente menores que o de manter exclusivamente uma equipe de segurança –, pros analistas a história não é bem assim. Há certa insatisfação [3] nos analistas que dedicam a vida a essas tarefas. Há incertezas de se achar falhas impactantes o suficiente e, em alguns casos, há empresas que dão prêmios de não muito valor - como camisas e mochilas [5]. O objetivo deste trabalho é estudar os programas bug bounty: como são implementados, custos associados, o custo/benefício quando comparado a outras metodologias (tais como consultoria ou equipe própria de segurança). Além disso, o trabalho irá estudar e fornecer um background quanto às principais técnicas e conhecimentos que devem existir no repertório de um analista interessado em descobrir falhas em busca de prêmios. Finalmente, o trabalho irá cobrir e discutir alguns casos bastante impactantes em empresas gigantes que foram poupadas de ter falhas críticas divulgadas ao público geral graças a implementação de tais programas.

Apresentação: dia: 05/07/2019 , hora: 14:00, local: E124

  1. Título: A Case Study about Diversity in Hackathons
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Lavínia Francesca Paganini
    Curso: Ciência da Computação
    Orientador(a): Kiev Santos da Gama
    Possíveis Avaliadores: Carina Frota Alves, Carla Taciana Lima Lourenço Silva Schuenemann
    Resumo da Proposta:

Hackathons estão cada vez mais populares, já que eles podem ser vistos como uma forma de aprendizado rápido e socialização, unindo pessoas de diferentes áreas com um desafio em comum: criar uma aplicação que resolve um problema no curto espaço de tempo. Porém, a falta de diversidade neste ambiente - especialmente a falta de mulheres - ainda é um desafio a ser resolvido. Esse trabalho busca fazer um estudo de caso, inserindo-as num ambiente competitivo majoritariamente feminino para observar se há um estímulo a participação de hackathons numa forma geral, realizando pesquisa e entrevistas antes e depois do evento.

Apresentação: dia: 25/06/2019, hora: 10:00, local: E121

  1. Título: Análise de técnicas de Transfer Learning aplicadas ao problema de Covariate Shift
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Lucas de Souza Albuquerque
    Curso: Ciência da Computação
    Orientador(a): Ricardo Prudêncio
    Possíveis Avaliadores: George Darmiton, Germano Crispim, Tsang Ing Ren
    Resumo da Proposta:

Apesar do progresso acelerado ocorrido na área de Aprendizagem de Máquina ao longo dos últimos anos, o problema de se encontrar dados que representem competentemente a realidade de um certo problema ainda persiste. Existem várias complicações que podem dificultar a construção de um conjunto de dados que realmente reflita o domínio de aplicação de um sistema - dados corretamente etiquetados podem não ser muitos numerosos; dados disponíveis podem ser muito enviesados a um subset do domínio maior; a coleta pode ser demorada e os dados talvez precisem de validação manual; nosso conjunto de dados pode estar desatualizado; entre outros. Em muito dos casos, dados de domínios semelhantes são mais acessíveis, e seria interessante aproveitá-los para um novo problema, para não dedicar muito tempo a um caminho que essencialmente já foi percorrido. Porém, uma aplicação direta destes sistemas em outros contextos prejudica a qualidade das previsões. A área de Transfer Learning trata exatamente desta possível diferença entre os domínios de treinamento e aplicação - isto é, o problema de Dataset Shift. Técnicas de Transfer Learning tentam compensar a falta de dados etiquetados - e evitar todas as dificuldades existentes na criação de um novo conjunto de dados que representa fielmente um novo domínio alvo - utilizando informações de domínios semelhantes com dados mais numerosos, e bancos de dados e classificadores mais poderosos. Este trabalho realizará um estudo sobre a área de Transfer Learning para entender seus conceitos, e também apresenta uma técnica desta área. O projeto entrará em detalhes no funcionamento e implementação desta técnica, e aplicará a mesma em cima de toy datasets controlados por parâmetros - para entender como peculiaridades do domínio podem afetar a qualidade do algoritmo.

Apresentação: dia: 02/07/2019, hora: 13:00, local: E203

  1. Título: Diversidade e inclusão: cultura versus percepção em empresas de T.I.
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Natália Pinheiro Ramos de Souza
    Curso: Ciência da Computação
    Orientador(a): Kiev Santos Gama
    Possíveis Avaliadores: Carina Frota Alves e Carla Taciana Lima Lourenco Silva
    Resumo da Proposta:

Buscando inovar, aumentar margem de lucro e aprimorar a qualidade de seus produtos e serviços, muitas empresas tem apostado em diversificar o perfil de seus funcionários. Estudos indicam que embora as diferenças possam causar conflitos, em contrapartida há um ganho de performance de grupos diversos sobre grupos "uniformes". Este trabalho vem então propor um estudo do momento de transformação no qual algumas empresas de T.I. se encontram em relação a adoção de políticas inclusivas e cultura de diversidade, especialmente no que diz respeito a questões de gênero e orientação sexual.

Apresentação: dia: 04/07/2019, hora: 09:00, local: E121

  1. Título: Usando Deep Learning para análise e aprendizado de jogos
    TG:
    Proposta inicial: aqui
    Autor(a): Paulo Henrique Muniz Barbosa
    Curso: Ciência da Computação
    Orientador(a): Cleber Zanchettin
    Possíveis Avaliadores:
    Resumo da Proposta:

O jogo de xadrez é o domínio mais amplamente estudado na história da inteligência artificial. Os programas mais fortes baseiam-se em uma combinação de sofisticadas técnicas de busca, adaptações específicas de domínio e funções de avaliação artesanais que foram refinadas por especialistas humanos ao longo de várias décadas. Em contraste, o programa AlphaGo Zero recentemente alcançou desempenho sobre-humano no jogo de Go, através do aprendizado de reforço de tabula rasa a partir de jogos de auto-jogo. A partir de jogadas aleatórias, e sem conhecimento de domínio, exceto as regras do jogo, AlphaZero alcançou em 24 horas um nível sobre-humano de jogo nos jogos de xadrez e shogi (xadrez japonês), bem como em Go, Muitos sistemas de pôquer, criados com heurística ou aprendizado de máquina, contam com a probabilidade de ganhar como uma entrada chave. No entanto, calcular a probabilidade precisa usando a combinatória é um problema intratável, então, ao invés disso, a aproximamos. A simulação de Monte Carlo é uma técnica eficaz que pode ser usada para aproximar a probabilidade de um jogador ganhar e / ou empatar uma mão. No entanto, sem o uso de uma tabela de pesquisa intensiva de memória ou de um supercomputador, torna-se inviável rodar milhões de vezes ao treinar um agente com auto-reprodução. Usando o aprendizado profundo para aproximar as probabilidades obtidas da simulação de Monte Carlo com alta precisão, o modelo aprendido mostra-se uma alternativa leve à simulação de Monte Carlo, o que, em última análise, nos permite usar as probabilidades como entradas durante a auto-reprodução de forma eficiente.

Apresentação: dia: , hora: , local:

  1. Título: Segmentação de imagens para uso em descritor de formas planares robusto a projetividades
    TG:
    Proposta inicial: aqui
    Autor(a): Pedro Henrique de Queiroz Lima
    Curso: Ciência da Computação
    Orientador(a): Silvio Barros Melo
    Possíveis Avaliadores:
    Resumo da Proposta:

Realizar o reconhecimento de formas e padrões é parte fundamental para diversos sistemas na área de visão computacional, sendo importante para execução de tarefas que possam ser automatizadas, como atividades repetitivas, complexas e/ou que trazem perigo para o homem. A visão computacional pode ser aplicada em problemas como reconhecimento de placas de veículos, rostos em multidão e detecção de doenças em imagens para diagnósticos médicos. Para o reconhecimento e classificação de objetos em cena, vários fatores devem ser considerados, como luminosidade, sombra, ruídos e deformação por perspectiva. Um tipo de distorção projetiva, a perspectividade, é comum em situações reais, onde imagens são capturadas a partir de diversos pontos de vista com diferentes graus de deformação projetiva. Ainda são poucos os descritores de objetos planares, como símbolos e logomarcas, que sejam robustos a perpectividade, pois a maioria dos descritores de imagem atualmente não se propõe a lidar com transformações projetivas apesar de serem robustos a transformações geométricas de outras naturezas. Para realizar a classificação de objetos em imagens[MN12], estas tem que passar por uma série de etapas e tratamentos como a aquisição da imagem, pré-processamento e segmentação[GW]. A segmentação de uma imagem pode ser condiderada como o particionamento da imagem em regiões de propriedades semelhares, detectando-as por agrupamento de pixels semelhantes ou por bordas de regiões de interesse[Erp04]. O trabalho proposto terá como foco a segmentação de imagens para uso em descritores de formas planares com robustez a deformações por perspectiva. O objetivo deste trabalho é gerar uma base de formas de interesse segmentadas a partir de imagens reais para uso no processo de reconhecimento de objetos planares em um descritor robusto a perpectividade. O interesse do trabalho é em formas planares como símbolos, caracteres, sinalização de trânsito e logomarcas. Após a segmentação, visa-se avaliar a acurácia de descritores de imagens usando o banco de formas planares segmentadas nesse trabalho.

Apresentação: dia: , hora: , local:

  1. Título: Aplicação de conceitos de sistemas multi-agentes em StarCraft II para modelo avaliativo
    TG:
    Proposta inicial: aqui
    Autor(a): Ramon de Saboya Gomes
    Curso: Ciência da Computação
    Orientador(a): Patrícia Cabral de Azevedo Restelli Tedesco
    Possíveis Avaliadores: Ricardo Prudêncio, Sérgio Queiroz
    Resumo da Proposta:

Com a expansão do mercado de jogos digitais no mundo, há um aumento no interesse de soluções tecnológicas que auxiliam na experiência como, por exemplo, uso de inteligência artificial como parte do jogo ou como uma ferramenta de treinamento. Em um jogo, um personagem controlado pelo computador pode ser considerado como um agente, visto que necessita apresentar algumas características específicas como: (i) Percepção de ações e atualizações do ambiente do jogo; (ii) Raciocinar sobre o estado do atual; (iii) Capacidade de atuar, no mais baixo nível, sobre o ambiente. De acordo com a complexidade do jogo, é possível mapear as diferentes funções e objetivos como diferentes agentes, que se comunicam direta ou indiretamente, trabalhando de forma coordenada, visando um alcançar um grande objetivo final. O StarCraft II, disponibiliza o protocolo utilizado para transmitir as ações do jogador, sendo assim, é possível desenvolver um sistema inteligente que utiliza todas as funcionalidades que um jogador tem acesso. Devido a alta complexidade do jogo, é possível desenvolver um sistema multiagente, no qual as funções dos agentes podem ser claramente especificadas, auxiliando na compreensão da coordenação e comunicação dos agentes. Este trabalho tem como objetivo fazer um relato da experiência da disciplina de Agentes Autônomos, ministrada na UFPE no primeiro semestre de 2018, assim como propor possíveis melhorias para a utilização do StarCraft II como plataforma de aprendizado para sistemas multiagentes. Com a utilização de uma API escrita em python, será desenvolvido um sistema multiagentes capaz de jogar uma partida por inteiro e será montada a infraestrutura para o confronto de diferentes sistemas, de uma forma que possa organizar um torneio.

Apresentação: dia: , hora: , local:

  1. Título: Desafios na operação de um jogo online - LiveOps
    TG:
    Proposta inicial: aqui
    Autor(a): Rodrigo de Melo Silva
    Curso: Ciência da Computação
    Orientador(a): Geber Ramalho
    Possíveis Avaliadores: Giordano Cabral, Carina Alves e Patrícia Tedesco
    Resumo da Proposta:

Pretende-se neste trabalho primariamente estudar os desafios que envolvem as etapas da operação de um jogo online multi-jogador para computador. Eles serão avaliados, podendo algum problema em específico ser isolado e aprofundado, havendo a proposição de uma solução para ele, envolvendo novos e melhores processos e/ou com o auxílio de uma nova ferramenta desenvolvida. Será estudado o caso da RaidHut, empresa que publica jogos online e possui um jogo ativo em operação no momento.

Apresentação: dia: , hora: , local:

  1. Título: UM ESTUDO DO STACKOVERFLOW SOBRE PERGUNTAS E SOLUÇÕES PARA MIGRAÇÃO DE SISTEMAS MONOLÍTICOS PARA MICROSSERVIÇOS
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Thiago Aquino dos Santos
    Curso: Ciência da Computação
    Orientador(a): Vinícius Cardoso Garcia
    Possíveis Avaliadores: Nelson Souto Rosa, Leopoldo Motta Teixeira
    Resumo da Proposta:

Em engenharia de software, a análise de repositórios tem ajudado pesquisadores a obter um melhor conhecimento sobre o processo de desenvolvimento de um software. Esta análise consiste em extrair dados para que gerentes e engenheiros de software possam melhorar os processos de tomada de decisão e desenvolvimento de software. Através desse processo de análise é possível identificar possíveis erros na metodologia utilizada, corrigir e dessa forma criar uma nova metodologia de desenvolvimento. Este trabalho é um estudo do stackoverflow sobre perguntas e soluções para a migração de sistemas monolíticos para microsserviços, cujos objetivos são compreender quais as maiores dificuldades em realizar a migração entre sistemas, analisar as soluções propostas pela comunidade e por fim estabelecer uma relação entre essas soluções propostas pela comunidade com as soluções propostas pela literatura. Para a engenharia de software, microsserviços é um novo estilo arquitetônico que visa construir softwares como pequenos serviços. Com isso corrigir possíveis erros nas metodologias utilizadas anteriormente. Esse estudo visa mostrar as dificuldades em mudar para essa nova metodologia e junto com elas apresentar potenciais soluções para minimizar essas adversidades. Esse trabalho tem como objetivo a extração de dados indexados no StackOverflow para buscar conteúdos relacionados a migração de sistemas monolíticos para microsserviços: Coleta de dados relacionados a migração de sistemas, Limpeza e pré-processamento dos dados obtidos, Análise e exibição dos resultados obtidos.

Apresentação: dia: 08/07/2019, hora: 16:30, local: E102

  1. Título: Redesign da Interface do Aplicativo aBoard para Comunicação Alternativa
    TG:
    Proposta inicial: aqui
    Autor(a): Thomas Anderson Feitosa Monteiro
    Curso: Ciência da Computação
    Orientador(a): Robson do Nascimento Fidalgo
    Possíveis Avaliadores: Alex Sandro Gomes, Kiev Santos da Gama
    Resumo da Proposta:

Prancha de Comunicação Alternativa é uma tecnologia assistiva que usa imagens com legendas para auxiliar pessoas sem fala funcional a se comunicar. O aBoard (https://play.google.com/store/apps/details?id=assistive.aboard) é o aplicativo nacional para Comunicação Alternativa que tem a melhor avaliação (4,5 estrelas) e a maior quantidade de downloads (perto de 10.000) na loja da Google Play. Apesar do seu sucesso, este aplicativo foi desenvolvido usando uma tecnologia que está desatualizada e que apenas gera aplicativos para plataforma android. Além disso, dado algumas resenhas postadas na loja da google, sabe-se que o aBoard tem alguns problemas de interface. Neste contexto, o presente trabalho visa fazer o redesign da interface do aplicativo, bem como implementá-la usando uma tecnologia cross-plataforma. O objetivo geral deste trabalho é fazer o redesign da interface do aplicativo aBoard e implementá-la usando uma tecnologia que permita gerar aplicativos tanto para Android quanto para IOS. De modo a realizar este objetivo geral, tem-se os seguintes objetivos específicos: (i) Identificar as principais fragilidades da interface do aBoard; (ii) fazer o redesign da interface e (iii) implementar a nova interface usando uma tecnologia cross-plataforma para desenvolvimento de aplicativos.

Apresentação: dia: , hora: , local:

  1. Título: Construção de um Engenho de Busca para Entidades
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Túlio Paula e Silva de Holanda Cavalcanti
    Curso: Ciência da Computação
    Orientador(a): Luciano de Andrade Barbosa
    Possíveis Avaliadores: Ana Carolina Salgado
    Resumo da Proposta:

Por conta da grande quantidade de dados e informações existentes na web, foi-se necessário a criação de ferramentas de filtro e busca desses dados. Foi assim que surgiram os tão famosos engenhos de busca, como por exemplo o Google, Yahoo e Bing. Engenhos de busca são ferramentas práticas de recuperação de informação em coleções de texto. Essas ferramentas podem ser usadas de diversas formas, como por exemplo pesquisas na web e buscas por arquivos dentro do computador. Para um engenho de busca funcionar, ele precisa passar por uma série de procedimentos. Usando busca na web como exemplo, a ferramenta teria que acessar os sites (conhecido como 'web crawl'), baixar seus conteúdos, e colocá-los numa base de conhecimento, um índice - uma estrutura de dados que aprimora a velocidade da consulta. Com o índice formado, a ferramenta está pronta para ser utilizada. O engenho de busca, então, recebe os dados da busca do usuário (query), busca essas informações no índice, e então os dados recebidos são ranqueados por similaridade em relação às informações fornecidas pelo usuário. Uma grande fonte de documentos e informações é o Wikipedia, a maior enciclopédia online do mundo. Sendo uma coleção de entidades, que identifica unicamente lugares, pessoas, organizações, etc., pode-se encontrar artigos falando sobre quase tudo existente no planeta. Por ele ser uma ótima fonte de informações e conhecimento, existem muitas ferramentas computacionais que trabalham em cima desses dados e informações. O DBpedia é uma delas. Como definido no próprio Wikipédia. DBpedia é um projeto cujo objetivo é extrair conteúdo estruturado das informações da Wikipédia. Permitindo aos usuários realizar consultas sobre o conteúdo da Wikipédia de forma similar a consultas de banco de dados. [2] O objetivo do trabalho é criar uma ferramenta de busca por entidades em cima dos artigos do wikipedia. Para isso usaremos como base de conhecimento os infoboxes das entidades do Wikipedia. A ferramenta permitirá que o usuário inicialmente escolha um domínio para a busca, e em seguida faça consultas a partir dos atributos das entidades pertencentes ao domínio escolhido.

Apresentação: dia: 03/07/2019, hora: 09:30, local: E203

  1. Título: Surgimento de startups a partir de instituições que suportam ecossistemas de empreendedorismo e inovação
    TG:
    Proposta inicial: aqui
    Autor(a): Vinícius Marques Lira
    Curso: Ciência da Computação
    Orientador(a): Carlos André Guimaraes Ferraz
    Possíveis Avaliadores: Cristiano Coelho de Araujo, Geber Lisboa Ramalho, Fabio Queda Bueno da Silva
    Resumo da Proposta:

Empresas mundialmente bem sucedidas, como Apple, Google, Netflix e Amazon estão localizadas em ambientes como Vale do Silício e Boston. Porém, ao longo do tempo, houve o nascimento de vários outros ecossistemas nos EUA e no mundo: New York, Chicago, Índia, Austrália, Alemanha, Espanha, Malásia, etc. Novos ecossistemas se deram por vários motivos, e um dos mais defendidos e difundidos vem do modelo de relações “hélice quádrupla” formado pela combinação de Universidade-Indústria-Governo-Sociedade. Este conceito refere-se a um conjunto de interações entre academia, indústria, governos e sociedade, para promover o desenvolvimento econômico e social. Essas interações deram origem a instituições intermediárias, como escritórios de transferência de tecnologia e parques científicos, como o próprio Porto Digital. O ecossistema empreendedor se presta à política de empreendedorismo, onde programas direcionados podem ser desenvolvidos para preencher as lacunas do ecossistema. Neste trabalho vamos aprofundar em como diferentes políticas atuaram em diferentes ecossistemas e quais foram os resultados produzidos em termos desenvolvimento de tecnologia de ponta e geração de riqueza/empregos.

Apresentação: dia: , hora: , local:




Engenharia da Computação
Responsável: Prof. Renato Mariz de Moraes (renatomdm@cin.ufpe.br)
Site: http://www.cin.ufpe.br/~renatomdm/tg

  1. Título: Uma ferramenta plugável para modelagem orientada a objetivo: Documentando e estendendo a piStar Tool
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Alberto Santos de Souza
    Curso: Eng. da Computação
    Orientador(a): Jaelson Freire Brelaz de Castro; Co-orientador: João Henrique Correia Pimentel
    Avaliadora: Jéssyka Flavyanne Ferreira Vilela
    Resumo da Proposta:

O documento de requisitos é um dos principais documentos relevantes ao processo de desenvolvimento de um sistema; onde o escopo das funcionalidades, atributos de qualidade e restrições são descritas. Enquanto isso, a modelagem de requisitos apresenta o que foi descrito na documentação de forma visual para facilitar a sua compreensão. Levando em consideração a importância da documentação de requisitos e as utilidades da modelagem, este trabalho propõe a documentação da ferramenta piStar Tool e sua extensão para a modelagem de requisitos não-funcionais usando NFR Framework. A piStar Tool é uma ferramenta web-based que faz modelagem orientada a objetivo utilizando a linguagem i* 2.0 e permite extensões com a linguagem JavaScript.

Apresentação: dia: 03/07, hora: 10:00h, local: Anfiteatro do CIn

 

  1. Título: Aperfeiçoando técnicas de merge entre blocos de inicialização estáticos para uma ferramenta de merge semiestruturado
    TG: aqui
    Proposta inicial: aqui
    Autor(a): ALICE ZLOCCOWICK BORNER DE OLIVEIRA
    Curso: Eng. da Computação
    Orientador: Paulo Henrique Monteiro Borba
    Avaliador: Henrique Rebelo
    Resumo da Proposta:

Sistemas de controle de versão, como Git, são amplamente utilizados atualmente e são ferramentas essenciais para o desenvolvimento em equipe de qualquer software. Essas ferramentas utilizam uma técnica chamada merge não estruturado que se baseia apenas em uma comparação textual em uma mesma área de código entre duas versões. Uma nova técnica, chamada merge semiestruturado, propõe uma melhor utilização da estrutura do programa para realizar uma integração com maior precisão e diminuir o esforço manual na resolução de conflitos. Ferramentas já existentes utilizam essa nova técnica, porém existem melhorias a serem feitas para justificar a utilização na indústria. Neste trabalho é proposta uma dessas melhorias para a ferramenta s3m para projetos em Java, lidando melhor com conflitos em blocos de inicialização.   

Apresentação: dia: 27/06, hora: 14h, local: sala E113

  1. Título: Motivações e desafios para entrada e permanência de mulheres na área de Tecnologia: Estudo de Caso no Centro de Informática da UFPE
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Anne Kelly Ribeiro da Silva
    Curso: Eng. da Computação
    Orientador(a): Carina Frota Alves
    Avaliadores: Kiev Santos e Liliane Sheyla da Silva
    Resumo da Proposta:

O conjunto das áreas de Ciência, Tecnologia, Engenharia e Matemática (Science, Technology, Engineering and Math - STEM) apresenta um número de representantes femininas muito inferior ao valor representado por homens. Apesar da maioria das meninas terem um desempenho geral superior aos meninos durante o Ensino Fundamental, o número de meninos que ingressam nas áreas de STEM é bem superior ao delas. Sendo assim, o objetivo deste trabalho consiste em compreender os fatores motivacionais e desafiadores para o ingresso e a permanência de mulheres na área de Tecnologia. Para isto, será realizado um estudo de caso no Centro de Informática da UFPE, baseado na execução  de um survey entre participantes, sendo estas alunas e/ou professoras do centro. Além disso, será feita uma análise comparativa entre a quantidade de estudantes matriculados e concluintes dos últimos 2 anos, de acordo com os gêneros feminino e masculino.        

Apresentação: dia: 04/07, hora: 9:40, local: Sala E101

 

  1. Título: Plugin submission for extensible tools - piStar Tool case
    TG: aqui
    Proposta inicial: aqui
    Autor: Breno Rios Ramos
    Curso: Eng. da Computação
    Orientador: Jaelson Freire Brelaz Castro; Co-orientador: João Henrique Correia Pimentel
    Avaliador: Kiev Santos da Gama
    Resumo da Proposta:

Uma Arquitetura Extensível é aquela que permite que qualquer um, além do autor original da aplicação, possa adicionar funcionalidades sem a necessidade de acesso ao código fonte. Ela está presente em vários tipos softwares hoje em dia e é uma escolha bem popular para uso no desenvolvimento de browsers e IDE's (Integrated Development Environment). No caso da ferramenta piStar Tool, há necessidade de expansão, tanto para dar suporte a novas extensões da linguagem i* quanto para suportar a criação de diagramas de outras linguagens. O uso de um tipo de Arquitetura Extensível pode aumentar a capacidade e velocidade de expansão dessa ferramenta.  Este trabalho tem o objetivo de definir e implementar uma arquitetura extensível para a ferramenta piStar Tool. Isso será alcançado através de  uma análise comparativa da arquitetura de ferramentas populares que já se utilizam da abordagem extensível. Além disso será documentado o atual estado da arquitetura da ferramenta piStar Tool, para que sejam apontados as características a serem modificadas para adequá-la a abordagem extensível. Como resultado teremos a definição da nova arquitetura a ser adotada pela ferramenta assim como a implementação dela, permitindo a instalação de novas extensões através da interface gráfica.        

Apresentação: dia: 03/07, hora: 11h, local: Anfiteatro do CIn

  1. Título: Uma Extensão do Docker para Auxiliar a Adaptação de Aplicações Baseadas em Microsserviços
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Caio Carvalho de Abreu e Lima
    Curso: Eng. da Computação
    Orientador(a): Nelson Souto Rosa
    Avaliador: Vinicius Cardoso Garcia
    Resumo da Proposta:

A arquitetura de microsserviços baseada em contêineres vem ganhando importância recentemente por diversas razões: menor custo comparado à máquinas virtuais, maior portabilidade que servidores monolíticos, maior facilidade de desenvolvimento e manutenção. Em função disto, contêineres vem se tornando um padrão no desenvolvimento de aplicações baseadas em microsserviços. Para organizar os recursos e réplicas desses contêineres utilizam-se orquestradores como Kubernetes [2] e Docker Swarm [3]. Porém, as táticas padrões que esses orquestradores usam para escalar serviços são reativas e funcionam horizontal ou verticalmente, nunca nas duas direções. Neste trabalho, nós propomos um conjunto de comandos que operados por um previsor de carga otimiza o uso de recursos mantendo a aplicação funcionando corretamente.      

Apresentação: dia: 26/06, hora: 13h, local: E121

  1. Título: Uma Formalização em Coq de Testes Baseados em Modelos
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Fábio Nunes Peixoto Sobral
    Curso: Eng. da Computação
    Orientador: Gustavo Henrique Porto de Carvalho
    Avaliador: Márcio Lopes Cornélio
    Resumo da Proposta:

Sabe-se que, quanto mais tarde uma falha for encontrada durante o ciclo de vida de um software, maior será o custo de correção desta. Além disto, falhas percebidas somente após a implantação do software levam a usuários descontentes, baixa de credibilidade e possíveis ações judiciais, acarretando em prejuízos ainda maiores. A depender da comple- xidade do sistema, adotar uma estratégia manual de criação e execução de testes pode não ser viável. Neste contexto, técnicas de geração e execução automática de testes, em parti- cular aquelas baseadas em modelos (model-based testing – MBT), ganham forte atenção da indústria de software. Contudo, surge outra preocupação em relação à qualidade da ferramenta de automação em si, visto que esta é também um software. A geração ou a exe- cução incorreta de um teste por uma ferramenta automática pode causar falso-positivos ou falso-negativos. Isto motiva a proposição de abordagens formais de MBT, onde a estra- tégia de testes é formalizada e provada correta. Este trabalho utiliza o provador interativo de teoremas Coq para desenvolver um ambiente único que permita definir diferentes estra- tégias formais de MBT. Em particular, tem-se como primeiro foco a estratégia de testes baseada na relação de conformidade ioco.           

Apresentação: dia: 03/07, hora: 16:00h, local: Auditório do CIn

  1. Título: Seleção de Variáveis para Análise de Risco Georreferenciado
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Gabriel Marques Bandeira
    Curso: Eng. da Computação
    Orientador: Germano Vasconcelos
    Avaliador: Cleber Zanchettin
    Resumo da Proposta:

O trabalho de conclusão de curso proposto neste documento irá relatar o uso do processo de Feature Engineering como uma etapa prévia à de construção de um modelo de Machine Learning. O problema escolhido para análise foi o de roubo e furto de veículos, onde uma seguradora deve ressarcir o cliente com o valor de um veículo novo, problema esse com mais de 90 milhões de registros pelas seguradoras no Brasil em 2016 [01]. Nesse cenário, um dos objetivos das seguradoras antes de precificar o seguro é saber a probabilidade de um dado cliente ter seu automóvel roubado ou furtado durante a vigência do seguro (12 meses).

As variáveis construídas na etapa de Feature Engineering serão criadas a partir de dados públicos disponíveis na internet. Esses dados públicos utilizados serão informações geolocalizadas referentes ao ambiente ao redor do local indicado como estacionamento do cliente.      

Apresentação: dia: 03/07, hora: 11h, local: sala E121

  1. Título: Princípios Básicos e Desafios da Criptoeconomia
    TG: aqui
    Proposta inicial: aqui
    Autor(a): GABRIELA NERY DANTAS DE MEDEIROS
    Curso: Eng. da Computação
    Orientador(a): Ruy de Queiroz
    Avaliador: José Carlos Cavalcanti
    Resumo da Proposta:

Criptoeconomia e suas tecnologias, como o Blockchain e as criptomoedas, se tornaram um assunto empolgante, pois fazem parte de uma era revolucionária na economia mundial. Um exemplo é a nova versão do dinheiro eletrônico, o Bitcoin, puramente peer-to-peer, que permite que transações sejam processadas e enviadas diretamente de uma parte para outra sem passar por uma instituição financeira ou terceiros confiáveis. Um ponto importante a ser considerado é que as transações de criptomoedas baseadas em blockchain são priorizadas baseadas em taxas, criando um mercado único de taxas (fee market). Este trabalho de graduação introduz a criptoeconomia e seus benefícios, e examina um problema atrelado ao mercado de taxas, o qual falhou ao não conseguir produzir um equilíbrio estável com preços previsíveis para os níveis de serviço desejados. É possível que isso se deva à ausência de uma estratégia dominante equilibrada no atual mecanismo de taxas. Analisaremos, assim, como possível solução, um mecanismo alternativo de tarifas fixas, inspirado em leilões generalizados de segundo preço.    

Apresentação: dia: 28/06, hora: 9h, local:

 

  1. Título: Localização usando Fingerprint de Rádio Frequência em Ambientes Externos: Uma Abordagem baseada em Timing Advance para Redução de Espaço de Busca
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Guilherme Henrique de Sousa Silva
    Curso: Eng. da Computação
    Orientador(a): Daniel Carvalho da Cunha
    Avaliador: Kelvin Lopes
    Resumo da Proposta:

A localização em ambientes outdoor é predominantemente feita por sistemas de posicionamento global (GPS). Porém, em certas condições climáticas e em ambientes densamente urbanos, o desempenho do GPS é degradado. Nesses cenários, é possível utilizar a infra estrutura de redes móveis para estimar a posição do usuário, através de técnicas que utilizam níveis de sinais de rádio. Dentre as técnicas mais utilizadas, está a técnica baseada em RF fingerprint. Porém, para obter uma boa acurácia nessa técnica, se faz necessário que as células do grid possuam uma maior resolução, o que eleva o custo computacional. Uma alternativa para melhorar a acurácia mesmo com uma maior resolução, é o uso de técnicas de redução de espaço de busca.Ao mesmo tempo,as redes GSM possuem o parâmetro TA, que é um valor quantizado da distância entre o móvel e uma estação rádio base, que podem servir como forma de reduzir o espaço de busca. Portanto, esse trabalho se propõe a avaliar a utilização do parâmetro TA como forma de reduzir o espaço de busca e tem como objetivo analisar a relação entre a acurácia  e desempenho computacional dessa técnica.  

Apresentação: dia: 02/07, hora: 9h, local: Auditório do CIn

  1. Título: Análise compreensiva de técnicas de processamento de imagem para melhoria de detecção de objetos em 6DoF com aprendizagem profunda
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Heitor de Castro Felix
    Curso: Eng. da Computação
    Orientadora: Veronica Teichrieb
    Avaliador: Carlos Alexandre Barros de Mello
    Resumo da Proposta:

Estimativa de pose de objetos em seis graus de liberdade (6DoF, six Degrees-of-Freedom) é um problema de grande interesse em realidade aumentada, robótica e áreas que utilizam visão computacional. A estimação da pose de objetos foi tratada como um problema de computação clássica. Com a evolução da inteligência artificial e no poder de processamento dos computadores, foi possível desenvolver novas técnicas para resolver o problema mencionado. Dentre essas técnicas, recentemente foi explorado o uso de Redes Neurais Convolucionais (CNN, Convolutional Neural Network) para estimar a pose de objetos em 6DoF.

O objetivo deste trabalho é realizar uma análise de possíveis melhoras na detecção e rastreamento de objetos com 6 graus de liberdade que utiliza CNN. O estudo será feito a partir do pré-processamento da imagem que será aplicada a rede. A análise será feita utilizando descritores de imagens, extratores de características e variação no número de canais da imagem, buscando melhorias no resultado final da estimação da pose.              

Apresentação: dia: 04/07, hora: 11h, local: Auditório do CIn

  1. Título: OPENOW: Uma Ferramenta para Disponibilização de Dados Abertos
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Hugo Ricardo Baia da Silva
    Curso: Eng. da Computação
    Orientador: Vinicius Cardoso Garcia
    Avaliadora: Bernadette Farias Lóscio
    Resumo da Proposta:

Os dados abertos são os alicerces de construção do conhecimento aberto e possuem diversas aplicações, tais como: ciência, cultura, finanças, estatística, entre outras. A abertura dos dados pode trazer uma série de benefícios para diferentes setores da sociedade, principalmente quando aplicado ao conceito de “​Open Government​”. Apesar da importância do tema, a disponibilização de dados abertos e o desenvolvimento de soluções utilizando esses dados ainda enfrentam diversos desafios. Neste contexto, este trabalho tem o objetivo de desenvolver uma ferramenta para facilitar o provisionamento de dados abertos.       

Apresentação: dia: 04/07, hora: 13h, local: Auditório do CIn

  1. Título: Avaliação do uso de ​offload​ de processamento para economia de energia em dispositivos móveis
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Jefferson Luis Alves de Medeiros
    Curso: Eng. da Computação
    Orientador: Márcio Lopes Cornélio
    Avaliador: Carlos André Guimarães Ferraz
    Resumo da Proposta:

O offload de processamento é uma técnica em que uma parte do processamento é realizado em outro dispositivo. O uso dessa técnica em dispositivos móveis promete aumentar a performance dos dispositivos móveis enquanto economiza energia, por conta da diminuição do processamento local como proposto por (Karthik Kumar and Yung-Hsiang Lu) . (N. A. Santana, F. A. A. Lins and E. T. G. Sousa) provaram que o uso de offload para economia de bateria não é só uma teoria, porém existem casos em que essa técnica não é vantajosa como descrito por (Karthik Kumar and Yung-Hsiang Lu). Existe uma sutil diferença entre a economia e o gasto excessivo na utilização de offload em dispositivos móveis. Neste trabalho serão realizados experimentos para mostrar em que casos seria vantajoso ou não o uso de offload para economia de bateria.       

Apresentação: dia: 05/07, hora: 10h, local:

  1. Título: CONTROLADORA DE PONTOS DE ACESSO AUTÔNOMOS OPENWRT BASEADA NO OPENWISP E COOVACHILLI
    TG: aqui
    Proposta inicial: aqui
    Autor(a): João Felipe Farias Mendes
    Curso: Eng. da Computação
    Orientador: Adriano Augusto de Moraes Sarmento
    Avaliador: Kelvin Lopes Dias
    Resumo da Proposta:

Conectividade Wi-Fi é essencial para complementar a disponibilidade de acesso à internet em devices como Smartphones, tablets e dispositivos IoT. Com o conjunto de dispositivos aumentando consideravelmente a cada ano, é essencial para administradores de rede possuir o controle da rede, seja ela virtual ou real. Problemas comuns como a segurança de rede, limitação de banda e liberação de serviços são importantes para garantir qualidade de serviço adequada aos propósitos da rede. O objetivo desta monografia é adaptar um controlador de rede baseado nos sistemas open-source Coovachilli e OpenWisp na nuvem para gerenciamento de rede, firewall, captive portal, controle de canais, potência e interfaces de rede com Access Points do sistema operacional OpenWRT.          

Apresentação: dia: 04/07, hora: 15h, local: Auditório

  1. Título: Um sistema baseado na análise de séries temporais para classificação de padrões respiratórios terapêuticos
    TG: aqui
    Proposta inicial: aqui
    Autor(a): João Lucas Oliveira Canhoto
    Curso: Eng. da Computação
    Orientador: Paulo Salgado Gomes de Mattos Neto
    Avaliador: George Darmiton
    Resumo da Proposta:

A prevalência de internações e reinternações em ambientes hospitalares envolvendo problemas respiratórios pode ser relacionada a carência tecnológica nas avaliações clínicas dessas alterações, tornando o processo subjetivo e dependente da formação e experiência do profissional envolvido. Para minimizar esse problema, o presente estudo se propõe a analisar métodos de verificação de similaridade e concordância entre padrões respiratórios terapêuticos (PRTs) descritos na literatura e reprodução dos PRTs por voluntários. Os métodos incluem: distâncias de Minkwoski e de Mahalanobis, Dynamic Time Warping (DTW), Edit Distance on Real sequences (EDR), Time Warp Edit Distance (TWED) e ​ Minimum Jump Costs (MJC). A avaliação procurará decidir quais as métricas mais apropriadas para esse problema, observando não só os resultados estatísticos, mas também seus tempos de execução, implicando sua viabilidade de aplicação numa rotina real de análise respiratória.         

Apresentação: dia: 02/07, hora: 11h, local: Auditório do CIn

  1. Título: SimToReal: Transferring Learning to play robot soccer in the real world
    TG: aqui
    Proposta inicial: aqui
    Autor(a): José Nilton de Oliveira Lima Júnior
    Curso: Eng. da Computação
    Orientador: Hansenclever Bassani; Co-orientadora: Edna Natividade Silva Barros
    Avaliador: Tsang Ing Ren
    Resumo da Proposta:

Recent advances in reinforcement learning (RL) are responsible for achieving good results in many game benchmarks, such as Chess, Go, Starcraft (even at the professional human level). However, applying RL in an environment with real-world actuators - like robots - comes with a new layer of complexity. Training in real-world is unfeasible due to equipment degradation and time of training required by RL algorithms. However, intrinsic discrepancies between the simulated and real-world environments prevent a direct transfer of a policy learned in a simulated environment to robots - the so-called Sim-To-Real problem. This project aims at evaluating the Sim-To-Real problem in the robot soccer domain. The objective is to transfer the policy learned with simulated robots to a real robot, aiming to obtain a transferred policy that is able to take the ball to the enemy's goal, as efficiently and effectively as possible.             

Apresentação: dia: 28/06, hora: 10h, local: Auditório do CIn

  1. Título: Especificação de Requisitos de Segurança para Sistemas de Informação Orientados a Processos
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Lucas Neves de Melo
    Curso: Eng. da Computação
    Orientadora: Carina Frota Alves
    Avaliadora: Simone Cristiane dos Santos
    Resumo da Proposta:

A constante evolução dos sistemas de informação tem transformado continuamente a forma como as pessoas trabalham. Tal evolução tem proporcionado grande poder aos sistemas, concedendo-lhes o controle sobre recursos e dados dentro do ambiente em que estão inseridos. Desta forma, é necessário que haja uma maior atenção quanto aos aspectos de segurança desses sistemas. Este trabalho visa realizar um estudo comparativo entre abordagens de segurança em sistemas de informação cujo objetivo é realizar a recomendação de abordagens para especificação e avaliação de aspectos de segurança no cenário de sistemas de informação orientados a processos. A análise comparativa será realizada através de um estudo de caso utilizando o sistema de processos eletrônicos do Tribunal de Contas de Pernambuco (e-TCEPE), que é um exemplo de sistema de informação orientado a processos.      

Apresentação: dia: 03/07, hora: 14h, local: Sala D004

  1. Título: Uma Avaliação de Abordagens para Resolução de Entidades em Lista de Coautoria de Artigos
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Marcus Vinicius Tenorio de Mello da Silva
    Curso: Eng. da Computação
    Orientador: Luciano de Andrade Barbosa
    Avaliadora: Ana Carolina Brandão Salgado
    Resumo da Proposta:

Há um crescente número de aplicações que tem requerido o uso de resolução de entidades, também conhecida como data matching. No contexto acadêmico, órgãos como a Capes e o CNPQ podem se beneficiar da utilização de soluções para resolução de entidades, dado o volume de dados que precisam processar, documentar e integrar. Um dos problemas clássicos está relacionado à ambiguidade gerada pela falta de padronização nas representações para o nome dos autores em publicações. Soluções tradicionais baseadas em similaridade de strings podem ter os resultados comprometidos com o aumento do número de entidades. Este trabalho pretende investigar o uso de técnicas de recuperação da informação para desenvolver métodos e possibilitar a avaliação deles para resolução de entidades em lista de coautoria de artigos e publicações da plataforma Lattes.         

Apresentação: dia: 03/07, hora: 9h, local: Auditório do CIn

  1. Título: Estudo Comparativo de Técnicas Não-Supervisionadas de Detecção de Outliers
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Marília Isabelly Rodrigues Nogueira
    Curso: Eng. da Computação
    Orientador(a): Luciano de Andrade Barbosa
    Avaliador: Tsang Ing Ren
    Resumo da Proposta:

Para que um conjunto de dados possa ser utilizado na construção de modelos de predição, é necessário que se faça uma análise para a descoberta de possíveis problemas nos dados. Isso é importante pois podem existir, por exemplo, objetos que não condizem com a distribuição do restante dos dados, isto é, pontos que se destacam quanto a uma ou mais variáveis. Tendo em vista isso, o objetivo deste projeto é realizar um estudo comparativo de diferentes técnicas de detecção de outliers. Para isso, dados de diferentes perfis irão ser utilizados. Este estudo portanto pretende verificar os pontos fortes e fracos dessas técnicas e sobre que tipos de dados eles têm um melhor desempenho.         

Apresentação: dia: 02/07, hora: 10h, local: sala E203

  1. Título: Análise do Processo de Migração de Sistemas de Arquitetura Monolítica para Microsserviço
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Marina Medeiros Lima
    Curso: Eng. da Computação
    Orientador: José Carlos Cavalcanti
    Avaliadora: Carina Frota Alves,
    Resumo da Proposta:

De acordo com Nadareishvili et. al. (2016) a arquitetura de microsserviços tem emergido como um padrão que desperta interesse entre engenheiros de software pela capacidade de entregas rápidas e confiáveis. Adotar essa arquitetura envolve uma transformação engloba vários aspectos: tecnologia, metodologia, tendências organizacionais e características culturais. Por isso, as empresas que buscam colher os benefícios da arquitetura de microsserviço precisam considerar esse amplo escopo.

As questões que emergem dessas práticas são as seguintes: por que essas organizações estão adotando microsserviços? Quais são as motivações e desafios? Como os líderes dessas organizações estão defendendo esse enfoque de desenvolvimento? Quais são as medidas de sucesso?

Essas práticas são relativamente recentes, um dos primeiros cases de sucesso migração em produção da arquitetura monolítica para de microsserviço foi da Netflix em 2013. O case da Amazon já é de 2014. Por isso a literatura ainda é rara e dispersa, uma vez que seu exame depende marcadamente do compartilhamento, por parte das empresas, de como foi realizada a transição.

Neste sentido, este trabalho de conclusão de graduação tem a intenção de contribuir para um maior conhecimento desse novo enfoque de desenvolvimento de software, a partir do exame do que aqui se pode chamar de o “caminho das pedras” para a transição das arquiteturas tradicionais, monolíticas, para a arquitetura de microsserviços.   

Apresentação: dia: 03/07, hora: 11h, local: Auditório do CIn

  1. Título: Análise do Ecossistema Recifense Sobre Privacidade e Proteção de Dados: Uma Perspectiva do Contexto Pessoal e Ambiental do Desenvolvidor de Software
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Mateus Cavalcanti Lira
    Curso: Eng. da Computação
    Orientadora: Carla Taciana Lima Lourenço Silva
    Avaliadora: Jéssyka Flavyanne Ferreira Vilela
    Resumo da Proposta:

O trabalho consiste em analisar o ecossistema recifense a respeito da privacidade e proteção sob uma perspectiva do contexto pessoal e ambiental do desenvolvedor de software. O trabalho de graduação terá como base o artigo do Hadar et al. (2018), que analisou o ecossistema nova iorquino em 2018.

Este trabalho também irá analisar como as organizações interferem no entendimento e no poder de decisão do desenvolvedor na hora de planejar seus sistemas, e se as empresas entendem privacidade por design além de exigir que seus sistemas sejam feitos visando a proteção dos dados de seus usuários.            

Apresentação: dia: 28/06, hora: 15:20h, local: Sala A014

  1. Título: Uso de LoRa para comunicação em uma rede de sensores
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Matheus Henrique Pinto Ramos
    Curso: Eng. da Computação
    Orientador: Adriano Augusto de Moraes Sarmento
    Avaliador: Kiev Santos da Gama
    Resumo da Proposta:

Em IoT, frequentemente se faz necessário a transmissão de informações e dados, porém em grande parte das vezes os sistemas estão embarcados e precisam fazer o racionamento de energia pois devem funcionar durante dias e até anos sem ter que precisar de uma recarga ou troca de bateria. Por isso, o uso de low-power wide-area network (LPWAN) se tornou popular nesse meio, pois permite a comunicação sem fio de longa distancias por um baixo custo energético. O objetivo deste trabalho é utilizar uma das tecnologias que faz uso da LPWAN e aplicá-la em uma rede de sensores.    

Apresentação: dia: 02/07, hora: 14h, local: Sala E403/404

  1. Título: Reconhecimento de gestos reais e imaginários a partir de sinais eletroencefalográficos utilizando metaclassificadores
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Pedro Vitor Baptista de Moura
    Curso: Eng. da Computação
    Orientador: Wellington Pinheiro dos Santos
    Avaliador: Márcio Lopes Cornélio
    Resumo da Proposta:

Interfaces cérebro-máquina vêm sendo cada vez mais utilizadas para tratamentos de reabilitação de movimentos perdidos parciais, e totais, como uma alternativa para a fisioterapia. Algoritmos de aprendizagem de máquina são utilizados para garantir uma classificação do sinal de uma forma simples e elegante. Neste trabalho de graduação serão investigados e implementados diferentes formas de classificadores como árvores de decisão, utilizando de comitês, stacking e bagging para reconhecimento de sinais eletroencefalográficos.         

Apresentação: dia: 04/07, hora: 16h, local: Auditório do CIn

 

  1. Título: Evaluating the robustness of machine learning algorithm on Human Activity Recognition
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Roberto Costa Fernandes
    Curso: Eng. da Computação
    Orientador(a): George Darmiton da Cunha Cavalcanti
    Avaliador: Leandro Almeida
    Resumo da Proposta:

A falta de atividade física pode causar diversas doenças, como diabetes, obesidade, hipertensão, doenças cardiovasculares, depressão, osteoporoses e diversos de outros problemas físicos. Para diagnosticar a inatividade e evitar tais problemas é necessário monitorar as atividades feitas por uma pessoa e classificá-las em atividades do dia-a-dia, como andar, deitar, ficar em pé e outros. Nesse contexto, sinais de sensores presentes nos celulares podem ser utilizadas como entrada em modelos de aprendizagem de máquina para classificar tais atividades. Porém algumas dessas atividades podem gerar sinais parecidos e resultando em ruído, o que pode dificultar o processo de treinamento. Assim, o presente trabalho visa estudar o impacto de dados com ruído em suas classes e definir qual técnica de aprendizagem é mais robusta a esse tipo de problema.           

Apresentação: dia: 17/06, hora: 15:30h, local: Sala E201

  1. Título: Refinamentos nas Simulações dos Protocolos MAC Multicanais para Comunicações Muitos-para-Muitos Baseados no IEEE 802.11 PSM
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Rogério Bezerra Santos
    Curso: Eng. da Computação
    Orientador: Renato Mariz de Moraes
    Avaliador: Kelvin Lopes
    Resumo da Proposta:

A comunicação muitos-para-muitos é um mecanismo que permite que um dispositivo transmita dados para vários outros ao mesmo tempo em que ele pode receber dados de diversas outras fontes. O protocolo MAC Multicanal para Comunicação Muitos-para-Muitos (M2MMAC) e sua variante híbrida (H-M2MMAC) são protocolos para redes ad hoc, que são redes cuja coordenação é distribuída entre seus dispositivos móveis, geralmente com restrição do consumo de energia. Estes protocolos são baseados no modo de economia de energia do padrão IEEE 802.11 PSM (do inglês Power Saving Mode). Este trabalho visa rever a simulação do M2MMAC, bem como propor uma nova simulação da sua variante híbrida H-M2MMAC para extrair a vazão de saturação da rede e em seguida comparar os resultados com o modelo analítico.   

Apresentação: dia: 03/07, hora: 9h , local: Sala D004

  1. Título: Binarização de Documentos Históricos Usando Estimativa de Background e Minimização de Energia
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Tasso Luis Oliveira de Moraes
    Curso: Eng. da Computação
    Orientador(a): Carlos Alexandre Barros de Mello
    Possíveis Avaliadores: Cleber Zanchettin
    Resumo da Proposta:

A binarização é um técnica comumente utilizada no processamento digital de imagens e um passo importante na análise de documentos, históricos pois é utilizada para destacar o texto do papel. Este trabalho implementa o algoritmo do artigo Historical document image binarization using background estimation and energy minimization e apresenta uma comparação entre ele e outros 4 quatro algoritmos, segundo as medidas utilizadas pela DIBCO (Document Image Binarization COntest), permitindo um melhor entendimento da área de processamento de imagens de documentos históricos. Tendo como entrada uma imagem de um documento histórico degradado, o algoritmo utiliza a Stroke Width Transform (SWT) para determinar o tamanho do elemento estruturante em forma de disco que é utilizado na operação morfológica que realiza a estimação do fundo da imagem do documento. Em seguida, é aplicada uma minimização de energia Laplaciana no resultado dessa primeira etapa, para então ser aplicado o pós processamento para melhorar o resultado da binarização. A partir dos resultados obtidos dos experimentos, foi concluído que os resultados da binarização do algoritmo implementado estão fortemente ligados ao tamanho do elemento estruturante e que os melhores resultados obtidos pertencem aos algoritmos de Howe e ao algoritmo POD.    

Apresentação: dia 14/05/2019, hora: 10:00h, local: E121

  1. Título: Investigação e implementação de método para compressão de objetos modelados com NURBS usando Decomposição em Valores Singulares
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Thiago de Aguiar Leal Domingues
    Curso: Eng. da Computação
    Orientador(a): Sílvio de Barros Melo
    Avaliador: Nivan Roberto Ferreira Junior
    Resumo da Proposta:

O uso de superfícies NURBS para modelagem de objetos já é amplamente difundido em várias ferramentas de CAD. Porém, no caso de objetos complexos, a compressão dessas superfícies pode ser vantajosa para fins de armazenamento e transmissão. Por causa disso, esse trabalho se propõe a investigar o uso da Decomposição em Valores Singulares no contexto de compressão de superfícies NURBS.          

Apresentação: dia: 04/07, hora: 17h, local: sala E124

 

  1. Título: Análise do potencial de revisão de código em detectar defeitos
    TG: aqui
    Proposta inicial: aqui
    Autor(a): Willer Amorim Sabino de Araujo
    Curso: Eng. da Computação
    Orientador(a): Paulo Borba
    Avaliador: Fernando José Castor
    Resumo da Proposta:

A pretensão desse Trabalho de Graduação é fazer uma análise de vários problemas reais de uma empresa, defeitos de software de vários ambientes(Internos, Homologação, Produção).De posse destes dados será feita uma análise para se ter uma ideia da quantidade de problemas que seriam possíveis de ser evitados caso aquela parte do código tivesse passado por uma revisão de código, comparando custos de correção de defeitos com o tempo gasto para corrigir defeitos possivelmente evitáveis e com isto poder ter uma ideia melhor de quando é que vale a pena aplicar a prática de revisão de código.    

Apresentação: dia: 28/06, hora: 9:30h, local: sala E101

 


Sistemas de Informação
Responsável: Profa. Liliane Salgado (liliane@cin.ufpe.br)

  1. Título: Levantamento Cienciométrico sobre Governança Ágil
    TG: aqui
    Autor(a): Annemberg Gomes Nascimento
    Curso: Sistemas de Informação
    Orientador(a): Hermano Perrelli de Moura
    Avaliador(a): Alexandre Marcos Lins de Vasconcelos

    Resumo: O fenômeno da governança ágil emerge no contexto do ambiente organizacional, como uma área jovem e nascente, levando as pessoas a aplicarem recursos ágeis à capacidade de governança para proporcionar agilidade nos negócios, segundo Luna et al. (2014). Com o objetivo de analisar o desenvolvimento desta área, nos últimos 10 anos, foi realizado um levantamento cienciométrico, além disso foi utilizado a análise de coocorrência de palavras para identificar temas relacionados ao tópico de pesquisa em questão. Por fim, a investigação conta com a discussão destes resultados.


  2. Título: Uma Extensão do Behave Step Finder
    TG: aqui
    Autor(a): Bruna Angélica de Almeida Cruz
    Curso: Sistemas de Informação
    Orientador(a): Juliano Manabu Iyoda
    Avaliador(a): Avaliador

    Resumo: A Engenharia de Software é uma área da computação voltada à especificação, desenvolvimento e manutenção de softwar e que visa produzir software com produtividade e alta qualidade. Behaviour Driven Development (BDD) pode ser definido como um conjunto de técnicas para desenvolver um projeto de software da melhor forma, em termos de produtividade do time, ao mesmo tempo que foca em entregar software que atenda aos requisitos, priorizando as funcionalidades de maior valor para o cliente. Dentre as principais atividades do BDD está a automação de testes de aceitação. O Behave é uma ferramenta que dá suporte ao BDD e utiliza testes escritos em uma combinação de linguagem natural e linguagem de programação e consegue executá-los de forma automatizada através de código na linguagem Python. A partir de uma análise do plugin Behave Step Finder, que tem como objetivo aumentar o reuso de testes automatizados no framework Behave, este trabalho desenvolveu o Behave Step Finder Enhanced (BSFE), uma extensão do Behave Step Finder para auxiliar desenvolvedores e analistas no reuso de código de projetos de automação através da busca por features, cenários, passos de teste e implementação de passos de testes utilizando sinônimos. O Behave Step Finder Enhanced se mostrou mais eficaz nos resultados de sua busca em comparação ao Behave Step Finder apresentando no mínimo o dobro de resultados.


  3. Título: O Papel da TI nas Fusões & Aquisições Corporativas
    TG: aqui
    Autor(a): Bruno Ferys Ferreira da Silva
    Curso: Sistemas de Informação
    Orientador(a): José Carlos Cavalcanti
    Avaliador(a): Avaliador

    Resumo: As empresas estão sempre procurando se destacar no mercado em que atuam, ou seja, querem assumir a liderança deste mercado e conquistar um público cada vez maior. Para isso, buscam estratégias de negócios que lhes concedam tal finalidade. Uma das estratégias adotadas é a de Fusões e Aquisições de empresas (F&A), que é vista como uma maneira de destacar a empresa positivamente no mercado, obtendo vantagem competitiva ou de fazê-la sobreviver a uma fase negativa, pela qual esteja passando. Entretanto as F&A tendem a falhar, pois o processo de integração utilizado pelas empresas muitas vezes não é correto e nem reconhecem a importância da Tecnologia da informação (TI) no processo fusão e aquisição. Com isso, este trabalho tem o objetivo de tentar detalhar todo processo de integração do setor de TI das empresas: a) como deve ser feita a integração dos sistemas; b) como analisar os riscos de uma integração de sistemas; c) citar fatores que levam ao sucesso de uma integração de sistemas; d) demonstrar casos de sucesso e de insucesso de F&A e; e) citar empresas que prestam serviços para esta estratégia de negócio.


  4. Título: Descoberta de padrões em campeonatos do League of Legends usando algoritmos de descoberta de subgrupos
    TG: aqui
    Autor(a): Carlos Henrique do Nascimento Melo
    Curso: Sistemas de Informação
    Orientador(a): Leandro Maciel Almeida
    Avaliador(a): Cleber Zanchettin

    Resumo: O uso da mineração de dados pela busca de padrões característicos não é uma novidade em muitas áreas. No entanto, nos esportes eletrônicos uma grande quantidade de dados é criada, mas com pouca exploração de seu uso como uma ajuda para tal competição. A partir de estudos com técnicas de mineração de dados, é possível adquirir características relevantes. Portanto, este trabalho tem como objetivo descobrir padrões nas vitórias de jogos do campeonato de league of legends através da mineração de subgrupos, com base nas ligas melhores colocadas nos campeonatos mundiais de 2017 e 2018. A partir dos resultados, uma visualização dos subgrupos com melhor cobertura dos dados é apresentada com uma análise das diferenças entre as regiões. Além disso, os resultados foram analisados por um especialista do domínio dos esportes eletrônicos para apontar os subgrupos mais interessantes para cada região e ano.


  5. Título: Análise do Contexto Pessoal e Comportamental dos Desenvolvedores de Software Sobre Privacidade: Um Estudo no Ecossistema Recifense
    TG: aqui
    Autor(a): Dayse Maria Marques Ferreira
    Curso: Sistemas de Informação
    Orientador(a): Carla Taciana Lima Lourenço Silva
    Avaliador(a): Avaliador

    Resumo: Apesar do advento da Internet ter trazido diversas benesses para os que a utilizam e para o mundo, traz também diversos desafios a serem superados. Um desses é a necessidade da proteção da privacidade e da credibilidade dos milhões de dados disponíveis na rede. Uma possível solução para este problema se chama Privacy by Design, uma abordagem à Engenharia de Sistemas que propõe contemplar a privacidade desde o início de todo um projeto. Entretanto, para este conceito ser uma opção viável, é importante entender as percepções, interpretações e práticas dos desenvolvedores quanto à privacidade informacional. Sendo assim, este estudo se propõe a identificar e analisar as práticas de privacidade dos desenvolvedores com o propósito de compreender como os mesmos interpretam esse conceito do ponto de vista do contexto pessoal e comportamental. Para tanto, é necessário investigar com quais conceitos e práticas no âmbito da privacidade informacional os desenvolvedores estão familiarizados e analisar, sob a ótica dos fatores cognitivos pessoais e comportamentais, qual a percepção dos desenvolvedores sobre privacidade. Foi realizada, então, uma pesquisa de abordagem qualitativa, através da qual foi evidenciado que os desenvolvedores possuem conhecimento sobre privacidade informacional, ainda que muitas vezes utilizem termos de segurança para tal definição. Assim como também foi observada uma maior atenção dos desenvolvedores a estratégias baseadas em privacidade por arquitetura, nas quais a arquitetura do sistema é projetada visando a preservação do mesma. Deste modo, a realização dessa pesquisa e os resultados encontrados contribuem para uma maior compreensão sobre as percepções e práticas dos desenvolvedores no âmbito da privacidade informacional.


  6. Título: Ferramenta para monitoramento de gastos e iniciativas da câmara de vereadores do Recife
    TG: aqui
    Autor(a): Danilo Matheus de Oliveira Pedrosa
    Curso: Sistemas de Informação
    Orientador(a): Vinicius Cardoso Garcia
    Avaliador(a): Bernadette Farias Lóscio

    Resumo: Devido aos grandes avanços tecnológicos que ocorreram em nossa sociedade, houveram mudanças no modo como os governos e os cidadãos se relacionam as informações públicas. Cada vez mais cresce o número de governos que decidem expor seus dados em razão de mais transparência, além dos benefícios econômicos e sociais provenientes desta prática, abrindo uma enorme gama de possibilidades para a aplicação destes dados, tanto sendo utilizado por pessoas, quanto por empresas. Tendo esse contexto em vista, este trabalho propõe implementar um serviço que servirá para monitorar os gastos e iniciativas da câmara dos vereadores da cidade do Recife, disponibilizando os mesmos por meio de dashboards, com a justificativa de facilitar a busca por informações sobre os parlamentares eleitos e engajar mais os cidadãos ao meio político.


  7. Título: ANÁLISE DOS PROCESSOS COGNITIVOS MONITORADOS POR TÉCNICAS DE LEARNING ANALYTICS
    TG: aqui
    Autor(a): Emmerson Oselido Fernandes dos Santos
    Curso: Sistemas de Informação
    Orientador(a): Alex Sandro Gomes
    Avaliador(a): Nivan Roberto Ferreira Junior

    Resumo: Esta pesquisa tem como objetivo responder se é possível avaliar o processo cognitivo a partir da análise de dados. Em consequência disso, identificar quais os processos cognitivos que são monitorados, modelados ou acompanhados a partir da análise de dados, no que se trata da aplicação de técnicas de análise de dados na otimização dessa análise. O estado da arte estudado mostra que há eficácia no processo avaliativo quando se considera a análise de dados das avaliações tradicionais utilizando a tecnologia. Mediante este conhecimento, torna-se significativo buscar alcançar o objetivo já mencionado. Para responder às questões de pesquisa, previamente foi estudado o estado da arte e também foi considerado o método de Revisão Sistemática da Literatura. A partir das respostas às questões secundárias, foi possível entender que de fato é possível realizar a modelagem do processo cognitivo e realizar sua análise.


  8. Título: PESQUISA EXPLORATÓRIA SOBRE A ATUAÇÃO DAS MULHERES NAS EMPRESAS DE TECNOLOGIA DO RECIFE
    TG: aqui
    Autor(a): Glauciene Peixoto Silva
    Curso: Sistemas de Informação
    Orientador(a): Kiev Gama
    Avaliador(a): Patrícia Tedesco

    Resumo: As mulheres estão cada vez mais buscando seu espaço no mercado de trabalho em todas as áreas profissionais, em tecnologia não é diferente, elas estão ganhando mais diplomas e buscando se especializar, mas elas ainda representam uma minoria dentro do mercado de tecnologia. Com o surgimento de mais oportunidade de emprego nesse setor, as mulheres estão cada vez buscando mais espaço e consequentemente visando evoluir profissionalmente. Com esse cenário este trabalho tem o objetivo de identificar as motivações que levam elas a escolher computação e os desafios presentes no dia a dia dentro das empresas de tecnologia. Como resultado desta pesquisa foi identificado alguns pontos na família, escola e graduação que motivaram elas na escolha e no início da carreira. Foi encontrado desafios presentes dentro das empresas enfrentados por elas. Todavia, contribui positivamente para mais trabalhos futuros possa utilizar essa pesquisa como base ou dar continuidade com mais detalhamento.


  9. Título: Uma proposta de Arquitetura de Referência para DevOps
    TG: aqui
    Autor(a): Júlio Alexandre Pedrosa de Melo
    Curso: Sistemas de Informação
    Orientador(a): Vinícius Cardoso Garcia
    Avaliador(a): Henrique Rebêlo

    Resumo: Quando se decide implantar ferramentas DevOps no ciclo de vida do projeto não se sabe qual padrão/modelo arquitetural seguir. RA (Arquitetura de Referência) visa facilitar a compreensão dos requisitos, usos, características e padrões [10]. A não adoção de um modelo pode acabar gerando uma utilização ineficiente de ferramentas.


  10. Título: Máquinas de estados finitas na implementação de comportamentos de personagens em jogos digitais
    TG: aqui
    Autor(a): João Paulo Lins de Oliveira
    Curso: Sistemas de Informação
    Orientador(a): Sérgio Ricardo de Melo Queiroz
    Avaliador(a): Avaliador

    Resumo: O uso de inteligência artificial em jogos digitais é essencial e possui diversas funções, como torná-los mais imersivos, desafiadores e realísticos. Existem diversos estudos nessa área que relatam a aplicação de várias técnicas diferentes de IA. A técnica de máquina de estado finitas porém, é a mais fácil e difundida, e é utilizada de várias formas, sejam elas no controle de fluxo do jogo, ou na implementação de comportamentos de personagens não jogáveis, que podem competir com o jogador ou ajudá-lo. Assim, este trabalho demonstra como foi desenvolvido a IA de um jogo de sobrevivência, onde os inimigos possuem as mesmas ações e recursos que o jogador. Utilizando a técnica de máquina de estados finitas, a IA assumiu diferentes ações dependendo do estado em que se encontrava para tentar ganhar do jogador. Durante o desenvolvimento, foi observado deficiências no comportamento dos agentes autônomos, e refatorações foram feitas para mitigar estes problemas, até que chegou-se em um resultado satisfatório, onde a IA conseguiu oferecer um nível de desafio equivalente ao nível de habilidade da maioria dos jogadores.


  11. Título: ESTUDO EXPLORATÓRIO SOBRE GERENCIAMENTO DE PROJETOS EM STARTUPS PERNAMBUCANAS
    TG: aqui
    Autor(a): Karla Thais Chaves da Silva
    Curso: Sistemas de Informação
    Orientador(a): Hermano Perrelli de Moura
    Avaliador(a): José Carlos Cavalcanti

    Resumo: As práticas de engenharia de software são atividades desafiadoras no âmbito das startups, dada a sua origem limitada e necessidade de criar produtos inovadores e de alta tecnologia. A complexidade torna-se ainda maior quando se leva em consideração a busca de startups por modelos de negócios altamente escalonáveis. Neste cenário, destaca-se a importância da gestão de projetos, pois estes são iniciados para criar mudanças, desenvolver novos produtos, estabelecer novos processos, ou ainda criar uma nova organização. O objetivo deste trabalho é apresentar um conjunto de diretrizes voltadas ao gerenciamento de projetos em startups com o propósito de propiciar a essas organizações um conjunto de ferramentas pertinentes para que as mesmas possam desenvolver-se em meio às incertezas da indústria. O método de pesquisa deste trabalho é formado por uma pesquisa exploratória e um survey, que contribuíram para a especificação das diretrizes. Este trabalho possibilitou fornecer evidências de que a pesquisa em startups vem crescendo nos últimos anos e que, por meio de seus processos empíricos, organizou e descobriu informações relevantes para estas organizações. Destacam-se os aspectos técnicos propostos na pesquisa exploratória, que propiciaram uma visão da área de pesquisa, e as descobertas do survey, que proporcionaram uma compreensão do desenvolvimento de software em startups pernambucanas. No survey, foram obtidas respostas de 13 startups pernambucanas, possibilitando demonstrar o perfil dessas organizações e contribuindo para a confecção das diretrizes. A principal colaboração é que as diretrizes assistem as atividades de gerenciamento de projetos e ampliam as chances de sucesso dessas organizações.


  12. Título: Análise Etnográfica da Experiência com Ambiente Virtual de Aprendizagem: Openredu na Trilha ‘Comece Bem’ do SEBRAE
    TG: aqui
    Autor(a): Luiz de Barros Oliveira Neto
    Curso: Sistemas de Informação
    Orientador(a): Alex Sandro Gomes
    Avaliador(a): Simone Cristiane dos Santos

    Resumo: O ambiente virtual de aprendizagem proporciona o surgimento de relacionamentos entre indivíduos com diferentes perspectivas e visões de mundo. Essas interações auxiliam a construção do conhecimento entre os envolvidos, tanto professores quanto alunos acabam por participar e contribuir com o processo de ensino aprendizagem. Nesse contexto, o ambiente virtual de aprendizado Openredu existe como uma rede social voltada para o aprendizado colaborativo, fornecendo ferramentas para interação entre os envolvidos no processo de construção do conhecimento. Este trabalho visa observar e identificar quais barreiras dificultam o relacionamento e consequente construção do conhecimento, entre os usuários do Openredu. Para tal feito, faz-se necessário o uso da etnografia digital como meio de análise, já que é uma ferramenta que auxilia na identificação dos usuários desejados, proporciona profunda compreensão dos mesmos, revelando problemas por eles enfrentados, além de estabelecer princípios guia que possam impulsionar soluções de design mais atraentes. Determinadas limitações advindas da disponibilidade dos participantes foram encontradas, mas ainda assim, através de observações do ambiente físico e digital compartilhado, além de entrevistas que foram realizadas com os envolvidos, obtiveram-se resultados quanto a identificação das barreiras de uso na plataforma.


  13. Título: AVALIAÇÃO DE FERRAMENTAS BPMS SOB A ÓTICA DA ISO 25000
    TG: aqui
    Autor(a): Letícia Gomes da Silva
    Curso: Sistemas de Informação
    Orientador(a): Alexandre Marcos Lins de Vasconcelos
    Avaliador(a): Avaliador

    Resumo: A qualidade dos produtos de software vem alcançando destaque no cenário mundial. Sob está ótica a melhoria de processo é algo cada vez mais buscado pelas organizações, objetivando melhorar a qualidade de seus produtos e atividades. E isto é relevante para que os processos organizacionais sejam definidos e que sua execução seja realizada e monitorada. Softwares BPMS disponíveis no mercado permitem a integração e monitoramento dos processos da empresa. Este trabalho apresenta uma análise comparativa das ferramentas opensource BPMS disponiveis no mercado seguindo como parametro alguns dos critérios observados na literatura de (CRUZ, 2009) . Desta forma o objetivodeste trabalho é oferecer um auxilio na escolha das ferramentas ou sistemas de gerenciamento de processos de negócio. Pela necessidade de utilizar ferramentas gratuitas e de código aberto para suportar o desenvolvimento e aquisição com menor custo, as boas práticas abordadas pela ISO/IEC 25000 foram levadas em consideração na criação da metodologia de avaliação. Durante a execução da metodologia utilizada na avaliação de algumas ferramentas serão atribuídas notas e conceitos e ao final do processo será apresentada uma análise das ferramentas apontando seus benefícios e deficiências sobre a ótica do usuário.


  14. Título: Mangue Beat! Investigando soluções para Monitoramento de Aplicações Orientadas a Microsserviços
    TG: aqui
    Autor(a): Lucas Serra Assad
    Curso: Sistemas de Informação
    Orientador(a): Vinicius Cardoso Garcia
    Avaliador(a): Avaliador

    Resumo: Com o surgimento de novas tecnologias, metodologias e ferramentas como, por exemplo, Computação em Nuvem, Lean Startup, Docker e Kubernetes, o processo de criação de startups na área de TI foi ficando cada vez mais facilitado. Adicionalmente, com uma necessidade cada vez maior de construir aplicações de baixo custo e alta escalabilidade, tornou-se de suma importância a adoção de uma arquitetura de software rapidamente escalável, resiliente, flexível, segura e voltada a economicidade (uso otimizado de recursos para melhor gestão dos custos). Neste contexto, a abordagem de microsserviços emerge como uma excelente proposta de solução.


  15. Título: Um estudo sobre o compartilhamento de informações em organizações públicas e sua relevância para o Observatório Universal de Projetos
    TG: aqui
    Autor(a): Michelle Juliana Pereira da Silva
    Curso: Sistemas de Informação
    Orientador(a): Hermano Perrelli de Moura
    Avaliador(a): Alexandre Marcos Lins de Vasconcelos

    Resumo: O compartilhamento da informação tem se tornado grande aliado das organizações. Foi através do seu incentivo que a participação da sociedade em diversos assuntos se tornou mais evidente. Organizações públicas em todo o mundo já começaram a buscar métodos para disseminar informação com objetivo de facilitar seus processos, de forma que a sociedade seja mais participativa. A partir disso se fez necessário a realização de um estudo que pudesse compreender melhor o cenário em questão. Este trabalho destina-se à produção de um mapeamento sistemático da literatura para apresentar os resultados de como as Organizações Públicas estão compartilhando informações com a sociedade. De forma que este estudo possa contribuir para criação de um Observatório Universal de projetos, o OUP, uma abordagem que tem por objetivo possibilitar o compartilhamento de informações sobre projetos de quaisquer naturezas, por meio de uma plataforma virtual colaborativa, onde pessoas de dentro e fora das organizações possam ter uma participação efetiva que impacte na melhoria do gerenciamento de seus projetos.


  16. Título: SISTEMAS DE INFORMAÇÃO NO CONTEXTO EDUCACIONAL
    TG: aqui
    Autor(a): Rafael Djalma Uchoa Rocha
    Curso: Sistemas de Informação
    Orientador(a): Alexandre Marcos Lins de Vasconcelos
    Avaliador(a): Carla Silva

    Resumo: O mundo vive hoje um processo de rápidas e profundas transformações, muitas delas determinadas pelo crescimento e importância das tecnologias de informação e comunicação. Estas tecnologias estão modificando a forma como estudamos, trabalhamos e vivemos nosso cotidiano. Este trabalho apresenta os resultados de um estudo de cunho descritivo, de revisão bibliográfica e de pesquisa das alternativas de mercado sobre os Sistemas de Informação usados para apoiar as organizações educacionais, mostrando em parte como eles atuam, os seus benefícios, as características, as dificuldades na sua implantação, suas relações com os diferentes públicos estratégicos e, por fim, seus posicionamentos no processo da gestão educacional nas diversas esferas administrativas. Como resultado da pesquisa, a análise apresenta os Sistemas de Colaboração e os de Gerenciamento da Sala de Aula, os Sistemas de Gerenciamento do Aprendizado (SGA), os Sistemas de Gestão Escolar (SGE) e, por fim, os Sistemas de Informação de Gestão Educacional (SIGE).


  17. Título: Utilizando Modelo Multicritério na Seleção de Dispositivo UTM (Unified Threat Management): Um Estudo de Caso
    TG: aqui
    Autor(a): Rômulo Ferreira da Silva
    Curso: Sistemas de Informação
    Orientador(a): Adiel Teixeira de Almeida Filho
    Avaliador(a): Jessyca Vilela

    Resumo: Este trabalho tem como objetivo analisar e descrever o cenário de implementação utilizando abordagem multicritério para o aprimoramento no processo de classificação de ferramenta UTM (Unified Threat Management) como solução centralizadora de segurança da informação na empresa PROPEG e suas filiais, servindo de guia padrão para seleção das soluções apresentadas pelo mercado, de forma personalizada, no qual se faz necessário entender não só as alternativas ofertadas, mas as necessidades e objetivos de cada organização, algo indispensável já que propõe uma unificação de serviços primordiais da SI. Também objetiva detectar os fatores decisivos para a escolha de ferramentas UTM explorando características e recursos disponíveis, a fim de desenvolver um modelo de apoio a tomada de decisão, baseado no método de análise multicritério FTOPSIS-Class.


  18. Título: ANÁLISE DA EFETIVIDADE DE PLATAFORMA DE APRENDIZAGEM UBÍQUA COM JOVENS E ADULTOS COM BAIXA ESCOLARIDADE
    TG: aqui
    Autor(a): Robson Soares de Silva Júnior
    Curso: Sistemas de Informação
    Orientador(a): Alex Sandro Gomes
    Avaliador(a): Giordano Cabral

    Resumo: Neste trabalho serão apresentados resultados de testes de usabilidade para validação da efetividade do uso de uma aplicação ubíqua com jovens adultos do ensino para jovens e adultos (EJA). Os testes de usabilidade foram aplicados através do uso da aplicação, em conjunto com os questionários utilizando o método AttrakDiff a fim de recolher os níveis de satisfação, efetividade, bem como identificar possíveis pontos de melhorias na experiência dos usuários de tecnologia de aprendizagem úbiqua. Através do recolhimento destes resultados, será possível avaliar de maneira mais assertiva a efetividade do uso de uma aplicação móvel de aprendizagem no cotidiano de jovens e adultos com baixa escolaridade, trazendo assim uma nova abordagem mais realista a respeito do impacto da inserção de ferramentas de u-learning no contexto de aprendizagem do adulto, dado que poucos trabalhos na área conseguiram trazer alguma mensuração real do uso de ferramentas da área.