Universidade Federal de Pernambuco (UFPE)
Centro
de Informática (CIn)
Graduação em Ciência da Computação, Engenharia da Computação, e Sistemas de Informação

Trabalhos de Graduação - 2021.1


Ciência da Computação
Responsável: Márcio Lopes Cornélio (mlc2)
Código
da disciplina no Google Classroom:


  1. Título:Síntese de Imagens Fotorrealistas Usando Offline Path Tracing
    Proposta inicial: aqui
    Autor(a):​ Luís Henrique do Nascimento Santos
    Curso: Ciência da Computação
    Orientador(a):​ Silvio de Barros Melo
    Banca: Giordano Ribeiro Eulalio Cabral
    Resumo da Proposta:
    Data e horário da apresentação: 23/12//2021, 10h
    Local: via Google Meet (entrar em contato com a/o estudante)

  2. Título:An Analysis of QUIC Use on Cloud Environments
    Proposta inicial: aqui
    Autor(a):​ Mário Victor Gomes de Matos Bezerra
    Curso: Ciência da Computação
    Orientador(a):​ Vinicius Cardoso Garcia
    Banca: Kiev Santos da Gama
    Resumo da Proposta: QUIC is a transport-layer protocol created by Google intended to address some problems of TCP while maintaining compatibility with existing network infrastructure. It has shown to improve user-experience on multiple services and its adoption is increasing everyday.
    Data e horário da apresentação: 15/12/2021, 19h30
    Local: via Google Meet (entrar em contato com a/o estudante)

  3. Título:Análise e desenvolvimento de estrutura de dados para representar graos de DeBruijn
    Proposta inicial: aqui
    Autor(a):​ João Vasconcelos de Souza Neto
    Curso: Ciência da Computação
    Orientador(a):​ Paulo Gustavo Soares ds Fonseca
    Banca: Nivan Roberto Ferreira Júnior
    Resumo da Proposta: Um Grafo de Bruijn (GdB) é uma das mais conhecidas estruturas de dados para representar sequências de DNA (uma sequência baseada nas bases A, C, G,T). Dentre as diversas formas de processar uma sequência, as mais atuais são capazes de gerar centenas de bases por segundo em fluxo contínuo(stream). Uma possível solução para realizar consultas nesse fluxo de dados é, ao processar toda a sequência, gerar um GdB e realizar consultas com base no grafo, eara esse problema existem diversas soluções que otimizam a representação desse grafo tanto em espaço e velocidade de armazenamento. A proposta desse trabalho é definir uma estrutura otimizada e competitiva, comparada às atuais soluções na literatura, com base em um GdB que possa trabalhar com uma stream contínua de bases de um genoma.
    Data e horário da apresentação: 22/12/2021, 9h
    Local: via Google Meet (entrar em contato com a/o estudante)

  4. Título:Análise das Funcionalidades, Usabilidade e Disponibilidade de Modelos de Redes Adversárias Gerativas para Uso Artístico
    Proposta inicial: aqui
    Autor(a):​ Bruno Dutra de Lemos Neto
    Curso: Ciência da Computação
    Orientador(a):​ Filipe C. A. Calegário
    Banca: Giordano Ribeiro Eulalio Cabral
    Resumo da Proposta: Pesquisas na área de criatividade computacional se mostram cada vez mais presentes e aprofundadas nos últimos anos. A busca por modelos que tragam um comportamento criativo de computadores traz curiosidade e interesse devido aos resultados cada vez mais realistas e inovadores. Uma das subáreas mais prolíficas é a transformação de estilo artístico entre imagens, utilizando, em sua maioria, as redes adversárias gerativas (GANs) como ferramenta de geração criativa. Entretanto, a utilização de ferramentas desse contexto para a produção de artes visuais, não é acessível para muitos artistas devido aos requisitos de conhecimento técnico exigidos e capacidade computacional necessária. Este trabalho busca analisar ferramentas e modelos implementados com o objetivo de identificar a avaliar fatores que possam dificultar o acesso da comunidade artística, experimentar as suas funcionalidades e propor métodos que busquem a colaboração criativa entre a comunidade artística e os modelos implementados.
    Data e horário da apresentação: 21/12/2021, 16h
    Local: via Google Meet (entrar em contato com a/o estudante)

  5. Título:Diretrizes para Apresentação de Políticas de Privacidade voltadas a Experiência do Usuário
    Proposta inicial: aqui
    Autor(a):​ Egberto Silva de Santana
    Curso: Ciência da Computação
    Orientador(a):​ Jéssyka Vilela
    Banca: Carla Silva
    Resumo da Proposta: Contexto: Empresas estão cada vez mais buscando conformidades e adequação a suas políticas, devido ao fato da necessidade de transparência do que será feito com as informações do usuário, além delas poderem ter problemas jurídicos por conta da Lei Geral de Privacidade de Dados (LGPD). Do lado do usuário é possível perceber que existe a necessidade de saber exatamente quais informações está concordando em compartilhar e até quem essas informações poderiam ser passadas. Porém as políticas de privacidade normalmente são apresentadas de forma longa, em um termo de compromisso e com um vocabulário muito formal, o usuário acaba perdendo o interesse de ler o documento. Objetivo: Diante do cenário mencionado, este trabalho de graduação propõe um guia para construir políticas de privacidade com um viés de usabilidade. Método: Uma revisão da literatura sobre técnicas de avaliação de políticas de privacidade assim como metodologias de legibilidade e métricas de experiência do usuário será realizada. Além disso, serão realizadas entrevistas com usuários e especialistas em privacidade e usabilidade para construir e validar as diretrizes de elaboração de políticas de privacidade voltadas para usabilidade. Finalmente, as diretrizes propostas serão aplicadas em uma plataforma que utiliza política de privacidade como exemplo de aplicação. Resultado: Espera-se alcançar uma melhor experiência de usuário com uma nova apresentação da política de privacidade utilizando as diretrizes do guia proposto. Resultando assim em uma melhor interpretação e entendimento dessa política apresentada e reduzindo o grau de dificuldade para entendimento de políticas de privacidade enfrentados pelos usuários.
    Data e horário da apresentação: 23/12/2021, 19h
    Local: via Google Meet (entrar em contato com a/o estudante)

  6. Título:Extensão e análise de performance da ferramenta de merge textual CSDiff para novas linguagens
    Proposta inicial: aqui
    Autor(a):​ Heitor Sammuel Carvalho Souza
    Curso: Ciência da Computaçã
    Orientador(a):​ Paulo Henrique Monteiro Borba
    Banca: Paolla Acyolli
    Resumo da Proposta: Conflitos de merge são presentes no dia a dia do desenvolvimento de software e podem causar impacto negativo na performance dos desenvolvedores. Uma das linhas de pesquisa para tentar reduzir esse problema é a evolução das fer- ramentas utilizadas para auxiliar no processo de merge automatizado. Hoje, a abordagem mais comum é o merge textual, onde a comparação entre os arquivos de código é feita considerando apenas as linhas do texto. No outro extremo, existe o merge estruturado, que compara os arquivos levando em consideração sua estrutura sintática e semântica. Neste trabalho, damos continuidade no de- senvolvimento de uma ferramenta (CSDiff) que utiliza o merge textual mas visa simular o estruturado, utilizando os marcadores sintáticos de cada linguagem para guiar o processo de merge. Mostramos uma extensão da ferramenta capaz de analisar conflitos de código nas linguagens Ruby e TypeScript, bem como uma análise de sua acurácia em commits de merge em repositórios de código aberto .
    Data e horário da apresentação:
    Local: via Google Meet (entrar em contato com a/o estudante)

  7. Título:Sistema para geração de leads qualificados nas Redes Sociais
    Proposta inicial: aqui
    Autor(a):​ Ramom Pereira dos Santos Silva
    Curso: Ciência da Computação
    Orientador(a):​ Luciano de Andrade Barbosa
    Banca: Tsang Ing Ren
    Resumo da Proposta: Nos últimos anos, a internet cresceu de uma forma surpreendente, se tornando o principal meio de informação e comunicação na sociedade atual. As redes sociais surgiram e cresceram de forma exponencial, impactando não apenas a socialização entre pessoas, mas também como as empresas divulgam seus produtos. O marketing digital se provou ser uma boa estratégia para atrair audiência e possíveis clientes para as mais diversas marcas no mundo. As principais estratégias buscam impactar o maior número de pessoas, o que não é necessariamente a melhor maneira de adquirir clientes. Este trabalho tem como objetivo o desenvolvimento de um sistema de geração de contatos (Leads) qualificados para a startup Prepi, no ramo de E-commerce.
    Data e horário da apresentação: 16/12/2021
    Local: via Google Meet (entrar em contato com a/o estudante)

  8. Título:Uso de BERT para otimização de consultas em sites de ecommerce
    Proposta inicial: aqui
    Autor(a):​ Rodrigo Albuquerque Pereira
    Curso: Ciência da Computação
    Orientador(a):​ Luciano de Andrade Barbosa
    Banca: Hansenclever de Franca Bassani
    Resumo da Proposta: A área de processamento de linguagem natural vem evoluindo rapidamente nos últimos anos, a partir de modelos como os transformers, que são usados como base como modelos que guiam o estado da arte atualmente, como o GPT, criado pelo Open AI e o BERT, criado por engenheiros do Google. Apesar dessa evolução, modelos tradicionais de busca, como o BM-25, ainda são comumente usados em buscadores de itens dentro de plataformas de ecommerce. Esse trabalho visa realizar o fine-tuning do BERT para realização de buscas em ecommerce, comparando seus resultados com modelos tradicionais, de modo a testar a hipótese de que o BERT pode ser mais assertivo que os modelos tradicionais de busca.
    Data e horário da apresentação: 16/12/2021
    Local: via Google Meet (entrar em contato com a/o estudante)

  9. Título: Benefícios e desafios de comunidades para mulheres em Tecnologia: um estudo sobre o Women Who Code Recife
    Proposta inicial: aqui
    Autor(a):​ Nara Souza de Andrade
    Curso: Ciência da Computação
    Orientador(a):​ Carina Frota Alves
    Banca: Carla Taciana Lima Lourenço Silva
    Resumo da Proposta: Nos últimos anos, tem-se percebido um maior número de discussões em torno dos obstáculos encontrados por mulheres na academia e na indústria nas áreas de Ciências, Tecnologia, Engenharia e Matemática (em inglês: Science, Technology, Engineering, Maths - STEM). Juntamente com a busca por problemas e dificuldades existentes, veio também a busca por soluções. Dentre elas, podemos citar iniciativas de mentoria, tanto em universidades quanto em empresas, e a criação de comunidades. Ambas auxiliam no desenvolvimento de habilidades técnicas e também atuam em um ponto crucial: o suporte social e psicológico. Este trabalho visa mapear os benefícios, desafios e boas práticas sobre tais iniciativas identificados na literatura, além da aplicação de um survey na comunidade Women Who Code no Recife.
    Data e horário da apresentação: 15/12/2021
    Local: via Google Meet (entrar em contato com a/o estudante)

  10. Título:Criação e execução de testes através de método no-code: Sem a necessidade de escrita de código
    Proposta inicial: aqui
    Autor(a):​ Germano Pires de Carvalho
    Curso: Ciência da Computação
    Orientador(a):​ Patrícia Cabral de Azevedo Restelli Tedesco
    Banca: Alexandre Cabral Mota
    Resumo da Proposta: A pesquisa se baseia em referenciar os métodos de programação no-code, a fim de propor uma forma de programação adaptada que não utiliza sintaxes de linguagens de programação e que seja utilizada para criação e execução de testes. Permitindo que engenheiros de softwares com ênfase em testes não habituados a programar possam ter a capacidade de desenvolvimento. O método proposto receberá feedback dos engenheiros de softwares com ênfase em testes, validando e alterando a proposta, mas em momento algum será implementada, apenas idealizada, deixando a implementação para projetos futuros.
    Data e horário da apresentação: 14/12/2021
    Local: via Google Meet (entrar em contato com a/o estudante)


  11. Título: Motivações e desafios para a permanência de pessoas negras na área de Computação: Um Estudo de Caso nos cursos de graduação do Centro de Informática da UFPE
    Proposta inicial: aqui
    Autor(a): Juliano Cezar Teles Vaz
    Curso: Ciência da Computação
    Orientador(a):​ Kiev Gama
    Banca: Profa. Carina Alves (UFPE/ Centro de Informática) e Prof. Ecivaldo Matos (UFBA/ Instituto de Computação)
    Resumo da Proposta:
    Data e horário da apresentação: 07/12/2021, 17h.
    Local: via Google Meet (entrar em contato com o estudante)

  12. Título: Hybrid System for Multivariate Photo-voltaic Power Forecasting
    Proposta inicial: aqui
    Autor(a):​ Guilherme Afonso Galindo Padilha
    Curso: Ciência da Computação
    Orientador(a):​ Paulo Salgado Gomes de Mattos Neto
    Banca: George Darmiton da Cunha Cavalcanti
    Resumo da Proposta: In the past years, the use of solar photovoltaic (PV) power has grown significantly in electricity generation. However, the output of such installations may be uncertain, impacting its reliability. The forecast of PV output is a necessity for assuring the stability of the system. This project aims to develop a new hybrid model capable of accurately predicting hour-ahead and day-ahead PV power output. The hybrid model will combine the linear and non-linear phases of forecasting in an innovative way, and use bioinspired algorithms to tune its hyperparameters.
    Data e horário da apresentação: 16/12/2021, 14h
    Local: via Google Meet (entrar em contato com a/o estudante)

  13. Título: Proposta de Arquitetura para Monitoramento e Reprocessamento de Mensagens de Dead Letter Queue do Amazon Simple Queue Service
    Proposta inicial: aqui
    Autor(a):​ Edjan Michiles
    Curso: Ciência da Computação
    Orientador(a):​ Vinicius Garcia
    Banca: Nelson Souto Rosa
    Resumo da Proposta: Neste trabalho, será proposto um modelo de arquitetura para monitoramento e reprocessamento de mensagens do Amazon Simple Queue Service (SQS) utilizando o Datadog juntamente com Terraform para monitoramento e Github Actions como ferramenta de reprocessamento de mensagens manual. A princípio, serão apresentados os conceitos de filas e dead letter queues (DLQs). Em seguida, serão levantados alguns problemas recorrentes no reprocessamento de mensagens. Após isso, alguns problemas recorrentes no dia a dia de pessoas engenheiras de software respons´aveis por alguma aplica¸c˜ao que faz o uso de processamento assíncrono através de filas ser˜ao apresentados e como os conceitos de monitoramento e observabilidade ajudam a mitigar os problemas de maneira r´apida, reduzindo os impactos aos usu´arios finais. Por fim, ser˜ao introduzidas as ferramentas que iremos utilizar e a proposta de arquitetura, detalhando o passo a passo de sua implementação.
    Data e horário da apresentação: 15/12/2021, 15h30min
    Local: via Google Meet (entrar em contato com a/o estudante)

  14. Título: Uma análise pessimista de fluxo de dados para detecção de conflitos de integração semânticos
    Proposta inicial: aqui
    Autor(a):​ Rafael Mota
    Curso: Ciência da Computação
    Orientador(a):​ Paulo Henrique Monteiro Borba
    Banca: Rodrigo Bonifacio (UnB)/ Paulo Henrique Monteiro Borba (UFPE)
    Resumo da Proposta: Em times de desenvolvimento de software, tipicamente desenvolvedores adicionam suas modificações em versões separadas do código, e posteriormente essas modificações precisam ser integradas em uma versão central. Esse pro- cesso de integração pode causar uma série de tipos de conflitos que podem não ser detectados pelos desenvolvedores ou pelas ferramentas de integração atuais e introduzir bugs ao sistema. Um dos tipos de conflito de integração é o tipo de conflitos de integração semânticos, esse tipo de conflitos ocorre quando as mudanças introduzidas pela versões interferem entre si durante a execução do código. Alguns algoritmos de análise estática já foram propostos para detectar esse tipo de conflito, no entanto esses algoritmos são muito complexos e têm limitações de desempenho. Com isso em mente, surge a necessidade de explorar simplificações dos algoritmos propostos. Este trabalho propõe uma simplificação dos algoritmos já propostos baseada no algoritmo Data-flow, que busca detectar fluxos de dados entre as mudanças introduzidas pelas versões integradas. Esse algoritmo implementa uma variação intraprocedural pessimista do algoritmo de Data-flow. O algoritmo proposto será implementado para a linguagem de programação Java, e será executado em uma amostra de cenários de integração de outros trabalhos. Com os resultados da execução, será feita uma análise comparativa com os resultados obtidos a partir de uma análise manual a fim de avaliar a eficácia do algoritmo para o problema de detecção de fluxos de dados e de conflitos de merge semânticos.
    Data e horário da apresentação: 16/12/2021, 14h
    Local: via Google Meet (entrar em contato com a/o estudante)

  15. Título: Estudo comparativo entre ferramentas de teste para React
    Proposta inicial: aqui
    Autor(a):​ Pamella Bezerra da Silva
    Curso: Ciência da Computação
    Orientador(a):​ Leopoldo Motta Teixeira
    Banca: Breno Miranda
    Resumo da Proposta: Testes de frontend fazem parte do processo de desenvolvimento de software e trazem muitos benefícios para a melhoria e a manutenção da qualidade da interação e da experiência do usuário final com o sistema. No contexto de aplicações web, React é um dos frameworks frontend mais populares e que conta com um leque muito grande de ferramentas de teste. Neste texto será apresentado um estudo comparativo entre duas delas, Enzyme e React Testing Library, que apresentam os maiores percentuais de satisfação por parte da comunidade de JavaScript, sendo a primeira já fortemente consolidada e a segunda buscando atingir mais público. A proposta do estudo é identificar os pontos fortes e fracos e, assim, servir de base para sugerir quais cenários são mais adequados para o uso de cada uma.
    Data e horário da apresentação: 14/12/2021, 14h
    Local: via Google Meet (entrar em contato com a/o estudante)

  16. Título: “And the nominees are”: Uma abordagem de Data Science para predição dos indicados ao Oscar de Melhor Filme
    Proposta inicial: aqui
    Autor(a):​ Gabriel Vinícius Melo Gonçalves da Silva
    Curso: Ciência da Computação
    Orientador(a):​ Luciano Barbosa
    Banca: Tsang Ing Ren
    Resumo da Proposta: Premiações, tal qual o Oscar, são uma celebração anual da indústria cinematográfica mundialmente populares, mas também servem como plataforma para o impulso, divulgação e estabelecimento de países, estúdios e distribuidoras, especialmente se tomado o recorte dos últimos anos, para serviços de streaming. Possuir e produzir filmes indicados ao Oscar é um forte indicador de relevância para qualquer organização dentro desta indústria e obviamente um fator de rentabilidade. Em paralelo, existe ainda o mercado para apostas de nomeados e vencedores mostrando a pertinência do uso de métodos preditivos neste domínio. Levando tudo isto em consideração, este trabalho visa estabelecer uma baseline para a predição de filmes nomeados à categoria de Melhor Filme (do original em inglês, Best Picture) da Academia de Artes e Ciências Cinematográficas (tradução livre de Academy of Motion Pictures Arts and Sciences, ou AMPAS), nome oficial do Oscar, implementando para tanto uma pipeline de data science, partindo desde o estudo e entendimento do domínio em questão à obtenção, extração e modelagem dos dados necessários, e culminando na geração de um modelo preditivo.
    Data e horário da apresentação: 16/12/2021, 15h
    Local: via Google Meet (entrar em contato com a/o estudante)

  17. Título:FAST-maven-plugin: Um plugin para a priorização de casos de testes baseada em similaridade
    Proposta inicial: aqui
    Autor(a):​ Saulo Alexandre Barros
    Curso: Ciência da Computação
    Orientador(a):​ Breno Miranda
    Banca: Leopoldo Mota Teixeira
    Resumo da Proposta: A massiva quantidade de testes de software presentes em alguns projetos, além de benefícios trazem alguns problemas. Como por exemplo, a possível demora para a descoberta de bugs presentes no código. Visando a problemática, foram desenvolvidas as técnicas FAST Approaches to Similarity-based Testing, que fornecem priorização escalonável de casos de testes com base em similaridade. Entretanto, o projeto FAST possui seu funcionamento restrito aos testes de alguns projetos que foram implementados a ele, a fim de experimentos propostos na publicação da ferramenta. Para que desenvolvedores pudessem utilizar o projeto é necessário que façam modificações e customizações nele, o que em muitos casos pode dificultar ou até inviabilizar o uso do FAST. Este trabalho tem como finalidade aprimorar o projeto FAST, de forma a torná-lo uma ferramenta para a priorização dos casos de testes de diferentes projetos de software desenvolvidos com Java, e integrar a execução deles de forma priorizada durante o processo de geração de build da ferramenta Maven através da criação de um plugin para a plataforma. Além disso, outro objetivo deste trabalho é avaliar o tempo adicionado a execução dos testes devido a utilização do plugin criado.
    Data e horário da apresentação: 14/12/2021, 14h45min
    Local: via Google Meet (entrar em contato com a/o estudante)




Engenharia da Computação
Responsável: Prof. Divanilson Campelo (aams@cin.ufpe.br)


  1. Título: Avaliação do método de Random Forest para indicar o melhor momento de Compra e Venda de ações no mercado financeiro
    TG: aqui
    Autor(a): ADRION CAVALCANTI DE ALBUQUERQUE FILHO
    Curso: Engenharia da Computação
    Orientador(a):​ Adriano Lorena Inácio de Oliveira
    Possíveis Avaliadores: Adiel Teixeira de Almeida Filho
    Resumo da Proposta: Prever o valor de ações na bolsa de valores é um desafio já conhecido para analistas financeiros e no meio acadêmico. Porém, a maior parte das abordagens que há na literatura que utilizam Aprendizagem de Máquina só levam em conta os dados de dias anteriores e indicadores técnicos. Metodologias que usam o valor de abertura do próprio dia que se deseja prever tendências são escassas. Neste trabalho, será avaliado se é possível obter resultados satisfatórios aplicando a técnica de Random Forest para regressão em conjunto com Feature Selection (E possíveis otimizações) para, baseado no comportamento durante 5 dias anteriores e no valor de abertura do dia atual, prever os valores máximo e mínimo que uma ação irá atingir ao longo do dia. Com os valores obtidos nesta previsão, é avaliado um sistema que irá indicar os potenciais momentos em que uma transação de Day Trading deverá ser iniciada para resultar em lucro.

  2. Título: PREVISÃO DE FALHAS EM UMA MÁQUINA INDUSTRIAL UTILIZANDO MÉTODOS DE APRENDIZAGEM SUPERVISIONADA
    TG: aqui
    Autor(a): ALLYSSON LUKAS DE LIMA ANDRADE
    Curso: Engenharia da Computação
    Orientador(a):​ Fernando Maciano de Paula Neto
    Possíveis Avaliadores: Aluizio Fausto Ribeiro Araujo
    Resumo da Proposta: Paradas não planejadas em máquinas industriais podem aumentar significativamente os custos de manutenção, assim como, impactar negativamente na produção total de uma fábrica. Para mitigar esse problema, além das manutenções preventivas, manutenções preditivas podem ser realizadas. Este trabalho propõe o desenvolvimento de um modelo de aprendizagem para tentar prever o tempo até uma falha, permitindo sua aplicação em um sistema de manutenção preditiva. Foi utilizado um banco de dados privado com informações de falhas e sensores de máquina, no qual foi feito o pré-processamento e treinamento de modelos de aprendizagem supervisionada utilizando o Multi-Layer Perceptron, Support Vector Regression, Decision Tree Regression e o K Nearest Neighbors Regression. Os modelos foram treinados com dados normalizados utilizando a abordagem Z-Score e a Min-Max. Os resultados indicaram que a normalização Min-Max apresentou bom resultados para a maioria dos modelos, porém a configuração que apresentou o menor erro foi com a utilização do K Nearest Neighbors Regression em dados normalizados com a Z-Score, no qual apresentou resultados melhores que os demais em todas as configurações realizadas, essa configuração também mostrou obter um resultado semelhante a trabalhos relacionados.

  3. Título: Catálogo de critérios para avaliação de políticas de privacidade
    TG: aqui
    Autor(a): AUGUSTO HENRIQUES TERRA
    Curso: Engenharia da Computação
    Orientador(a):​ Jéssyka Flavyanne Ferreira Vilela
    Possíveis Avaliadores: Carla Taciana Lima Lourenco Silva
    Resumo da Proposta: Contexto: Notícias constantes de vazamentos de dados pessoais têm levantado o questionamento em usuários de aplicativos e websites sobre quão seguras suas informações estão sob o domínio das empresas responsáveis. Nesse contexto, o cenário é tão preocupante ao ponto de vários governos ao redor do mundo adotarem medidas para que empresas e organizações aumentem o investimento em ações que protejam as informações dos usuários. Dessa forma, diversas leis de proteção de dados pessoais têm surgido em várias regiões a fim de proteger, regulamentar e garantir a privacidade dos cidadãos, como a Regulamentação Geral de Proteção de Dados (do inglês, General Data Protection Regulation - GDPR) em países pertencentes à União Europeia e a Lei Geral de Proteção de Dados (LGPD) no Brasil. Políticas de Privacidade são os documentos que as empresas e companhias elaboram com o intuito de alertar os usuários das plataformas sobre uma série de informações a respeito de como tratam seus dados pessoais. Entretanto, pesquisas anteriores mostraram que as Políticas de Privacidade são documentos longos, difíceis de serem lidos e nem sempre estão de acordo com a lei vigente ou mesmo refletem a real prática de coleta e manutenção de dados da organização. Isto é um problema pois a Política de Privacidade da organização é a principal fonte do usuário para saber como a empresa trata seus dados pessoais, além disso, a penalização que o governo impõe para empresas que violem a lei de proteção de dados pode chegar a multas milionárias. Sendo assim, é válido estudar e analisar políticas de privacidade para que se tenha uma base sólida sobre quais métricas elas devem ser avaliadas. Objetivo: Este trabalho propõe um catálogo de critérios para avaliação de Políticas de Privacidade. Método: Para atingir esse objetivo, foi realizada uma revisão sistemática da literatura, aplicando a técnica de bola de neve (do inglês, snowballing) para encontrar artigos relevantes da área, que fazem avaliação de políticas de privacidade e que expõem os critérios utilizados para fazer a análise. O estudo contempla resultados coletados a partir de 48 artigos diferentes que se relacionam diretamente com o tema. Baseado nos critérios de avaliação que esses artigos adotam e nos resultados encontrados pelos autores, foi elaborado o catálogo. Resultados: O catálogo proposto possui 29 critérios diferentes agrupados em 5 categorias que dizem respeito a: Acessibilidade da Política de Privacidade, Conteúdo do documento, Participação do usuário, Alterações no documento e Consentimento e Permissão do usuário. Conclusões: O catálogo desenvolvido pode ser utilizado como um guia para redatores de Políticas de Privacidade para escrever documentos mais completos e corretos, além de auxiliar analistas e responsáveis pela aplicação, deixando mais claro quais informações devem ser devidamente documentas sobre a prática de coleta de dados.

  4. Título: Implementação de módulo de Histograma de Gradientes Orientados para aplicações em streaming com prototipação em FPGA
    TG: aqui
    Autor(a): BELARMINO GORLACH LIRA
    Curso: Engenharia da Computação
    Orientador(a):​ Edna Natividade da Silva Barros
    Possíveis Avaliadores: Adriano Augusto de Moraes Sarmento
    Resumo da Proposta: Na área automotiva, existe uma crescente demanda de aplicações com altas taxas de processamento. Dentre elas destaca-se a detecção de pedestres, uma aplicação fundamental para melhorar a eficiência e segurança dos sistemas de transporte. Este trabalho descreve a implementação de um módulo de hardware para aplicações em streaming que utiliza a técnica de Histograma de Gradientes Orientados ou Histogram of Oriented Gradients (HOG) para geração de descritores de características a partir de gradientes de imagens de entrada. A elaboração do módulo visou otimizar o processamento da etapa de extração de características necessárias para aplicações em streaming. Sua integração a um sistema de detecção de pedestres demonstrou a capacidade de geração de histogramas precisos em tempo hábil com uma utilização extremamente baixa de recursos computacionais de hardware. O módulo desenvolvido foi validado com diferentes resoluções de imagens variando da maior resolução de 640x1176 até a menor de 160x192. O código carregado no FPGA ocupou menos de 1% da memória a disposição, bem como utilizou apenas 2% do total de elementos lógicos disponíveis na plataforma DE2i-150, para toda a faixa de resoluções de imagem utilizadas. O FPS variou de 32,25 para a maior resolução até 500 para dimensões de frame de 160x192. Os resultados obtidos também mostram uma grande capacidade de aplicação em diferentes contextos devido ao suporte ao processamento de múltiplas resoluções de imagem e variação dos níveis de precisão dos dados em tempo de execução.

  5. Título: PLATAFORMA PARA GERENCIAMENTO DE TRABALHOS DE GRADUAÇÃO UTILIZANDO O NODEJS
    TG: aqui
    Autor(a): CARLOS EDUARDO BARROS LEAL PESSOA DE MELLO
    Curso: Engenharia da Computação
    Orientador(a):​ Henrique Emanuel Mostaert Rebêlo
    Possíveis Avaliadores: Leopoldo Motta Texeira
    Resumo da Proposta: O trabalho proposto tem como finalidade a criação de uma aplicação back-end para auxiliar tanto aluno quanto seu orientador no gerenciamento dos trabalhos de graduação. Para tanto, foi utilizada a metodologia do Behavior Driven Development (BDD) para ideação e concepção das funcionalidades dessa plataforma, o que contribuiu diretamente para a implementação dos testes da aplicação. A tecnologia core escolhida para elaboração dessa aplicação foi o ambiente NodeJS, utilizando o framework NestJS que possibilitou a criação de uma API no estilo de arquitetura REST. Ao longo deste trabalho serão ilustradas as demais ferramentas e stack utilizadas para realização desse projeto. O estudo visa mostrar toda parte de concepção do projeto até a etapa de implementação das funcionalidades para que seja possível a criação desta plataforma de acompanhamento entre aluno-orientador. Além disso, houve o levantamento de um novo requisito para essa aplicação que consiste em ofertar ao discente uma lista dos professores que estão disponíveis para prestar essa orientação e quais as áreas de atuação e/ou interesse do docente. Os resultados obtidos foram satisfatórios, mostrando que a ferramenta core escolhida NodeJS, e framework back-end NestJS, se mostrou apta a construir as demandas que serão ilustradas neste trabalho. Assim, cumprindo com quase todas as funcionalidades da API Rest sem nenhum percalço significativo, por ter poucas limitações.

  6. Título: MobApp - Dashboard para Visualização de Trajetórias de Ônibus
    TG: aqui
    Autor(a): FERNANDO DE BARROS WANDERLEY NETO
    Curso: Engenharia da Computação
    Orientador(a):​ Luciano de Andrade Barbosa
    Possíveis Avaliadores: Kiev Santos da Gama
    Resumo da Proposta: A aplicação MobApp foi desenvolvida com o objetivo de ser um protótipo de código aberto para integrar dados de trajetórias de ônibus com um dashboard para a visualização de padrões espaço-temporais e resultados de modelos de detecção de anomalias. Neste trabalho descreve- mos o pré-processamento, o modelos de persistência dos dados, a interface para manipulação do banco de dados (backend) e as telas que compões o frontend.

  7. Título: IMPLEMENTAÇÃO DE MÉTODO DE GERAÇÃO DAS MALHAS DE BAIXA RESOLUÇÃO PARA A SIMULAÇÃO MULTIESCALA DE RESERVATÓRIOS DE PETRÓLEO EM TRÊS DIMENSÕES ATRAVÉS DO MÉTODO DOS VOLUMES FINITOS
    TG: aqui
    Autor(a): FILIPE ANTÔNIO CUMARU SILVA ALVES
    Curso: Engenharia da Computação
    Orientador(a):​ Paulo Roberto Maciel Lyra
    Possíveis Avaliadores: Odilon Maroja da Costa Pereira Filho
    Resumo da Proposta: A simulação de reservatórios de petróleo é uma tarefa desafiadora por envolver fenômenos em múltiplas escalas e pela dificuldade em balancear o detalhamento do modelo discreto da descrição do reservatório, denominado malha, com o tempo de computação necessário para realização da simulação. Neste contexto, métodos multiescala são usados afim de efetuar a simulação numa discretização de menor resolução mas ainda capaz de preservar aspectos importantes da física do reservatório. Uma etapa importante é a geração de tal modelo de menor resolução, principalmente para casos tridimensionais com malhas não-estruturadas. Neste trabalho, foi implementada uma extensão para três dimensões de uma estratégia para geração de malhas baseada no conceito de malha de fundo com intuito de utilizá-las para simulação multiescala de reservatórios de petróleo utilizando o método dos volumes finitos (MVF). O programa foi desenvolvido na linguagem Python com auxílio de bibliotecas de computação científica e os resultados foram verificados qualitativamente com base nos requisitos estabelecidos no trabalho original em duas dimensões.

  8. Título: Métodos de detecção de ataques Poltergeist a câmeras de sistemas de carros autônomos
    TG: aqui
    Autor(a): LUCAS AMBROSIO MEDEIROS
    Curso: Engenharia da Computação
    Orientador(a):​ Divanilson Rodrigo de Sousa Campelo
    Possíveis Avaliadores: Ricardo Bastos Cavalcante Prudencio
    Resumo da Proposta: Carros autônomos são uma das inovações tecnológicas mais desejadas. Entretanto, para serem difundidas, eles precisam superar muitos obstáculos, incluindo alguns de segurança. O ataque Poltergeist é um sistema desenvolvido para explorar uma vulnerabilidade encontrada em suas câmeras, distorcendo imagens e enganando seu sistema de detecção de objetos, o que compromete a segurança destes veículos. Uma das opções para melhorar a segurança e defender o sistema é detectar quando ele está sob ataque. Neste contexto, 4 detectores foram implementados para proteger o sistema contra-ataques Poltergeist. Desenvolver um detector baseado em redes neurais profundas se mostrou ser o método com maior acurácia, alcançando um valor de 97,1%, mas otimizações de velocidade são necessárias para que possa ser aplicado em sistemas reais.

  9. Título: Human-computer co-creativity interface with Generative Deep Learning
    TG: aqui
    Autor(a): MARIA JULIA FEITOSA DA CARVALHEIRA
    Curso: Engenharia da Computação
    Orientador(a):​ Filipe Carlos de Albuquerque Calegário
    Possíveis Avaliadores: Giordano Ribeiro Eulalio Cabral
    Resumo da Proposta: Generative Adversarial Networks (GANs) possess great potential regarding artistic content generation, such as paintings, provided that they’re trained with the appropriate datasets. How- ever, they’re still not as accessible to artists given the hardware and technical knowledge re- quirements to train and execute a model. This work introduces an interactive interface which allow artists to use pre-trained models whithin a certain category of artworks and use their own sketches as inputs in order to create a final piece with the artist’s linework and the model’s style. Besides, they can perform a style transfer of the final result to another available style, if desired.

  10. Título: AMNet - Uma abordagem de aprendizagem profunda para Align-Merge
    TG: aqui
    Autor(a): MIGUEL LUIZ PESSOA DA CRUZ SILVA
    Curso: Engenharia da Computação
    Orientador(a):​ Tsang Ing Ren
    Possíveis Avaliadores: Carlos Alexandre Barros de Mello
    Resumo da Proposta: Na última década, dispositivos móveis se mostraram cada vez mais importantes para a esfera artística e comercial da fotografia, sendo a qualidade das fotos capturadas um critério decisivo na escolha dos consumidores ao adquirir um smartphone. Neste cenário, empresas do ramo têm focado em oferecer fotos visualmente mais agradáveis, buscando contornar limitações físicas de sensores com o objetivo de aumentar a qualidade da imagem exibida para o usuário. Uma das estratégias mais utilizadas para alcançar esse objetivo é a abordagem de fotografia em bursts, onde um conjunto de imagens é capturado. Para produzir uma imagem final com maior quantidade de informações, é necessário fazer o alinhamento e a fusão das imagens do bursts (align-merge). Este trabalho tem como objetivo desenvolver uma arquitetura baseada em aprendizagem profunda para realizar a tarefa de align-merge.

  11. Título: An anomaly detection system for auxiliary engines sensors on vessels
    TG: aqui
    Autor(a): MITTERRAND VIEIRA MONTEIRO
    Curso: Engenharia da Computação
    Orientador(a):​ Paulo Salgado Gomes de Mattos Neto
    Possíveis Avaliadores: Luciano de Andrade Barbosa
    Resumo da Proposta: Ships can have hundreds of sensors on board, some of them essential to help operators make decisions. Failure or malfunction of these sensors can cause financial losses and reduce the quality of collected data. Given the problem, it is proposed to create a system for identifying and visualizing possible abnormal readings from sensors associated with the ship’s auxiliary engines.

  12. Título: Evaluating the adequacy of AI-generated explanations for lay users
    TG: aqui
    Autor(a): NATÁLIA SOUZA SOARES
    Curso: Engenharia da Computação
    Orientador(a):​ Geber Lisboa Ramalho
    Possíveis Avaliadores: Ricardo Bastos Cavalcante Prudêncio
    Resumo da Proposta: Currently, incidents of systems with Artificial Intelligence (AI) models that present biases, such as gender and race, are increasingly common in critical sectors of society, such as medicine, finance, legal, and transportation. These models have been regulated by laws, such as the General Data Protection Regulation (GDPR), which stipulate rights to explanations and transparency of the algorithms. Because of this, a large part of research in AI has gone deep into the theme of Explainable Artificial Intelligence (XAI), whose focus is to contribute to the explainability of Machine Learning (MA) models. These works begun with a very strong focus on developers and technology. Only recently, they started pursuing a more human-centric approach. Therefore, they still fail to meet the requirements of lay users and many of their evaluations either do not focus on this public or have little representation in the analyzed use cases. In this work, we present an evaluation of current XAI models in order to validate whether the generated explanations are suitable for lay users. Starting from an opaque credit analysis system, we applied an experimental method that was built from inspirations and possible improvements found in the literature of evaluations with users in the XAI field. Using real data from the Home Equity Line of Credit (HELOC) dataset, we evaluated three state-of-the-art XAI methods, i.e., SHAP, Counterfactual and Anchors, through a questionnaire with 50 participants from different backgrounds. The results of the experiments showed that, on the contrary to what the XAI literature suggests, among these three algorithms, SHAP provides the best explanations for this audience. Also, in general, people are satisfied with these methods and they help increase the users’ confidence in AI system. However, in terms of understandability, they still require less complex explanations.

  13. Título: BLOCKCHAIN: Oportunidades e desafios
    TG: aqui
    Autor(a): ROGER LUIZ DE OLIVEIRA MOURA
    Curso: Engenharia da Computação
    Orientador(a):​ Patrícia Cabral de Azevedo Restelli Tedesco
    Possíveis Avaliadores: Daniel Carvalho da Cunha
    Resumo da Proposta: No presente trabalho mostraremos o potencial do sistema de Blockchain em ajudar a sociedade a superar diversas necessidades da era moderna, como, por exemplo, a exigência de intermediários entre as trocas de valores em uma economia, que ocorre em situações de compra e venda de uma mercadoria ou serviço e na contratação de um investimento ou um empréstimo. O uso de intermediários torna as transações menos rentáveis para ambos os lados. Trataremos de pontos técnicos da tecnologia e exemplificaremos, também, como os pontos fracos deste recurso, percebidos ao longo da dissertação e debatidos pela sociedade, podem ser combatidos e liquidados. Apresentaremos soluções já implementadas e discutiremos sobre a possibilidade de novas soluções que podem ser apresentadas no futuro usando o Blockchain como base. Espero que ao fim desta monografia, o leitor tenha conhecimento dos principais termos, funcionalidades, além de pontos fracos e fortes e a serem superados em uma rede Blockchain. Concomitantemente, analisamos as oportunidades de uso da rede, e como esta tecnologia – se aplicada globalmente – mudaria positivamente o mundo e o modo como vivemos, ao entregar uma plataforma sobre o qual a sociedade poderia implementar milhares de funcionalidades; sendo esta plataforma segura, transparente, inviolável, descentralizada, fora do controle de governos e de corporações.

  14. Título: Previsão da extensão do gelo oceanico no ártico utilizando técnicas de séries temporais
    TG: aqui
    Autor(a): VINICIUS SERRA SILVA DE MELO
    Curso: Engenharia da Computação
    Orientador(a):​ Paulo Salgado Gomes de Mattos Neto
    Possíveis Avaliadores: Tsang Ing Ren
    Resumo da Proposta: O índice Sea Ice Extent (SIE) mede a quantidade de gelo oceanico presente no ártico. O SIE está diretamente relacionado com vários fatores ambientais e atmosféricos importantes para sustentar a vida no planeta. O gelo oceanico ajuda a conservar a temperatura no ártico, é importante para o ecossistema local e o gelo reflete 80% da luz solar que incide sobre ele de volta para o espaço, o que ajuda a regular a temperatura de todo planeta. O Sea Ice Extent é um ótimo indicador do clima do planeta, e a sua diminuição acelera os efeitos do aquecimento global. A tarefa de previsão do SIE vem tomando grande importância nos últimos anos, com estudos já que indicam que o valor pode chegar a 0 até o ano de 2030. Atualmente, as abordagens do estado da arte utilizam técnicas de redes neurais convolucionais, processamento de imagens, e envolvem outras variáveis climáticas e atmosféricas. Neste estudo, vamos propor a criação de um modelo híbrido baseado em técnicas de séries temporais para previsão do SIE. O modelo será composto de duas partes. A primeira parte utiliza métodos estatísticos com o objetivo de modelar padrões lineares do índice SIE. Em seguida, métodos de Aprendizado de Máquina serão utilizados para previsão da série dos erros visando modelar padrões não-lineares relacionados às variáveis climáticas e atmosféricas que estão implicitamente relacionados com o valor do SIE. O modelo deve apresentar custo computacional menor que os modelos existentes, não vai depender de outras variáveis climáticas que são difíceis de se obter com precisão e deve conseguir modelar bem o problema, apresentando valores de erros menores que os modelos existentes.

  15. Título: Avaliação de cobertura de código de várias versões de Randoop
    TG: aqui
    Autor(a): VINICIUS THIAGO LEITE DOS SANTOS
    Curso: Engenharia da Computação
    Orientador(a):​ Paulo Henrique Monteiro Borba
    Possíveis Avaliadores: Breno Alexandro Ferreira de Miranda
    Resumo da Proposta: Durante o desenvolvimento de software, a atividade de testes é fundamental para verificar e validar o software em desenvolvimento. Porém, trata-se de uma atividade que demanda um alto custo de tempo e esforço para criar e manter os testes. Considerando a importância dos testes, ferramentas de geração automática de testes como Randoop surgem como uma solução que reduz o custo e o esforço associados a esta etapa. Entretanto, em alguns casos, essas ferramentas de geração de testes apresentam deficiências gerando testes de baixa qualidade e cobertura. Assim, modificações nessas ferramentas podem ser implementadas para mitigar os efeitos de suas deficiências. Então, neste trabalho, nosso objetivo é avaliar os testes gerados pela ferramenta Randoop e por Randoop CLEAN, uma modificação de Randoop proposta em outro trabalho, quanto a cobertura de código, número e qualidade dos testes gerados.

  16. Título: Estudo de performance do Apache Hive em sistemas de data warehouse em nuvem
    TG: aqui
    Autor(a): VITOR GODOY SOUZA
    Curso: Engenharia da Computação
    Orientador(a):​ Robson do Nascimento Fidalgo
    Possíveis Avaliadores: Luciano de Andrade Barbosa
    Resumo da Proposta: A análise e armazenamento de dados digitais não é algo novo, bancos de dados vêm sendo utilizados por empresas há décadas, todavia nos últimos anos grandes mudanças vêm ocorrendo e a necessidade de lidar com grandes volumes de dados e os desafios gerados por este fato já se tornaram realidade. É neste contexto que surge o O Apache Hive, um framework para soluções de Data Warehousing que executa no ambiente do Hadoop e é voltado para o processamento e armazenamento de grande volume de dados. Neste trabalho é mensurada a performance deste framework em quatro cenários distintos, de modo a avaliar o impacto da desnormalização de dados do Star Schema Benchmark no tempo de processamento de consultas, utilizando a Amazon Web Services como provedor da estrutura. Para tal foram realizadas 120 operações por cenário, alcançando um intervalo de confiança de 95% sob os resultados obtidos. Ao final dos experimentos foi possível concluir que a desnormalização tem um impacto negativo nesses dois aspectos.

  17. Título: JOGOS BASEADOS EM NFT E SEU IMPACTO NO MERCADO DE CRIPTOATIVOS
    TG: aqui
    Autor(a): YURI MONTEIRO RUFINO
    Curso: Engenharia da Computação
    Orientador(a):​ Giordano Ribeiro Eulalio Cabral
    Possíveis Avaliadores: Filipe Carlos de Albuquerque Calegário
    Resumo da Proposta: Os NFT’s, sigla em inglês para “non-fungible tokens”, ou em tradução livre “tokens não fungíveis”, são ativos digitais que funcionam como certificados digitais. Os NFT’s são únicos e indivisíveis, e utilizam-se da tecnologia blockchain para a sua criação e verificação pública de propriedade, provendo os devidos direitos de propriedade aos seus portadores. Neste trabalho iremos falar sobre os jogos baseados em NFT’s, seus princípios, e como os mesmos impactam o mercado de criptoativos e de jogos.

Sistemas de Informação
Responsável: Prof. Abel Guilhermino da Silva Filho (agsf@cin.ufpe.br)

  1. Título: Uma análise das técnicas inteligentes na previsão da evasão das universidades: um estudo sistemático
    TG: aqui
    Autor(a): Elther Demétrio da Silva Oliveira
    Curso: Sistemas de Informação
    Orientador(a): Fernando Maciano de Paula Neto
    Possíveis Avaliadores: Patrícia Tedesco
    Resumo da Proposta: A evasão escolar das intituições de ensino superior no Brasil é um dos grandes problemas a se enfrentar. Conforme consta nos dados do relatório do INEP (Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira), a cada ano mais alunos se matriculam e ingressam em cursos superiores, por´em a proporção de concluintes é bem inferior. O objetivo principal deste trabaho é identificar estudos que utilizem técnicas de mineração de dados educacionais para prever a evasão universitária em cursos tradicionais que estão sendo utilizadas pelas universidades e tomadores de decisão. Nas bibliotecas digitais do Scopus, IEEE, AISEL, Science Direct e ACM identificamos 352 estudos relacionados a esse tópico, dos quais selecionamos 17, com foco em quais técnicas de mineração de dados são usadas para prever o abandono universitário e quais sistemas de apoio de decisão estão sendo utilizados pelos gestores das IES. Identificamos 6 técnicas de classificação de mineração de dados, 11 técnicas de mineração de dados e 1 sistema de apoio em decisão implantado e em execução.

  2. Título: Análise de Dados Públicos da COVID-19 em Recife Utilizando Aprendizagem de Máquina
    TG: aqui
    Autor(a): João Rafael Santos Camelo
    Curso: Sistemas de Informação
    Orientador(a): Fernando Maciano de Paula Neto
    Possíveis Avaliadores: Leandro Maciel Almeida
    Resumo da Proposta: O combate à COVID-19 se tornou um grande desafio da saúde mundial, sendo documentados mais de 600 mil casos em Recife, Pernambuco, até setembro de 2021, onde mais de 7 mil destes resultaram no óbito do paciente. Por meio da ampla coleta de dados demográficos e sintomáticos realizados pela Prefeitura do Recife, este trabalho comparou a efetividade de diferentes métodos de classificação por aprendizagem de máquina na análise de fatores de risco para casos graves da doença e óbito do paciente. Dados relacionados à vacinação foram utilizados de modo a identificar o progresso da vacinação na ocorrência de cada caso. O modelo XGBoost alcançou uma acurácia média de 92% na previsão de casos graves, e 95% na predição de óbitos. Foram investigados também cenários sem dados sintomáticos, representando pacientes pré-clínicos, e filtragens por progresso da vacinação, para identificar mudanças nos fatores de risco. Interpretações dos modelos gerados foram discutidos, percebendo-se idade elevada, doenças cardiovasculares, hipertensão, diabetes e obesidade como maiores riscos para casos graves e óbitos, sendo a presença da vacinação um fator decisivo na diminuição da severidade dos casos

  3. Título: Análise Prática do Processo de Migração de uma Implementação REST para GraphQL
    TG: aqui
    Autor(a): Paulo de Tarso da Silveira Vaz
    Curso: Sistemas de Informação
    Orientador(a): Kiev Gama
    Possíveis Avaliadores: Vinicius Garcia
    Resumo da Proposta: GraphQL é um runtime, uma linguagem de busca - ou query language - e um framework para implementação de APIs que está gradualmente se popularizando. Muitos desenvolvedores listam casos de uso onde GraphQL se torna a solução para as imperfeições de REST, atual dominador das estratégias de implementação de APIs em geral. Contudo, uma vez que já houve a migração de REST para GraphQL, existiria uma forma de quantificar o impacto desta migração com base nas diferenças nos códigos das duas implementações? Neste trabalho buscou-se responder a esta pergunta através de uma pesquisa sobre possíveis ferramentas de medida de métricas de código, da aplicação destas ferramentas aos repositórios de duas implementações - uma seguindo o modelo REST e outra seguindo o modelo GraphQL – de um mesmo aplicativo-teste e da análise dos resultados obtidos através desta abordagem

  4. Título: Análise de Dados da Bilio Paulista com Vizualização da Importância do Estoque de Segurança
    TG: aqui
    Autor(a): Renata Carneiro Albuquerque
    Curso: Sistemas de Informação
    Orientador(a) Adiel Teixeira de Almeida Filho
    Possíveis Avaliadores: Robson Fidalgo
    Resumo da Proposta: Com o avanço das tecnologias, a quantidade de dados gerados aumentou consideravelmente, e acompanhá-los tornou-se um desafio para muitas organizações. A análise de informações é um processo crucial para obtenção de melhores resultados na empresa, e por meio desses diagnósticos guiar decisões mais assertivas. Para esse estudo a análise foi feita na Bilio Estivas Paulista, com o auxílio da ferramenta Power BI. Foi exportado do banco de dados algumas tabelas como: clientes, produtos, pedido de venda, pedido de compra, estoque. Para avaliar esses produtos, foi utilizado o diagrama de Pareto. Nesse contexto, a análise de dados teve maior enfoque no estoque de segurança que é essencial para empresas que desejam sempre atender seus clientes satisfatoriamente. Outro fator importante é a gestão de estoque que é responsável por otimizar o processo de compras, estoque e vendas para a empresa se manter competitiva e reduzir os custos. Foram feitas algumas análises como: área de atuação, produto mais vendido por localização, produto mais estocados, dias em estoque além de cross-selling.

  5. Título: Implantação do processo de verificação e validação de software em uma empresa de pequeno Porte com foco no nível G do MPS.BR
    TG: aqui
    Autor(a): Williams Melo de Aguiar Junior
    Curso: Sistemas de Informação
    Orientador(a): Alexandre Marcos Lins de Vasconcelos
    Possíveis Avaliadores: Hermano Perrelli de Moura
    Resumo da Proposta: Devido ao mercado para o desenvolvimento de produtos de qualidade, é crucial que as organizações busquem melhorias de forma contínua e a forma ao qual o projeto pode se desenvolver. Um fator importante para ter uma qualidade do produto é eliminar os erros, gerenciar custos e prazos. E dessa maneira para o aperfeiçoamento e melhorias para otimizar o processo de desenvolvimento, como várias metodologias, dentre elas o modelo do MPS.BR que busca garantir a execução dos processos da organização para que sejam realizados conforme os planos definidos pela empresa. Este trabalho apresenta um estudo de caso sobre a implantação do nível G (Parcialmente gerenciado) com o foco na verificação e validação de produtos em uma empresa de pequeno porte. Relataremos as atividades realizadas, melhorias obtidas durante a implantação e coleta de dados com os colaboradores. Apresentamos um comparativo entre o antes e depois da implantação do nível G do modelo MPS.BR.

  6. Título: mplantação de uma nova ferramenta de monitoramento de rede na UFPE utilizando práticas de ITIL
    TG: aqui
    Autor(a): Edson Neri Santana Neto
    Curso: Sistemas de Informação
    Orientador(a): Alexandre Marcos Lins de Vasconcelos
    Possíveis Avaliadores: Hermano Perrelli de Moura
    Resumo da Proposta: O objetivo deste trabalho é documentar através do processo de implantação de uma nova ferramenta de monitoramento de rede, a qual irá atender a real necessidade da UFPE, permitindo a comunicação entre equipamentos de diferentes fabricantes, reduzindo os custos e tornando o monitoramento eficiente. No decorrer do trabalho, será discutido o motivo da escolha do zabbix, solução de monitoramento livre que atende a lei de utilização de softwares livres do governo federal com a finalidade de diminuir os custos com a contratação de licenças de softwares pagos, além de ser adequada ao cenário atual da UFPE, visto que com os cortes ocorridos na verba de manutenção, se torna inviável a utilização de uma ferramenta paga. Essa transição terá como base os princípios norteados pelo framework ITIL, um conjunto de publicações de boas práticas para gerenciamento de serviços de TI, que fornece orientações sobre como oferecer serviços de TI com qualidade, a fim de minimizar possíveis erros que possam surgir com a migração da ferramenta.