Universidade Federal de Pernambuco (UFPE)
Centro
de Informática (CIn)
Graduação em Ciência da Computação, Engenharia da Computação, e Sistemas de Informação

Trabalhos de Graduação - 2021.2


Ciência da Computação
Responsável:
(@cin.ufpe.br)




Engenharia da Computação
Responsável: Prof. Divanilson Campelo (@cin.ufpe.br)

 

 

  1. Título: Desenvolvimento de software de auxílio para cadastro, visualização e análise de fundos de investimento para a Autarquia Municipal de Previdência e Assistência à Saúde dos Servidores
    TG: aqui
    Autor(a): ADRIANO NASCIMENTO DE SANTANA
    Curso: Engenharia da Computação
    Orientador(a):​ Sílvio de Barros Melo
    Possíveis Avaliadores: Kiev Santos da Gama
    Resumo da Proposta: A autarquia municipal de previdência e assistência à saúde dos servidores (AMPASS), tem a missão de garantir previdência e assistência à saúde dos servidores do município de Recife, possibilitando assegurar aos servidores públicos titulares de cargo efetivo os benefícios de aposentadoria e pensão por morte. A partir deste objetivo foi criado o fundo previdenciário RECIPREV, o qual tem a finalidade de acumulação de recursos para pagamento dos compromissos definidos no plano de benefícios do RPPS da prefeitura da cidade do Recife. Os gestores da RECIPREV responsáveis pelo cadastro e análise de fundos de investimento, possuíam um trabalho exaustivo de planilhas e uma série de documentos, em linha com a inclusão de tecnologias no processo de gestão de informação e de análise de dados de investimos, a AMPASS e a UFPE celebraram um convênio de pesquisa, desenvolvimento e inovação para a automatização dos processos anteriormente citados. Para tanto, foram desenvolvidos softwares com o propósito principal de auxiliar os usuários a cadastrar fundos de investimentos e instituições ligadas aos fundos de investimentos, visualização, análise dos dados e emissão de informações para compor relatórios de forma a contribuir para a escolha dos fundos de investimento. O objetivo geral deste trabalho visa descrever técnicas e métodos utilizados para o desenvolvimento do projeto e os resultados obtidos ao término das atividades do convênio. Para tanto, serão descritos passos do desenvolvimento de uma aplicação web que atualmente é utilizada pela equipe de gestão de investimentos da RECIPREV.

  2. Título: Uma ferramenta para visualização de dados referentes à evasão no âmbito dos cursos de graduação do Centro de Informática - UFPE
    TG: aqui
    Autor(a): ALEXANDRE VICTOR DE ARAUJO OLIVEIRA
    Curso: Engenharia da Computação
    Orientador(a):​ Marcio Cornélio Lopes
    Possíveis Avaliadores: Carla Taciana Lima Lourenco Silva
    Resumo da Proposta: O sistema educacional brasileiro apresenta índices de evasão que chamam atenção, especificamente nos cursos de graduação do ensino superior, em que há o emprego de grande parte dos recursos públicos. Esse fenômeno pode ser evidenciado a partir de dados, que por sua vez possuem utilidade na elaboração de políticas públicas ou privadas de melhorias na gestão acadêmica. Todavia, esses dados geralmente são expostos em planilhas e sua funcionalidade fica limitada, razão pela qual esse trabalho propõe a construção de uma ferramenta que requisita arquivos no formato .csv para a seguir disponibilizar as informações vigentes em gráficos, garantindo uma melhor visualização das informações. A metodologia de desenvolvimento adotada envolve a utilização do Next.js para cumprir o papel geral da construção do software, em conjunto com algumas bibliotecas e ferramentas da linguagem de programação JavaScript e com o emprego de uma função encarregada de calcular, no presente trabalho, a evasão no âmbito dos três cursos de graduação do Centro de Informática (CIn) da UFPE. Esse procedimento possibilitou a entrega de gráficos contendo dados da taxa de evasão dos referidos cursos por período de ingresso-período de evasão, demonstrando quais são os intervalos mais sensíveis à ocorrência do evento estudado.

  3. Título: Reflexos do Cenário Pandêmico no Novo Workplace dos Desenvolvedores de Software do Porto Digital em Recife: O Trabalho Remoto e seus Desafios
    TG: aqui
    Autor(a): AMANDA ISABEL GOMES OLIVEIRA COSTA
    Curso: Engenharia da Computação
    Orientador(a):​ Hermano Perrelli de Moura
    Possíveis Avaliadores: Simone Cristiane dos Santos
    Resumo da Proposta: A pandemia do novo coronavírus (COVID-19) exigiu mudanças no ambiente de trabalho (workplace) e antecipou tendências que eram previstas para acontecer no longo prazo. Empresas precisaram se adaptar a um novo modelo de trabalho e, para dar continuidade às atividades, o home office tornou-se uma alternativa e sua adoção quase uma regra. Visando entender este cenário nas empresas de TI, esse artigo busca realizar um estudo sobre o novo workplace dos desenvolvedores de software que compõem o Porto Digital, na cidade do Recife. Foi realizado um levantamento, por meio de uma pesquisa de opinião, trazendo os impactos positivos e negativos das mudanças realizadas, como isso afetou os desenvolvedores envolvidos e uma perspectiva para o futuro pós pandemia.

  4. Título: Space-efficient representation of de Bruijn graphs for data streams
    TG: aqui
    Autor(a): AUGUSTO SALES DE QUEIROZ
    Curso: Engenharia da Computação
    Orientador(a):​ Paulo Gustavo Soares da Fonseca
    Possíveis Avaliadores: Nivan Roberto Ferreira Junior
    Resumo da Proposta: Background Since the introduction of the second generation of DNA sequencing technologies, improving assembly efficiency has become critical to match the high-throughput of data. A major bottleneck is the memory needed to represent de Bruijn graphs, an essential structure in modern assemblers. Improving this representation involves finding a memory-efficient way of representing a set of k-mers, which are sequences of a fixed length k, as well as filtering out sequencing errors from the input reads generated by the sequencers. Objectives In this work we address these two problems to develop a de Bruijn graph represen- tation that faithfully represents the k-mers in the sequenced genome while leaving out spurious parts affected by sequencing errors. Not only we want our representation to have a good sensi- tivity to specificity ratio, but we also strive to make it space and time-efficient. Methods We propose and implement a pipeline based on two new probabilistic representations of the de Bruijn graph, the CountMin-based DBCM and the hashtable-based DBHT, which aims at filtering k-mers obtained from the reads based on frequency and connectivity to other k-mers, and representing only high-quality k-mers in a succint manner. We then applied out method to a realistic dataset based on a microbial genome. Results We show that DBCM can be used to effectively filter over 80% of spurious k-mers from the reads based on count alone, and can then be traversed to further remove erroneous k-mers based on connectivity, filtering over 95% of spurious k-mers in total. We then represent the remaining k-mers in a DBHT, requiring between 9 and 16 bits per k-mer, while allowing for constant time insertion and query. We show that even with 9 bits per k-mer, the number of false positive k-mers is still less than 16% of the total graph. Conclusion We conclude that connectivity-based filtering through traversal is very effective in filtering spurious k-mers from the reads beyond frequency-based filtering and can efficiently be done by the DBCM. We also achieve a very good compromise of memory usage and insertion and query time with the DBHT by using a single hashing function.

  5. Título: Formalização em Coq de execução de testes para ioco
    TG: aqui
    Autor(a): BEATRIZ ALVES BARROS DE SOUZA
    Curso: Engenharia da Computação
    Orientador(a):​ Gustavo Henrique Porto de Carvalho
    Possíveis Avaliadores: Juliano Manabu Iyoda
    Resumo da Proposta: Por softwares estarem cada vez mais presentes na sociedade, a preocupação acerca de sua qualidade e confiabilidade tem aumentado, principalmente quando se trata de sistemas críticos. Apesar de testes terem demonstrado ser uma etapa crucial da produção de um software, a forma como são criados e executados traz riscos e custos, em particular, por serem realizados de maneira manual. Técnicas de model-based testing (MBT) aparecem como uma forma de alterar esse contexto, proporcionando a criação e a execução de testes de forma automatizada. Porém, averiguar a corretude destas ferramentas, que são softwares desenvolvidos por humanos, também é um motivo de preocupação. Com a motivação de aliviar essa preocupação, surgem abordagens formais de geração e execução automática de testes, onde é possível provar a sua corretude e completude. Continuando os trabalhos de Sobral (2019) e Santana (2020), os quais formalizaram em Coq conceitos associados à teoria formal de testes ioco, este trabalho mecaniza o processo de execução de testes proposto por Tretmans (2008).

  6. Título: DirectVoxGO++: Fast Object Reconstruction Using Neural Radiance Fields
    TG: aqui
    Autor(a): DANIEL RODRIGUES PERAZZO
    Curso: Engenharia da Computação
    Orientador(a):​ Veronica Teichrieb
    Possíveis Avaliadores: Carlos Alexandre Barros de Mello
    Resumo da Proposta: One of the most classic problems in computer vision, 3D reconstruction aims to build a 3D model of an object or scene given a series of views. In recent years, new reconstruction techniques based on Neural Radiance Fields (NeRFs) have created new forms to model objects instead of the traditional mesh and point cloud-based representations, allowing for more photorealistic rendering. However, these techniques were too slow to be used in practical settings, taking in the range of hours in high-end GPUs. Due to these limitations, new techniques have been created for fast reconstruction of scenes, such as DirectVoxGO. Alongside this limitation, one issue with NeRFs is that they were initially unable to separate the foreground from the background and had problems with 360◦ until the emergence of new techniques such as NeRF++. Our method extends DirectVoxGO, which is limited to bounded scenes, with ideas from NeRF++ and incorporates elements from a neural hashing approach employed by other works. Our technique improved photorealism compared with DirectVoxGO and Plenoxels on a subset of the LF dataset on average in at least 2%, 8% and 8% for PSNR, SSIM, and LPIPS metrics respectively, while also being an order of magnitude faster than NeRF++.

  7. Título: TRUSS BRIDGES CREATION AND STRUCTURAL MASS OPTIMIZATION WITH EVOLUTIONARY ALGORITHM
    TG: aqui
    Autor(a): HUGO LISPECTOR
    Curso: Engenharia da Computação
    Orientador(a):​ Paulo Salgado Gomes de Mattos Neto
    Possíveis Avaliadores: George Darmiton da Cunha Cavalcanti
    Resumo da Proposta: Trusses are structures that consist of straight members connected by joints located at their endpoints. This type of structure is one of the most used for engineering applications and studies regarding computational optimization of trusses have become very popular recently, with hundreds of publications every year. One of the main uses of trusses are bridges. In this project, an application that is able to generate and optimize planar truss bridges using an evolutionary algorithm was developed. This research focuses on the minimization of structural mass through a search of design variable concerning topology and shape. An intuitive and friendly graphical user interface interface was also created allowing users to visually set parameters of the desired bridge to be optimized. After multiple experiments, it was possible to demonstrate that the developed algorithm was converging into feasible solutions. Moreover, the developed system has the potential to give insights and help architects and engineerings in their truss bridges design projects.

  8. Título: ANPS - Software com som anticonvulsivante para dispositivos móveis destinado para pacientes com Epilepsia
    TG: aqui
    Autor(a): IRALINE NUNES SIMOES
    Curso: Engenharia da Computação
    Orientador(a):​ Kiev Santos da Gama
    Possíveis Avaliadores: Robson do Nascimento Fidalgo
    Resumo da Proposta: Epilepsia é uma doença crônica. É caracterizada por uma alteração temporária do funcionamento do cérebro, causada por uma desordenação dos sinais e impulsos elétricos emitidos pelos neurônios. De acordo com a Associação Brasileira de Epilepsia, a incidência destes casos é de uma a duas a cada 100 pessoas, sendo um dos distúrbios neurológicos crônicos mais comuns. A epilepsia não tem cura, mas pode ser tratada com a utilização de medicações específicas. Quando o uso de medicações não é o suficiente para impedir estas crises é chamado de Epilepsia Refratária, que abrange cerca de 30% dos indivíduos que possuem epilepsia, segundo a Epilepsy Foundation of America. O tratamento para os pacientes que possuem Epilepsia Refratária é individualizado caso a caso, mas alguns podem ser invasivos e oferecer riscos, além de não garantir o sucesso quando realizados. Perante a necessidade de tratamentos alternativos para o controle da Epilepsia Refratária, o Grupo de Neurodinâmica UFPE desenvolveu um som utilizando a técnica de estimulação não-periódica baseada na estimulação acústica binaural. Com o propósito de montar um diário de crises do paciente e o paciente conseguir realizar o tratamento sem precisar se locomover, foi desenvolvido um aplicativo para celular intitulado Acoustic Non-Periodic Stimulation (ANPS), no qual o paciente pode escutar diariamente o som desenvolvido e inserir informações relacionadas as suas crises. Este trabalho tem como objetivo apresentar o determinado software.

  9. Título: A escolha de uma estratégia de onboarding para novos membros em uma equipe de engenharia de software
    TG: aqui
    Autor(a): ISMAEL RUFINO ALVES JUNIOR
    Curso: Engenharia da Computação
    Orientador(a):​ Fabio Queda Bueno da Silva
    Possíveis Avaliadores: André Luís de Medeiros Santos
    Resumo da Proposta: Onboarding é o processo que um novo membro de uma equipe passa ao chegar nesta, de modo a se ambientar com ferramentas, cultura, conexão com a equipe, padrões de projetos ou formato de tarefas no time. Diante disso, algumas empresas realizam esse processo sem pensar muito nos seus novatos, deixando a desejar em aspectos que são importantes serem trabalhados, como a parte mental, motivacional dentre outros. É possível que dados esses pontos, uma empresa consiga realizar bem um processo de onboarding, visando ambientar o novo funcionário de maneira eficiente. Foram feitas pesquisas para apoiarem na construção dessa ideia, e com isso buscar melhorar essa escolha da estratégia.

  10. Título: DETECÇÃO E RASTREAMENTO DE CAPACETES EM JOGADAS DE FUTEBOL AMERICANO UTILIZANDO FASTERRCNN, YOLOV5 E DEEPSORT
    TG: aqui
    Autor(a): JUAN CARLO HENRIQUE DOS SANTOS
    Curso: Engenharia da Computação
    Orientador(a):​ Tsang Ing Ren
    Possíveis Avaliadores: George Darmiton da Cunha Cavalcanti
    Resumo da Proposta: Com o advento e avanço das redes sociais e plataformas de streaming, o futebol americano ganhou grande popularidade nos últimos anos. A popularização do esporte, enfatiza para o mundo tanto os pontos positivos quanto os negativos do esporte. Um dos pontos negativos são os constantes contatos entre os capacetes de jogadores. Esses contatos podem causar concussões, que prejudicam não só a longevidade e qualidade na carreira profissional dos atletas, mas também nas suas vidas pessoais depois da aposentadoria. Este trabalho propõe a detecção de capacetes em imagens de jogadas de futebol americano através da comparação entre as técnicas de Deep Learning, FasterRCNN e Yolov5, além do rastreamento em vídeos de jogadas utilizando a técnica DeepSort, de forma a ajudar na identificação do contato entre capacetes. Ele mostra que a Yolov5 consegue um mAP 14% maior que a FasterRCNN e que o rastreamento com o DeepSort funciona melhor com classes de objetos com variação estática.

  11. Título: Ômega Grey Wolf Optimizer: Uma melhoria para o Grey Wolf Optimizer adicionando lobos Ômega à caçada
    TG: aqui
    Autor(a): KEVIN ANDREWS MARQUES SILVA
    Curso: Engenharia da Computação
    Orientador(a):​ Paulo Salgado Gomes de Mattos Neto
    Possíveis Avaliadores: Tsang Ing Ren
    Resumo da Proposta: A computação bioinspirada é um campo de estudo que busca compreender padrões da natureza e utilizá-los para resolução de problemas. O Grey Wolf Optimizer (GWO) é um algoritmo inspirada pelo comportamento de caça dos lobos cinzas e que pode ser utilizada em problemas de otimização global, ajuste de parâmetros de técnicas de aprendizagem de máquina, processamento de imagens, aplicações médicas e de bioinformática, entre outras. Este trabalho propõe uma melhoria na área de exploração desse algoritmo, a partir de uma versão modificada do GWO, chamada Ômega Grey Wolf Optimizer (OGWO) que utiliza lobos ômega nos grupos de caça dos lobos cinzas. São executados testes com 22 benchmarks e os resultados são comparados com outras 5 heurísticas, verifica-se que os resultados são competitivos e por vezes superiores aos algoritmos usados para comparação.

  12. Título: Análise de parâmetros de algoritmos de seleção dinâmica na previsão de série temporais
    TG: aqui
    Autor(a): LEANDRO DE ANDRADE MOURA
    Curso: Engenharia da Computação
    Orientador(a):​ Paulo Salgado Gomes de Mattos Neto
    Possíveis Avaliadores: Adriano Lorena Inácio de Oliveira
    Resumo da Proposta: Abordagens de seleção dinâmica têm sido aplicadas com sucesso no contexto de séries temporais. Um dos aspectos importantes para se obter uma alta acurácia é a coleção de preditores, que deve ser diversa o suficiente para os modelos gerarem diferentes previsões, mas não ao ponto de ser aleatória, pois eles precisam ter um bom desempenho. Outro aspecto crucial é o critério para realizar a seleção do preditor a ser utilizado na previsão do padrão de teste. Para isto, é preciso escolher qual métrica e quantidade de vizinhos tem maior afinidade com a coleção de preditores e o conjunto de dados que está sendo previsto. Este trabalho utiliza Algoritmo Genético para buscar uma coleção de preditores a ser utilizada em uma abordagem de seleção dinâmica e indicar quais métricas e quantidades de vizinhos têm maior afinidade com a coleção encontrada. Este trabalho mostra que a seleção dinâmica é altamente suscetível à escolha destes parâmetros.

  13. Título: Impacto da autogestão do aprendizado em Challenge Based Learning
    TG: aqui
    Autor(a): MARIA EDUARDA SOUZA OLIVEIRA DE SENNA
    Curso: Engenharia da Computação
    Orientador(a):​ Cristiano Coelho de Araujo
    Possíveis Avaliadores: Patrícia Cabral de Azevedo Restelli Tedesco
    Resumo da Proposta: Este trabalho de graduação descreve a aplicação em uma turma de alunos de um método para autogestão do aprendizado adaptado do Scrum dentro de um ciclo de aprendizado Challenge Based Learning (CBL). O propósito é auxiliar os estudantes a gerenciarem de forma autônoma objetivos de aprendizado: declarações do que o aluno espera saber, compreender e/ou ser capaz de aplicar após a conclusão do processo de aprendizagem. Este trabalho também apresenta uma primeira versão de um ToolKit para autogestão do aprendizado baseado na aplicação do método proposto. O método consiste na adaptação das etapas do Scrum e nas etapas adicionais seguintes: Definição de Objetivos de Aprendizagens associados a metas, Priorização dos Objetivos de Aprendizagens, Planejamento da Sprint, Reunião diária, Revisão da Sprint e Retrospectiva e será aplicado em um grupo de alunos de um projeto do Centro de Informática. Além disso, o presente estudo traz uma análise de possibilidades de melhorias para o método e perspectivas para trabalhos futuros.

  14. Título: Estudo comparativo entre ferramentas de automação via RPA
    TG: aqui
    Autor(a): PAULO DIOGENES SILVA SALGADO FILHO
    Curso: Engenharia da Computação
    Orientador(a):​ Carlos Andre Guimaraes Ferraz
    Possíveis Avaliadores: Breno Alexandro Ferreira de Miranda
    Resumo da Proposta: O mundo vive um processo de digitalização sem precedentes, soluções digitais para problemas do dia a dia não são novidades, mas foram potencializadas de forma quase impositiva devido à pandemia. Atualmente, processos que exigem presença física estão cada vez mais decadentes: Processos jurídicos, consultas médicas e até mesmo boa parte dos trabalhos tradicionais hoje em dia possuem algum correlato digital, e assim como funciona no meio físico, no mundo digital existem várias situações de trabalho repetitivo que podem ser automatizados através do uso de robôs. Atualmente existem várias ferramentas que permitem automatizar fluxos de trabalho na internet, verdadeiras empresas são construídas ao redor dessas soluções. Duas destas ferramentas são as bibliotecas: Puppeteer.Js e Selenium. O objetivo deste trabalho é fornecer um estudo comparativo entre estas duas tecnologias, apontando pontos positivos e negativos e indicando em que situações poderá haver vantagem para alguma delas.

  15. Título: Um estudo sistemático sobre o impacto da adequação à General Data Protection Regulation (GDPR) pelas Organizações
    TG: aqui
    Autor(a): PEDRO HENRIQUE FRANCO MACHADO
    Curso: Engenharia da Computação
    Orientador(a):​ Jessyka Flavyanne Ferreira Vilela
    Possíveis Avaliadores: Carla Taciana Lima Lourenco Silva, Mariana Maia Peixoto
    Resumo da Proposta: Contexto: a União Europeia foi pioneira na regulamentação do tratamento de dados pessoais ao implementar o Regulamento Geral sobre a Proteção de Dados, do inglês General Data Protection Regulation (GDPR). Entretanto, para atingir a conformidade com a lei GDPR, mudanças organizacionais precisam ser realizadas como, por exemplo, definir procedimentos de revisão, executar auditorias internas, elencar times responsáveis pelo cumprimento e formular políticas de atuação. Objetivo: compreender o impacto da adequação à GDPR pelas Organizações, analisando relatos de experiência, investigando o estado da arte, identificando as áreas afetadas e metodologias utilizadas. Método: a metodologia proposta para este trabalho foi uma Revisão Sistemática da Literatura. Resultados: após a execução da Revisão Sistemática da Literatura, foi possível compreender o impacto da adequação à GDPR pelas Organizações, identificando as áreas afetadas, os desafios encontrados e os métodos, tecnologias e práticas utilizadas. Conclusões: pode-se concluir que este trabalho contribuiu para o estado da arte e da prática com a obtenção de um panorama do processo de adequação e respectivo impacto gerado pela GDPR nas Organizações. A partir dessas informações, torna-se possível a identificação das áreas que sofreram um maior impacto com a legislação, dos desafios principais encontrados e o que foi mais utilizado como forma de mitigação para esses problemas identificados. Além disso, conseguiu-se identificar áreas que apresentaram problemas, mas ainda não encontraram nenhum tipo de solução para esses, o que pode estar evidenciando segmentos que precisam de uma maior atenção neste momento.

  16. Título: An Analysis of CIAGAN Use on Face Expression Preservation
    TG: aqui
    Autor(a): PEDRO KEMPTER BRANT
    Curso: Engenharia da Computação
    Orientador(a):​ Veronica Teichrieb
    Possíveis Avaliadores: Hansenclever de Franca Bassani
    Resumo da Proposta: Data privacy is an increasing concern in the Big Data era. For instance, deep learning models, such as Facial Expression Recognition (FER), need personal information as inputs, pre- cisely photos or videos, to extract emotion expression. Although these systems demand sensitive data, these applications do not have to violate people’s identity and privacy. Anonymization techniques can be applied before the face analysis. Thus, the desired application can still process the essential data while the user’s ID is not compromised. To preserve the user’s ID, an emerging group of deep neural networks called Generative Adversarial Networks can, among other applica- tions, generate entirely new faces from a given photo. This work analyzes a GAN anonymization technique, CIAGAN, precisely on facial expression preservation. Our experiments use a facial expression database to be anonymized, RAF-DB, and a FER network, DAN, to evaluate CIA- GAN’s ability to preserve the original face expression. The results show that only 32.45% of the expressions were preserved when each face was classified pre and post anonymization. Moreover, we trained a CIAGAN’s model using Mediapipe’s facial landmarks instead of those recognized by Dlib, and compared qualitatively with the pre-trained model. Although not fully refined, the trained model gives insights to improve the CIAGAN on preserving facial expressions and raises a discussion on exploring new guiding information on Conditional GANs to preserve useful information after the anonymization process.

  17. Título: Impedância de Entrada de Antenas Cilíndricas Embutidas
    TG: aqui
    Autor(a): RAFAEL MARINHO DE ARAUJO
    Curso: Engenharia da Computação
    Orientador(a):​ Odilon Maroja da Costa Pereira Filho
    Possíveis Avaliadores: Stefan Michael Blawid
    Resumo da Proposta: Antenas cilíndricas embutidas são antenas impressas sobre dielétricos que preenchem cavidades em condutores cilíndricos. Elas têm propriedades mecânicas que diminuem o arrasto em aplicações aeroespaciais, além de propriedades elétricas como baixo acoplamento entre elementos de um conjunto. Já antenas híbridas, possuem 2 de suas arrestas aterradas, garantindo a propriedade extra de baixa polarização cruzada. Esta propriedade é importante em sistemas que utilizam multiplicidade de polarização (2 sinais ocupando o mesmo espectro, em polarizações distintas). Neste trabalho, é utilizado o método numérico denominado de Método dos Momentos (MoM), implementado em Matlab, para estimar a impedância de entrada de uma antena cilíndrica embutida. Os resultados obtidos foram comparados com os obtidos por P.C Ribeiro Filho.

  18. Título: Um Estudo sobre a Oclusão Espacial em Ambientes Urbanos Virtuais
    TG: aqui
    Autor(a): RODRIGO BELTRAO VALENCA
    Curso: Engenharia da Computação
    Orientador(a):​ Nivan Roberto Ferreira Junior
    Possíveis Avaliadores: Silvio de Barros Melo
    Resumo da Proposta: Explorar grandes ambientes, como cidades, é uma tarefa essencial em áreas como arquitetura e jogos. A renderização desses ambientes num modelo virtual tridimensional é de grande ajuda, criando uma experiência imersiva para o usuário, porém, devido a uma grande densidade e va- riedade de geometrias presentes, um problema comum é a oclusão de elementos. Este trabalho se propõe a estudar soluções atuais e propor novas alternativas para combater a obstrução vi- sual. Para isso, iremos combinar técnicas existentes, como raio-X e deformações cilíndricas, e também propor variantes possíveis para elas. Desse modo, esperamos melhorar a experiência de navegação e exploração dos usuários nos ambientes virtuais urbanos tridimensionais.

  19. Título: Study of Path Tracing and Coherent Ray Tracing Techniques
    TG: aqui
    Autor(a): RODRIGO BRAYNER LYRA
    Curso: Engenharia da Computação
    Orientador(a):​ Silvio de Barros Melo
    Possíveis Avaliadores: Rafael Dueire Lins
    Resumo da Proposta: Memory access operations are by far the most costly on modern computer ar- chitectures. To mitigate such a problem, hardware architects have developed memory hierarchies that exploit concepts such as spatial locality and temporal locality to store recently used memory regions in fast-access memories, called cache memory. However, to take full advantage of its benefits, programmers need to organize the data and algo- rithms of their programs to access memory sequentially. So, although physically based rendering techniques have been developed since the mid-1980s, for decades the film and animation industries have used rasterization methods to render their movies. Those tech- niques process each object sequentially and ensure coherent memory access. However, such algorithm is limited to calculating only local lighting, which results in less realistic images. Recently, the increasing computational power of modern hardware, decades of research and improvements in physically based techniques and ray tracing optimizations have led the film industry to adopt physically based path tracing algorithms in their pro- ductions. Considering that such algorithms inherently cause random access to memory, the search for techniques that allow access to memory in a coherent way is one of the main research topics for the optimization of physically based methods, being the sub- ject of several approaches and techniques developed over the years. In the last decades, several techniques for parallelization, vectorization and reordering of the computations involved in path tracing algorithms have been proposed. This work aims to review some of those techniques that are important for the evolution and recent adoption of physically based rendering in major film and animation studios; as well as to describe the process of creating a path tracer developed especially in this work.

  20. Título: Serenpit Editor: Experiência de co-criação humano-computador de textos para internet utilizando GPT-3
    TG: aqui
    Autor(a): THIAGO AUGUSTO DOS SANTOS MARTINS
    Curso: Engenharia da Computação
    Orientador(a):​ Filipe Carlos de Albuquerque Calegário
    Possíveis Avaliadores: Giordano Ribeiro Eulalio Cabral
    Resumo da Proposta: Os humanos já utilizaram diferentes formas de comunicação ao longo do tempo, sejam elas textuais, auditivas, visuais ou audiovisuais. Um canal que cresce a cada ano é a produção textual para internet. Esse processo, normalmente envolve mais de um autor na co-criação dos textos. Entretanto, essa não é a única forma de co-criação existente para autores. Ultimamente, a interação de autores e IAs de propósito geral vêm se intensificando. Usuários escrevem prompts e as IAs dão respostas para eles. Existem modelos de inteligência artificial que conseguem produzir textos semelhantes aos de linguagem natural, como o GPT-3 da OpenAI. Nesse trabalho vamos entender sobre o estado da arte de geração automática de textos utilizando inteligência artificial e realizar um experimento de co-criação humano-IA para criação de textos para internet, utilizando o formato de blog como base.

  21. Título: Análise SWOT de Serviços Financeiros Descentralizados
    TG: aqui
    Autor(a): VITOR CRISOSTOMO MELLIA
    Curso: Engenharia da Computação
    Orientador(a):​ Valeria Cesario Times
    Possíveis Avaliadores: Hermano Perrelli de Moura
    Resumo da Proposta: As finanças descentralizadas, também conhecidas como DeFi, correspondem a um sistema de serviços financeiros descentralizados construídos na blockchain, que se propõem a democratizar as finanças centralizadas, por fornecerem uma gama completa de serviços financeiros, sem a necessidade de intermediários, para qualquer pessoa ao redor do mundo, que possua acesso à internet. Assim, o presente trabalho tem como principal objetivo fazer uma análise crítica acerca do potencial dos serviços ofertados nas finanças descentralizadas, investigando se eles oferecem reais benefícios ou apenas as mesmas vantagens dos serviços ofertados nas finanças centralizadas. Ademais, a metodologia utilizada na realização desse trabalho envolveu uma pesquisa bibliográfica composta por quatro etapas: (1) Revisão da literatura para estabelecer os conceitos básicos necessários ao desenvolvimento desse documento; (2) A realização de um estudo comparativo entre os trabalhos existentes e relacionados ao tema proposto nesse TCC; (3) A exposição dos serviços ofertados nas finanças descentralizadas, comparando-os com os serviços ofertados nas finanças centralizadas; (4) A realização de uma análise SWOT, visando apresentar os principais pontos fortes, pontos fracos, oportunidades e ameaças das finanças descentralizadas.

Sistemas de Informação
Responsável: Prof. Abel Guilhermino da Silva Filho (@cin.ufpe.br)

 

 

  1. Título: FERRAMENTA DE VISUALIZAÇÃO PARA EXPLORAÇÃO DE UMA TAXONOMIA DE GERAÇÃO PROCEDURAL DE CONTEÚDO PARA JOGOS
    TG: aqui
    Autor(a): Carolina Maria de Paiva Melo
    Curso: Sistemas de Informação
    Orientador(a):​ Filipe Calegario
    Possíveis Avaliadores: Geber Ramalho
    Resumo da Proposta: Este trabalho propõe uma ferramente de visualização para exploração de uma taxonomia de geração procedural de conteúdo para jogos. Ele investiga as aplicações atuais existentes, assim como jogos que obtiveram proeminência pelo uso da tecnologia, em comparação com as definições formais trazidas pela academia. Adicionalmente, sumariza os principais métodos de geração procedural de jogos aplicados à geração de diversos conteúdos, e ressalta a importância dos métodos que foram mais inovadores dentro da sua área de aplicação, com os avanços que trouxeram para os estudos do tema. São expostas as dificuldades durante a construção da visualização e durante a catalogação de ferramentas, a fim de apresentar um panorama de como essa tecnologia vem sendo gerenciada pela sua comunidade de usuários. Por fim, este trabalho interliga a geração procedural de conteúdo com outras áreas de inteligência computacional, como a inteligência artificial, apresentando seu poder de crescimento nos anos seguintes.

  2. Título: IMPACTO DA IMPLANTAÇÃO DE SISTEMAS DE GESTÃO HOSPITALAR: UM ESTUDO EMPÍRICO NO HOSPITAL DAS CLÍNICAS DA UFPE
    TG: aqui
    Autor(a): Danilo William Pereira de Lima
    Curso: Sistemas de Informação
    Orientador(a):​ Jéssyka Vilela
    Possíveis Avaliadores: Simone Santos
    Resumo da Proposta: É cada vez mais comum hospitais adotarem soluções tecnológicas que permitam uma gestão hospitalar eficiente. Nesse contexto, a utilização de Sistemas Integrados de Gestão Empresarial, do inglês Enterprise Resource Planning - ERP, no âmbito hospitalar, podem auxiliar os usuários na execução de processos de acordo com as exigências legislativas do Ministério da Saúde e da Agência Nacional de Saúde. Apesar de um ERP ser um instrumento vital para registrar, compilar e sistematizar dados que auxiliarão na tomada de decisões dos diretores corporativos, sua implementação principalmente em hospitais, costuma ser um grande desafio, pois um sistema ERP tem influência em como os processos organizacionais são estruturados. Este trabalho tem como principal objetivo avaliar o impacto do início da implantação de um ERP, o Aplicativo de Gestão de Hospitais Universitários (AGHU) nos processos de negócio do Hospital das Clínicas da Universidade Federal de Pernambuco (UFPE). Foi realizada uma revisão da literatura para identificar métricas de avaliação de impacto em processos de negócios e realização de duas entrevistas semiestruturadas com uma profissional envolvida com a implantação e uma ex-profissional envolvida em processos de atendimento ao paciente. Resultados: A partir das entrevistas, foi possível obter dados sobre as funcionalidades e procedimentos executados para implantação do AGHU assim como o impacto do AGHU nos processos de negócios, com enfoque no processo de admissão de pacientes na internação através do desenvolvimento das modelagens deste processo antes e após a implantação. Com base nos resultados obtidos, foi possível concluir que das perspectivas abordadas, apenas a extensão da automação nos processos de negócio não foi afetada, enquanto todas as outras sofreram algum tipo de mudança. Além disso, também foi possível concluir que o processo de admissão de pacientes foi o que mais teve impacto, onde o AGHU conferiu a autonomia da consulta de disponibilidade de leitos para a unidade de admissão, eliminando as tarefas manuais e a dependência que a unidade tinha das enfermarias clínicas.

  3. Título: IDENTIFICAÇÃO DE EXOPLANETAS UTILIZANDO INTELIGÊNCIA ARTIFICIAL: UMA REVISÃO SISTEMÁTICA DE LITERATURA
    TG: aqui
    Autor(a): Gabriel Cavalcanti de Melo
    Curso: Sistemas de Informação
    Orientador(a):​ Fernando Maciano
    Possíveis Avaliadores: Jéssyka Vilela
    Resumo da Proposta: Até o ano de 1992, não existiam provas da existência de um planeta orbitando uma outra estrela que não fosse o Sol. Os métodos manuais utilizados inicialmente para a descoberta dos primeiros exoplanetas eram trabalhosos e estavam sujeitos a erros. Porém, com o auxílio da Inteligência artificial (IA) para analisar os dados astronômicos provenientes das missões espaciais, o número de exoplanetas cresce a cada ano, chegando até a quantidade de milhares de exoplanetas confirmados. Diante deste cenário, o trabalho visa fazer uma revisão sistemática de literatura (RSL) do uso da Inteligência Artificial na identificação de exoplanetas, para que tenhamos, em um só trabalho, uma síntese das informações sobre quais técnicas inteligentes estão sendo utilizadas, quais são suas contribuições e impactos, e quais as limitações e obstáculos enfrentados pelo uso de métodos inteligentes na área de identificação de exoplanetas.

  4. Título: IMPLEMENTAÇÃO DA METODOLOGIA RUNNING LEAN PARA UM DESENVOLVIMENTO DE UM PRODUTO DIGITAL PARA CONECTAR BRASILEIROS COM VAGAS DE EMPREGOS NO JAPÃO
    TG: aqui
    Autor(a): Hirohito Souza Cruz Miyakawa
    Curso: Sistemas de Informação
    Orientador(a):​ Cristiano Coelho de Araújo
    Possíveis Avaliadores: Giordano Ribeiro Eulalio Cabral
    Resumo da Proposta: O Brasil é o país com maior concentração de japoneses e descendentes de japoneses (nikkeis) fora do Japão. Isso influencia fortemente os brasileiros que querem migrar para o Japão. O Japão é um país desenvolvido em vários aspectos com tecnologias e sociedade que oferecem oportunidade de emprego melhores. O desejo de morar no Japão faz com que diversos brasileiros estudem a língua japonesa. Contudo, existem diversos fatores que dificultam os brasileiros a conseguirem trabalho no Japão. Muitas vezes faltam informações básicas para muitas das vagas ofertadas pelas empresas japonesas. Vagas abertas para estrangeiros, mas que favorecem os que falam inglês nativo. Burocracias da parte do governo japonês para obtenção de vistos. Estes são alguns dos diversos fatores que desestimulam os brasileiros que estudaram a língua japonesa a morar no Japão. Diante desse cenário, o objetivo deste trabalho é utilizar a metodologia de inovação Running Lean para descobrir se existe uma oportunidade de negócio viável para desenvolvimento de um serviço digital que conecte vagas de emprego do Japão com os brasileiros que estudam língua japonesa.

  5. Título: CLASSIFICAÇÃO DE CÂNCER DE MAMA UTILIZANDO APRENDIZAGEM DE MÁQUINA: UMA REVISÃO SISTEMÁTICA DA LITERATURA BRASILEIRA
    TG: aqui
    Autor(a): Ivan Ferreira da Silva Lima
    Curso: Sistemas de Informação
    Orientador(a):​ Fernando Maciano
    Possíveis Avaliadores: Teresa B. Ludermir
    Resumo da Proposta: De acordo com o Instituto Nacional do Câncer (INCA), o câncer de mama é a principal causa de morte, por câncer, entre as mulheres no Brasil. Uma das formas de proporcionar um tratamento com maior probabilidade de cura é começar o tratamento da doença em fase inicial. Por isso, vem se desenvolvendo estudos para realizar o diagnóstico precoce, utilizando principalmente inteligência artificial. Este trabalho propõe uma revisão sistemática de literatura de artigos acadêmicos publicados por brasileiros sobre previsão da doença utilizando técnicas de aprendizado de máquina entre 2015 e 2021.

  6. Título: A CONTRIBUIÇÃO DO LOW CODE NO ÂMBITO EDUCACIONAL: UM MAPEAMENTO SISTEMÁTICO DA LITERATURA
    TG: aqui
    Autor(a): Jhonata Lima de Souza
    Curso: Sistemas de Informação
    Orientador(a):​ Simone Santos
    Possíveis Avaliadores: Filipe Calegario
    Resumo da Proposta: A educação na área de tecnologia da informação e comunicação muda com uma velocidade imprescindível. Isso devido ao fato da mesma estar na linha de frente da inovação. A partir disso, foi percebido que o aprendizado ativo, método que coloca o aluno como protagonista do processo de aprendizagem, está sendo largamente utilizado nas universidades e escolas de tecnologia. Muitos métodos utilizam do aprendizado ativo para simular o ambiente de trabalho, sendo necessário o uso de ferramentas que auxiliem os alunos nessa jornada. As ferramentas low code possuem um grande apelo pela facilidade de desenvolvimento, integração e deploy, sendo a programação visual como seu principal artifício. Por consequência disso, organizações começaram a adotar sistematicamente esta tecnologia em seus portfólios. Sendo esperado grande adoção dessa tecnologia por grande parte do mercado de software é necessário que os novos profissionais da área sejam educados de maneira que possam acompanhar essa tecnologia. Diante disso, foi conduzido um mapeamento do uso do low code no âmbito educacional, de forma que possa ser elucidado seu uso nos diferentes níveis educacionais, como é utilizado, quais benefícios para os futuros profissionais, vantagens e desvantagens do uso do low code. 39 estudos foram selecionados a partir do método de mapeamento, em diferentes mecanismos de busca. Foi observado que o low code possui utilização não só no ambiente acadêmico, mas também, no ensino médio, cursos de treinamento, inovação e até agricultura. O uso do low code foi coerente com a sua proposta, no desenvolvimento de aplicações, mas vários outros usos foram identificados, como apoio a cursos de treinamento, algoritmos de IA e outros. Exibindo ótimas vantagens com sua facilidade de aprendizado e não necessitando grande conhecimento com linguagens de programação, atribuindo competitividade para os novos profissionais. A plataforma também se mostrou promissora na oportunidade da exploração de conceitos do mundo real no desenvolvimento de software, com alguns desafios, como limitações da própria ferramenta e falta de padrões de licença nas diferentes plataformas. Por fim, esse estudo conseguiu responder todas as perguntas propostas e se espera que novos trabalhos aplicados com o low code sejam conduzidos na área da educação.

  7. Título: ESTUDO COMPARATIVO DE PLATAFORMAS LOW-CODE PARA CRIAÇÃO DE SISTEMAS E-COMMERCE
    TG: aqui
    Autor(a): João Gabriel Silva de Andrade
    Curso: Sistemas de Informação
    Orientador(a):​ Vinicius Cardoso Garcia
    Possíveis Avaliadores: Filipe Calegário
    Resumo da Proposta: As plataformas low-code são plataformas de desenvolvimento, implantação e manutenção de aplicativos. Esse tipo de abordagem para desenvolver sistemas vem se destacando no mercado por ter o tempo de processo de desenvolvimento veloz comparado ao processo de desenvolvimento tradicional, além de ser considerado bastante intuitivo, possibilitando o desenvolvimento de sistemas robustos por pessoas sem conhecimento na área de Tecnologia de Informação (TI). Um tipo de sistema capaz de ser desenvolvido por essas plataformas são e-commerces, transações de compra e venda de produtos pela internet. Este trabalho tem como intuito comparar plataformas low-code para o desenvolvimento de sistemas e-commerce, resultando pontos positivos e negativos de cada plataforma analisada.

  8. Título: DESENVOLVIMENTO DE UM SISTEMA DE BANCO DE QUESTÕES AUTOMÁTICO UTILIZANDO AS PROVAS DO ENEM
    TG: aqui
    Autor(a): Kayque Lucas Santana dos Santos
    Curso: Sistemas de Informação
    Orientador(a):​ Alex Sandro Gomes
    Possíveis Avaliadores: Filipe Calegário
    Resumo da Proposta: A elaboração de exercícios e avaliações é uma atividade que faz parte da rotina dos professores da educação básica. Para preparar alunos para provas de vestibular, os professores do ensino médio se utilizam das pesquisas em apostilas, sites e blogs para encontrar questões provenientes dos vestibulares oficiais. Tal atividade gera uma demanda extra de tempo para estes profissionais. Este trabalho propõe o desenvolvimento de um sistema que permitirá aos professores otimizar o tempo gasto na busca por questões de provas de vestibulares na internet, especificamente as provas do ENEM. O sistema proposto utiliza a técnica de Web Scraping para coleta automática das provas e faz uma análise de texto baseada em expressões regulares para estruturar os dados contidos nos documentos, persistindo-os em um banco de dados. Para mensurar a efetividade e a qualidade do modelo proposto, a aplicação foi testada por usuários. Cada participante, após interagir com o sistema, respondeu a um questionário no modelo SUS (System Usability Scale, do inglês Escala de Usabilidade do Sistema) e contabilizou a quantidade de erros observados. Os resultados demonstraram uma boa aceitação dos participantes e uma taxa de 68% de questões extraídas com sucesso do total de questões avaliadas.

  9. Título: FATORES CRÍTICOS DE SUCESSO EM PROJETOS DE IMPLEMENTAÇÃO DE ERP: UMA REVISÃO TERCIÁRIA DA LITERATURA.
    TG: aqui
    Autor(a): Luana Mayara Santos Ribeiro
    Curso: Sistemas de Informação
    Orientador(a):​ Simone Santos
    Possíveis Avaliadores: Jessyka Vilela
    Resumo da Proposta: Com o crescimento da competitividade no mercado, as empresas necessitaram recorrer à tecnologia para gestão de seus processos, pessoas e negócios. Como resultado, o ERP (Enterprise Resource Planning), sistema de informação para planejamento e gerenciamento de recursos, surgiu para auxiliar a gestão de empresas, automatizar processos e integrar diversas áreas dentro da organização. Ademais, esse tipo de sistema facilitou o trabalho entre diferentes departamentos em tempo real, eliminando processos e custos desnecessários, tornando-se, assim, primordial para benefícios estratégicos. No entanto, implantar um sistema de ERP nas empresas não é uma tarefa fácil, pois exige muitos fatores como envolvimento do usuário, definição clara das necessidades, planejamento adequado, equipe competente e dedicada. Conhecer esses fatores é essencial para a gestão de um projeto de implantação de ERP, o que motivou a seguinte questão central de pesquisa: QC) - “Quais os Fatores Críticos de Sucesso (FCS) em Projetos de Implementação de ERP?”. Buscando respostas para essa questão, o objetivo deste trabalho será realizar uma investigação sistemática da literatura acerca dos fatores críticos de sucesso para implantação de ERP. Numa pesquisa ad hoc sobre o tema, foi percebido que existem vários estudos sistemáticos sobre esse assunto. Para uma visão ainda mais ampla e consolidada dos FCS em Projetos de ERP, este estudo utilizará o método de Revisão Terciária da Literatura (RTL) de Kitchenham, analisando estudos secundários publicados nas últimas duas décadas.

  10. Título: TÉCNICAS DE NORMALIZAÇÃO DE TEXTO PARA PLN COM DADOS DO FACEBOOK: UM MAPEAMENTO SISTEMÁTICO DA LITERATURA
    TG: aqui
    Autor(a): Lucas Glasner Regis
    Curso: Sistemas de Informação
    Orientador(a):​ Fernando Maciano de Paula Neto
    Possíveis Avaliadores: Frederico Luiz Goncalves de Freitas
    Resumo da Proposta: A Normalização de Texto (TN) é uma etapa importante para os algoritmos de aprendizagem de máquina e mineração de dados no processamento de linguagem natural (NLP). Ela padroniza os dados de entrada e tem mostrado melhorar o desempenho e a precisão dos modelos de NLP. Neste trabalho, realizamos um mapeamento da literatura das técnicas de TN e outros pré-processamentos no contexto de redes sociais, em específico, do Facebook, utilizando como bibliotecas digitais os repositórios da ACM, Emerald, IEEE, Science Direct, Scopus e Springer de artigos publicados em periódicos e conferências.

  11. Título: IMPACTOS DA PARTICIPAÇÃO EM PROJETOS DE EDUCAÇÃO TECNOLÓGICA NA FORMAÇÃO DE PROFISSIONAIS EM TECNOLOGIA: ESTUDO DE CASO DO PROJETO ARABOIA
    TG: aqui
    Autor(a): Lucas Prado da Costa Burgos
    Curso: Sistemas de Informação
    Orientador(a):​ Fernando Maciano
    Possíveis Avaliadores: Filipe Calegário
    Resumo da Proposta: Com o constante aumento na demanda por profissionais de tecnologia, os estudantes em formação vem cada vez mais se empenhando no desenvolvimento de habilidades necessárias ao mercado de trabalho desde os estágios iniciais do curso, através de projetos e atividades extracurriculares. Portanto, o objetivo deste trabalho consiste em compreender os impactos na formação de alunos que participam de projetos voltados para a educação na área de tecnologia. Para isso, será realizado um estudo de caso no projeto Araboia do Centro de Informática da UFPE, que visa ensinar Programação, Inteligência Artificial e Segurança da Informação, baseado na execução de uma pesquisa qualitativa entre os graduandos participantes.

  12. Título: DEFINIÇÃO DE UM CONJUNTO DE DIRETRIZES PARA IMPLEMENTAR O TMMi NO CONTEXTO DE DESENVOLVIMENTO ÁGIL
    TG: aqui
    Autor(a): Marcelo Aguiar Coelho de Moura Filho
    Curso: Sistemas de Informação
    Orientador(a):​ Alexandre Vasconcelos
    Possíveis Avaliadores: Juliano Iyoda
    Resumo da Proposta: Garantir a qualidade no contexto de desenvolvimento de software é muito importante para que as principais necessidades dos clientes sejam supridas. Este trabalho tem como objetivo propor e criar diretrizes que possam viabilizar níveis mais adequados de qualidade ao processo de testes para as pessoas envolvidas com esta atividade no processo de desenvolvimento de software. As diretrizes se baseiam nos requisitos para atingir os níveis de maturidade do TMMi, um modelo de maturidade para testes de software. Este modelo possui cinco níveis de maturidade e o trabalho irá propor diretrizes que, se aplicadas corretamente, podem viabilizar que a organização alcance o segundo nível, o qual funciona com um estágio inicial para que a empresa deixe de ter um processo de testes ad-hoc. Ao final do trabalho, será avaliado se os conjuntos de diretrizes e práticas são elegíveis para serem utilizados na prática.

  13. Título: UMA ANÁLISE DOS TRABALHOS DE CONCLUSÃO DE CURSO DO CENTRO DE INFORMÁTICA DA UFPE NA ÁREA DE GESTÃO DE PROJETOS
    TG: aqui
    Autor(a): Matheus Marconi Ferreira Ramos
    Curso: Sistemas de Informação
    Orientador(a):​ Hermano Perrelli de Moura
    Possíveis Avaliadores: Alexandro Vasconcelos
    Resumo da Proposta: Nos dias atuais, tanto no contexto acadêmico como no ambiente profissional, grande parte das atividades que realizamos está organizada em projetos, uma boa gerência de projetos tem se tornado um fator competitivo no mercado, dado que influencia diretamente na qualidade do produto final. O que torna o tema de grande relevância para universidades e centros acadêmicos, este estudo utiliza os conceitos da bibliometria e revisão sistemática da literatura, como ferramenta para análise dos TCCs sobre gestão de projetos desenvolvidos entre os anos de 1998 a 2020 nos cursos de graduação do CIn. Após a pesquisa exploratória inicial dos artigos encontrados no acervo de TGs do Centro de Informática, analisamos os resultados com o intuito de direcionar o conhecimento e a pesquisa sobre gestão de projetos fomentados pelo Centro de Informática. Um resultado esperado é também um método que possa ser utilizado em outras áreas de pesquisa.

  14. Título: L10N-TRAINING: UMA FERRAMENTA PARA O TREINAMENTO DE TESTADORES NO CONTEXTO DE TESTES MANUAIS DE LOCALIZAÇÃO
    TG: aqui
    Autor(a): Mauro Antonino Veríssimo
    Curso: Sistemas de Informação
    Orientador(a):​ Breno Miranda
    Possíveis Avaliadores: Juliano Iyoda
    Resumo da Proposta: A distribuição de software desenvolvido localmente para mercados internacionais é uma prática comum na indústria de software. Quando uma organização deseja desenvolver um software que será utilizado em diferentes regiões é necessário adaptá-lo para as diferentes localidades. Este processo é chamado de localização de software. Alguns erros de localização podem ser facilmente percebidos pelo usuário final (por exemplo, uma sentença, ou parte dela, em um idioma diferente daquele definido pelo usuário); outros erros, porém, são mais sutis, e correm o risco de serem ignorados por testadores menos experientes.Garantir um treinamento de qualidade aos testadores de localização é, portanto, uma tarefa importante. Este trabalho apresenta l10n-training, uma ferramenta criada para dar suporte ao processo de treinamento de testadores de localização no contexto de testes manuais. l10n-training gera aplicativos Android para o treinamento de testadores. Os aplicativos gerados possuem erros de localização que são inseridos de acordo com as configurações escolhidas pelo usuário.

  15. Título: OS IMPACTOS DO ENSINO REMOTO NOS CURSOS DE GRADUAÇÃO EM COMPUTAÇÃO DURANTE A PANDEMIA DA COVID-19: UMA PESQUISA DE OPINIÃO VOLUNTÁRIA NO CENTRO DE INFORMÁTICA DA UFPE
    TG: aqui
    Autor(a): Pedro Augusto de Almeida Falcão
    Curso: Sistemas de Informação
    Orientador(a):​ Simone Santos
    Possíveis Avaliadores: Carla Silva
    Resumo da Proposta: A pandemia da COVID-19 trouxe mudanças drásticas em todo o mundo nas mais diferentes áreas, incluindo a educação. Em 2020, as suspensões das aulas presenciais e autorização do ensino remoto para instituições de ensino no Brasil, por meio do Ministério de Educação (MEC), fez instituições de ensino superior com cursos presenciais nas mais diversas áreas precisarem se reinventar para dar andamento ao cronograma planejado. Assim, a pesquisa realizada teve como objetivo compreender os impactos do ensino remoto para cursos de graduação em Computação durante a pandemia, por meio de uma pesquisa de opinião voluntária na comunidade do Centro de Informática de uma das instituições de ensino superior afetadas pela pandemia, a Universidade Federal de Pernambuco (UFPE). Para conduzir esta pesquisa, foram usados os seguintes métodos: Revisão Terciária da Literatura (RTL), para entender o contexto e problemas de pesquisa de forma mais ampla, considerando diversas instituições de ensino; realização de uma pesquisa de opinião voluntária com a comunidade do Centro de Informática da UFPE, entendendo o contexto específico de uma instituição; proposição de melhorias no modelo de ensino, a partir dos resultados da pesquisa de opinião. A partir da aplicação desses métodos, foram encontradas evidências de que o ensino remoto trouxe inúmeros desafios e oportunidades para alunos e professores. Quanto aos desafios, foram pontuadas a comunicação dificultada sem o contato físico, a falta de um ambiente propício para o ensino remoto por parte dos alunos e a necessidade de reinventar todo o processo de ensino pelos professores. Por outro lado, foram observadas oportunidades como a economia de tempo e dinheiro no deslocamento para a faculdade, o uso de metodologias ativas de ensino e a gravação das aulas como forma de possibilitar a revisão dos assuntos por parte dos alunos. Como proposições de melhorias, destacam-se o incentivo ao treinamento dos professores em metodologias ágeis de ensino e avaliação, a transmissão das aulas síncronas para não obrigatoriedade do retorno presencial, a gravação das transmissões das aulas para curadoria de conteúdo e o reforço à segurança nos arredores do Centro de Informática.

  16. Título: O USO DE UM SOFTWARE PARA O AGENDAMENTO DA VACINAÇÃO CONTRA A COVID-19: UM ESTUDO DE CASO DO RECIFE VACINA
    TG: aqui
    Autor(a): Pedro Henrique Salvador de Lima
    Curso: Sistemas de Informação
    Orientador(a):​ Hermano Perrelli de Moura
    Possíveis Avaliadores: Alexandre Vasconcelos
    Resumo da Proposta: Com a chegada das vacinas contra a Covid-19 no país, em janeiro de 2021, criou-se uma expectativa para o início da aplicação das doses nos cidadãos brasileiros, de forma rápida e segura. Fatores externos influenciaram negativamente e positivamente esse processo e diante dessas questões, governos estaduais e municipais tomaram medidas para acelerar a imunização da sua população. Pensando nisso, a monografia vai analisar como o uso de um software pode influenciar na velocidade e eficácia da vacinação em um município, tendo como referência o Recife Vacina.

  17. Título: USO DA LEI DE NEWCOMB-BENFORD PARA DETECÇÃO DE ANOMALIAS EM BASES DE DADOS: UMA ANÁLISE EXPERIMENTAL DAS DESPESAS PELA COTA PARA EXERCÍCIO DA ATIVIDADE PARLAMENTAR
    TG: aqui
    Autor(a): Ricardo Ferreira dos Santos Júnior
    Curso: Sistemas de Informação
    Orientador(a):​ Vinicius Cardoso Garcia
    Possíveis Avaliadores: José Carlos Cavalcanti
    Resumo da Proposta: Em razão do crescimento exponencial de dados, ocorreu a necessidade de mudanças nos métodos de verificação de sua autenticidade, com destaque nas relações de confiança nos dados que se encontram, principalmente, em bases abertas. O principal critério para propor a criação desta nova ferramenta se consolidou com a apropriação de uma técnica de distribuição de dígitos, principalmente, utilizada na área de detecção de fraudes contábeis, baseado, em suma, nas probabilidades de ocorrência de números iniciados por dígitos menores são superiores às probabilidades de ocorrência de números iniciados por dígitos mais elevados, fenômeno este denominado por Newcomb (1881) e Benford (1938), da Lei de Newcomb-Benford, dando início, portanto, a uma mudança nos novos paradigmas das relações contábeis. A realização deste trabalho emerge da necessidade de avaliação de possíveis divergência nas despesas atribuída a cada parlamentar por meio de uma cota destinada a custear despesas típicas do exercício do seu mandato, encontradas no portal de dados abertos da Câmara dos Deputados, onde esperou-se verificar se existe ou não conformidade das bases com a Lei de Newcomb-Benford.

  18. Título: PERCEPÇÃO DOS USUÁRIOS DE APLICATIVOS DE SAÚDE MENTAL SOBRE PRIVACIDADE E O USO DOS SEUS DADOS
    TG: aqui
    Autor(a): Roberto Oliveira da Silva Filho
    Curso: Sistemas de Informação
    Orientador(a):​ Carla Silva
    Possíveis Avaliadores: Jessyka Vilela
    Resumo da Proposta: Contextualização: Desde o início da pandemia da COVID-19 os transtornos psicológicos têm aumentado significativamente. É nesse contexto que surgem os aplicativos de apoio à saúde mental. Os aplicativos de autoajuda relacionados à saúde mental agora são algo entre 10.000 e 20.000. Com um volume enorme de dados pessoais que existem em torno da prática do uso desse tipo de aplicativos se viu necessário prestar atenção em relação à privacidade desses dados. Objetivo: Realizar uma análise a respeito da privacidade de dados em aplicativos de saúde mental e as motivações dos usuários ao compartilhar suas informações. Método: O presente estudo utiliza o método de análises manuais exploratórias para analisar dois aplicativos de saúde mental em conjunto com uma pesquisa survey para coletar informações acerca da privacidade de dados em torno desses aplicativos. Resultados: Os aplicativos mais utilizados pelos respondentes do survey foram os HeadSpace, Metamorfosis e Zenklub. A maioria dos participantes que não utilizam nenhum aplicativo de saúde mental realizam atividades físicas para melhorar a saúde. Trouxe as funcionalidades mais importantes segundo os usuários, como: mostrar vídeos sobre o tema, diminuir ansiedade e estresse de forma gameficada, falar com um profissional, ajuda no sono e por fim seção com conteúdos e dicas. As políticas de privacidade, por se tratar de textos longos e de difícil entendimento, poucas pessoas realmente os leem e os que leem dificilmente os compreendem. Os resultados também nos mostraram que os usuários desse tipo de aplicativo tem um interesse em contribuir com pesquisas a respeito do tema, aceitando compartilhar seus dados com instituições de pesquisas. Conclusões: A importância da pesquisa sobre o tema nos permitiu compreender o que é um aplicativo de saúde mental e suas principais funcionalidades, trazendo informações a respeito das políticas de privacidade e a percepção dos usuários sobre os dados compartilhados. Foi possível avaliar os critérios os quais os usuários destes apps consentem em compartilhar seus dados com as empresas, o estudo também mostrou a motivação pela qual o número de aplicativos desse tipo vem crescendo a cada ano. Que a COVID-19 teve impactos psicológicos nas pessoas e que o uso dessas ferramentas tendem a crescer ainda mais. Mas as empresas donas desses aplicativos ainda não se mostraram muito empenhadas em proteger as informações dos seus usuários ou na privacidade de dados aceitando compartilhá-los com terceiros para receber conteúdos de marketing personalizados.

  19. Título: ANÁLISE E VISUALIZAÇÃO DE DADOS: AVALIAÇÃO DE DESENVOLVIMENTO DE DASHBOARDS POR MEIO DE HEURÍSTICAS
    TG: aqui
    Autor(a): Talyta Maria Rosas Pacheco
    Curso: Sistemas de Informação
    Orientador(a):​ Adiel T. de Almeida Filho
    Possíveis Avaliadores: Nivan Roberto F. Junior
    Resumo da Proposta: Interpretar dados de forma ágil e intuitiva é uma necessidade em uma cultura empresarial orientada para decisões baseadas em dados. A disponibilidade de softwares capazes de sintetizar a informação contida em dados através da geração de gráficos para facilitar o processo de interpretação se tornou comum e de fácil obtenção. Por outro lado, a habilidade de desenvolver visualizações eficazes não é fácil e, ao mesmo tempo, apresenta-se como crucial para o sucesso da adesão e do aproveitamento dos dados. A eficiência extrapola o escopo de escolha de gráficos adequados, e precisa de planejamento, com seleção de layout preciso e claro, acessível, performático e responsivo. Ao longo do trabalho foram reunidas as principais heurísticas e foi proposto um protocolo para avaliação da usabilidade e design de dashboards. O protocolo proposto foi testado através da avaliação de dashboards públicos, verificando a qualidade dos trabalhos no quesito boas práticas de visualização e, assim, contribuir com o aumento da qualidade no desenvolvimento de dashboards e aplicações para visualização de dados.

  20. Título: SIMULANDO PERCEPTRONS QUÂNTICOS EM PROBLEMAS DE CLASSIFICAÇÃO DE IMAGENS DA BASE QUICKDRAW
    TG: aqui
    Autor(a): Thomaz Barbosa Maciel
    Curso: Sistemas de Informação
    Orientador(a):​ Fernando Maciano
    Possíveis Avaliadores: Stefan Blawid
    Resumo da Proposta: Modelos quânticos de aprendizagem máquina têm sido propostos para unir as vantagens da computação quântica com a adaptabilidade e generalização de comportamento dos modelos inteligentes. Uma das implementações mais simples e aplicáveis é o neurônio “Perceptron”, desenvolvido por Frank Rosenblatt, cuja versão quântica foi proposta por Francesco Tacchino et. al. Há também uma extensão desse trabalho que permite construir o neurônio que suporta entradas e pesos com valores reais, proposto por Mangini et. al. Este trabalho propõe a análise da execução e treinamento da implementação de tais modelos, e avaliando a qualidade desses neurônios na base pública Quickdraw.

  21. Título: TRANSFORMAÇÃO DIGITAL E SUAS IMPLICAÇÕES NA VULNERABILIDADE DAS ORGANIZAÇÕES: UMA REVISÃO SISTEMÁTICA DA LITERATURA
    TG: aqui
    Autor(a): Tiago Oliveira de Souza
    Curso: Sistemas de Informação
    Orientador(a):​ Simone Cristiane dos Santos
    Possíveis Avaliadores: Vinicius Cardoso Garcia
    Resumo da Proposta: A transformação digital é vista como uma necessidade para pequenos e grandes negócios se manterem relevantes no mercado a partir do uso abrangente da Tecnologia da Informação e Comunicação (TIC), e também como uma melhoria para cadeias produtivas, automação, tomada de decisão e outras atividades produtivas. Contudo, essa transformação digital não é integralmente benéfica para todo caso, já que pode causar impactos negativos em muitos aspectos sociais, ambientais e tecnológicos. Nesse contexto, a seguinte questão central de pesquisa motiva este estudo: QC - Quais os impactos das vulnerabilidades trazidas pela transformação digital nas organizações, sob as perspectivas das dimensões de pessoas, processos e tecnologia. Para responder essa questão, o método de Revisão Sistemática da Literatura (RSL) de Kitchenham foi utilizado, encontrando 69 estudos primários relacionados a esse tema. A partir da análise desses estudos, Este trabalho evidencia vulnerabilidades nas organizações e possíveis riscos provenientes da transformação digital em processos, pessoas e tecnologias. Assim como também, esclarece como uma organização se torna vulnerável a eventos e atores internos e externos nesse contexto de transformação, relaciona essas vulnerabilidades aos seus incidentes mais comuns e também explora definições sobre os diversos tópicos presentes neste recorrente tema.