Browsing by Issue Date, starting with "2024-12-10"
Now showing 1 - 5 of 5
Results Per Page
Sort Options
- Omics Biology in Diagnosis of Diseases: Towards Empowering Genomic Medicine from an Evolutionary PerspectivePublication . Maldonado, Emanuel; Khan, ImranIn this section, we reintroduce the original aims and scope of the Special Issue entitled “Omics Biology in Diagnosis of Diseases: Advances in Bioinformatics and Data Analyses”, enabling readers to find an appropriate framing for the remainder of the present closing editorial. Readers aware of this can skip this section. [...]
- Codificação e Fusão de Imagens Multifoco: Comparação entre imagens codificadas fundidas e fusão de imagens codificadasPublication . Peraboa, Marta Filipa Gomes; Pinheiro, António Manuel GonçalvesA fusão de imagens é uma técnica da fotografia computacional que é essencial para obter imagens de alta qualidade. A aquisição destas imagens é um passo crucial nas aplicações de processamento de imagens. Uma vez que, a profundidade de campo é limitada pelas lentes óticas usadas, tornando-se difícil obter uma imagem em que todos os objetos se encontrem focados. Para colmatar este problema é necessário usar uma técnica de baixo custo que ajude a obter uma imagem em que todos os planos estejam focados. Este trabalho, tem assim como objetivo verificar se é possível usar imagens codificadas para fazer a fusão de imagens multifoco. Sabe-se que o processo de fusão de imagens multifoco, tem sido aplicado em vários domínios diferentes como é o caso do processamento de imagens médicas, da fusão de micro-imagens, das redes de sensores visuais, da análise bioquímica, entre muitos outros. No entanto, têm várias limitações, que têm sido apresentadas como é o caso de erros de registo, efeitos de desfocagem e elevada sensibilidade ao ruído. Estas imagens podem ser obtidas através de diferentes métodos de fusão de imagens multifoco. As quatro categorias principais são: o domínio espacial, o domínio da transformação, de deep learning e os métodos híbridos. Estes tentam colmatar algumas das limitações apresentadas pelos processos de fusão multifoco. Assim sendo, dentro de cada uma destas categorias existem várias subcategorias, que têm o mesmo propósito que a categoria a que pertencem, mas que utilizam metodologias diferentes de aquisição de imagens e de tratamento das mesmas. Tipicamente são obtidas duas ou mais imagens do mesmo cenário com diferentes pontos de focagem o que permite através da fusão construir uma imagem mais rica em termos de focagem. Os dois métodos usados para a aquisição das imagens estudadas foram: codificar primeiro as imagens e de seguida fundi-las ou fundi-las e depois codificá-las. Foi assim, selecionado um método de fusão que apresenta um bom desempenho, a ASR, que combina informações de duas imagens com diferentes pontos de focagem para gerar uma imagem de melhor qualidade. Dessa forma, as imagens geradas pelo algoritmo de fusão utilizando imagens codificadas, foram comparadas com aquelas que foram geradas pelo mesmo algoritmo, mas sem codificação. Assim, as imagens usadas no processo de fusão vão ser codificadas usando diferentes codecs. Neste caso, os codecs utilizados são o JPEG, o JPEG 2000 e o JPEG XL. Para avaliar a qualidade das imagens obtidas, utilizando os codecs escolhidos, foi usado o seguinte conjunto de métricas: o PSNR-HVS-M, o MS-SSIM e o FSIMc. Estas métricas fazem a comparação da imagem fundida (a partir das imagens originais) com as imagens que sofreram codificação e fusão ou fusão e codificação. São também feitas comparações das imagens codificadas com a imagem original da base de dados. Os resultados obtidos foram apresentados através de tabelas, uma para cada métrica o PSNR-HVS-M, o MS-SSIM e o FSIMc, onde são apresentados os valores da área entre as duas curvas obtidas. Uma das curvas é referente aos valores obtidos através das taxas de bits para as imagens codificadas e fundidas e a outra para as imagens fundidas com posterior codificação. Foi também elaborada uma tabela para analisar a Delta Bjøntegaard da média com o respetivo desvio padrão para as três métricas usadas. Analisou-se ainda, qual o custo em termos de taxa de bits para obter a mesma qualidade com imagens originais codificadas que se obtém com imagens originais sem codificação. Através da análise dos codecs estudados, observou-se que a JPEG XL é o que tem maior capacidade de compressão. Isto foi comprovado através dos resultados obtidos através das métricas usadas. O objetivo deste trabalho era determinar se é possível comprimir as duas imagens originais em vez de comprimir a imagem fundida sem comprometer a qualidade da fusão. Os resultados obtidos mostram que tal é possível. No entanto, uma vez que os codecs analisados teriam de codificar ambas as imagens, seria necessário o dobro do espaço de armazenamento (para armazenar duas imagens) em comparação com o armazenamento da imagem resultante da fusão. Contudo, é de notar que o armazenamento de duas imagens com capacidade de fusão permite novas fusões que podem resultar em imagens de maior qualidade.
- Light Field Compression and View Synthesis: An Objective Quality AnalysisPublication . Saraiva, Daniela Ferreira; Pinheiro, António Manuel GonçalvesLight field technology represents a powerful imaging technology that captures the intensity and direction of light rays in a scene, allowing for the reconstruction of 3D information and the ability to perform unique tasks like refocusing images after capture. However, the vast amount of data generated by light field imaging poses significant challenges for storage and transmission, making efficient compression schemes crucial. Compression techniques that incorporate view synthesis during different stages of the compression process have emerged as a promising solution, reducing the amount of data that needs to be transmitted or stored by reconstructing or predicting new views from a limited set of captured data. In this thesis a version of this method will be evaluated. The main goal of this thesis is to study the potential of using view synthesis to improve light field compression while reducing complexity, and focusing on maintaining high image quality while reducing data storage and transmission requirements. In addition to this main goal, there are some secondary objectives related to the tools used in this process. A comparison between the used codecs is done to analyze how the choise of codec impacts the final reconstruction quality when coupled with the view synthesis technique. By focusing on a single, state-of-the-art view synthesis method, its ability to reconstruct high-quality images from compressed data is tested. Additionally, four light fields are used: two from the EPFL dataset, which consists of light fields captured by lenslet cameras, and two from the HCI Light Field Database, consisting of synthetically created light fields. This diversity aims to better understand the variability in performance and the generalization capability of the process. To achieve this, a sparsely sampled light field is created from the original light field by “dropping” views. Both light fields, complete and sampled, are compressed using the following codecs/configurations: JPEG Pleno, VVC LowDelay and VVC Random Access. A learning-based view synthesis method, SepConv++, is applied to the decoded views from the sampled light field, obtaining a reconstructed light field with the same views as the original. Both the fully compressed light field and the sparsely sampled light field, which undergoes compression and view synthesis, are compared to the original light field. This comparison is done using the objective metrics PSNR-HVS-M, MS-SSIM and FSIMc. The results obtained were presented in the format of four tables, one for each light field, with each table containing six plots that illustrate the performance metrics PSNR-HVS-M, MS-SSIM, and FSIMc for every codec/configuration used. This plots also include information regarding the view synthesis, by presenting reference lines regarding its perfomance on non compressed light fields. Additionally, the view synthesis process creates three types of views, the views that were part of the sparsely sampled light field and underwent compression, the first-generation views created during the first view synthesis stage, and the second-generation views generated in a subsequent stage of view synthesis. The metrics regarding these different view types, for all codecs/configurations are also depicted in these plots. Additional results are presented through Bjontegaard metrics, a visual comparison where different view types are presented for selected bitrates, and a table containing the compression times. The analysis across the different codecs, demonstrated that SepConv++ can effectively generate denser light fields from compressed views without significant quality loss. Although sparse light fields require lower bitrates for storage and transmission, achieving comparable image quality levels after view synthesis requires a bitrate similar to the ones used for the fully compressed light fields. The results highlighted that VVC (in either configuration) outperformed JPEG Pleno in quality retention, although the latter is significantly faster. The proposed approach, which utilizes compressed views for synthesis, proved advantageous by significantly reducing computational complexity and resource demands, particularly evident in the VVC codec. However, the initial premise that view synthesis would allow for a reduced bitrate while maintaining the same quality was not fully supported by the results.
- Cross-Dataset Deep Fake DetectionPublication . Marques, José Pedro da Costa; Neves, João Carlos RaposoThis thesis presents an in-depth study of deepfake technology, focusing on generative techniques and the critical challenge of detecting such forgeries. The study delves into the technical foundations of deepfake creation, emphasizing the use of Generative Adversarial Networks (GANs), Diffusion Models, and Autoencoders. Alongside the generative processes, this research examines a variety of detection algorithms, stressing the importance of specific feature analysis and deep learning detectors in identifying sophisticated forgeries. A novel approach is proposed in this thesis, incorporating advanced facial feature analysis using spatial, frequency, and temporal landmark features, with Gated Multimodal Units for feature fusion, allied to a triplet attention mechanism, and transformers to leverage temporal dependencies. These methodologies are designed to improve the detection of deepfakes, addressing the growing sophistication of such technologies and their ability to bypass traditional detectors. The contributions of this thesis extend both to academic understanding and practical applications in enhancing the robustness of deepfake detection mechanisms, ultimately contributing to a safer digital environment.
- Development of a CNC Milling machine DIY kit for a vertical desktop milling machinePublication . Cruz, Miguel Filipe Estevão da; Vieira, André Ferreira CostaThis thesis presents the design and development of a DIY CNC vertical milling machine aimed at small-scale, precise machining for materials such as wood, plastics, and light metals like aluminium. The motivation behind this project is to make precision machining more accessible to hobbyists, educators, and small workshops by providing a compact and affordable solution. The design focuses on optimizing structural components, electronics, and software to balance cost with performance. Key challenges in mechanical design, such as force distribution, material selection, and operational stability, are addressed to ensure the mill's precision and reliability. The opensource approach of this project allows users to further customize the platform to their specific needs. This research also discusses the importance of desktop CNC machines in fostering innovation and accessibility in engineering, education, and product development. The Rat Rig mill is developed with a modular design that enables users to adapt and modify the machine according to specific project requirements.
