FE - DI | Dissertações de Mestrado e Teses de Doutoramento
Permanent URI for this collection
Browse
Browsing FE - DI | Dissertações de Mestrado e Teses de Doutoramento by Issue Date
Now showing 1 - 10 of 366
Results Per Page
Sort Options
- Poligonização de Superfícies Implícitas por Amostragem Baseada num Corrector de NewtonPublication . Raposo, Adriano Nunes; Gomes, Abel João PadrãoA maioria dos algoritmos para amostragem de superfícies implícitas baseia-se no Teorema do Valor Intermédio. Isto é, assume-se que existe variação de sinal da função que representa a superfície. Acontece que nem sempre é assim, ou seja, nem sempre existe variação de sinal da função na vizinhança da superfície. Introduz-se assim um novo algoritmo baseado num Corrector de Newton capaz de efectuar a amostragem de superfícies implícitas quer exista ou não variação de sinal da função na vizinhança da superfície.
- Armazenamento e processamento de imgens vectoriais em duas dimensõesPublication . Quinaz, Filipe Nuno Mateus Dias; Araújo, Pedro José GuerraEste documento representa um estudo acerca do armazenamento e processamento de imagens vectoriais de duas dimensões. Em relação ao armazenamento, pretendia-se o estudo dos formatos de imagem existentes e a sua estrutura, percebendo quais os mais adequados com vista ao armazenamento a longo prazo. Para tal, efectuou-se uma pesquisa extensa de documentos actuais. Conclui-se deste estudo que todos os formatos possuem algum tipo de vantagem, que justifica a sua existência. Para o armazenamento a longo prazo, verifica-se que este deverá ser efectuado em formatos de codificação em modo de texto e com métodos de compressão nãoproprietários. Desta forma foi estudada a estrutura mais detalhada dos formatos SVG, CGM e PDF/A. No âmbito do processamento de imagem, pretendia-se explorar e testar o processamento do ponto de vista do programador e do utilizador. Para testar o processamento do ponto de vista do utilizador, foi frequentado um curso pós-laboral de design em programas de edição vectorial. O objectivo consistia em verificar em primeira mão as necessidades dos utilizadores. Conclui-se que a simplicidade dos métodos e transparência das funções são factores importantes. Em relação ao ponto de vista do programador, foi criado um software de edição gráfica de nome DrawIt. O objectivo consistia em testar ferramentas relacionadas com as imagens vectoriais e verificar as dificuldades do processamento do ponto de vista do programador. O software atingiu os objectivos a que se propunha, possuindo no final as capacidades projectadas. Conclui-se que a escolha das ferramentas é um processo importante na construção de um editor gráfico, e que existe uma falta de informação sobre este tipo de sistemas. O DrawIt permitiu o estudo a fundo da norma SVG 1.1, sendo que a sua capacidade de descrever funções através de variados métodos multiplica o esforço do programador. O processamento de imagens vectoriais é exigente, e factores como a criação de threads para procedimentos mais complexos revelam ganhos elevados no tempo de processamento. Na construção do DrawIt foram estudadas as preferências dos utilizadores face às características dos formatos de imagem, de modo a definir que formato utilizar. Para isso realizou-se um estudo que se mostrou insuficiente. Deste modo, aplicou-se um inquérito de opinião a profissionais da área. Este inquérito reflecte apenas uma necessidade de um estudo mais aprofundado e abrangente, pois os parâmetros pelos quais muitos programadores se guiam, na escolha do formato vectorial a utilizar, podem, na realidade, estar errados. Detectou-se ao longo do estudo, uma falta de um standard forte na indústria das imagens vectoriais. A ausência deste standard levou as empresas a criar muitos formatos similares, dispersando com eles os utilizadores. Finalmente, foi possível concluir que a escolha do formato de imagem vectorial possui uma enorme relevância no que toca às capacidades descritivas, custo de armazenamento, velocidade de processamento e fidelidade em renderizações futuras. Existem formatos cuja preservação foi descrita como desejável por outros estudos. Entre os formatos seleccionados encontramos o SVG, o WebCGM e o PDF/A. Estes formatos são também os aconselhados para preservação a longo prazo de imagens.
- Classification of opinionated texts by analogyPublication . Pais, Sebastião; Dias, Gaël Harry Adélio AndréWith the disproportionate increase of theWorldWideWeb and the quantity of information services and their availability, we have an excessive accumulation of documents of various kinds. Despite the positive aspects this represents and the potential this causes, a new problem arises as we need capable tools and methodologies to classify a document as to its quality. Assessing the quality of a Web page is not easy. For the technical evaluation of the structure of Web pages, many are the works that have emerged. This thesis follows a different course. It seeks to evaluate the content of pages according to the opinions and feelings they highlight. The adopted basis criterion to assess the quality ofWeb pages is to examine the absence of opinions and feelings in the texts. When we consult information from the Web, how do we know exactly that the information is reliable and does not express opinions which are made available to the public feelings? How can we ensure when we read a text that we are not being misled by the author who is expressing his opinion or, once again, his feelings? How can we ensure that our own assessment is free from any judgment of value that we can defend? Because of these questions, the area of "Opinion Mining", "Opinion Retrieval", or "Sentiment Analysis", is worth being investigated as we clearly believe that there is much to discover yet. After a lot of research and reading, we concluded that we do not want to follow the same methodology proposed so far by other researchers. Basically, they work with objective and subjective corpora manually annotated. We think it is a disadvantage because these are limited corpora, once they are small, and cover a limited number of subjects. We disagree with another point. Some researchers only use one or several morphological classes, or specific words as predefined attributes. As we want to identify the degree of objectivity/subjectivity of sentences, and not documents, the more attributes we will have, the more accurate we expect our classification to be. We want to implement another innovation in our method. We want to make it as automatic as possible or, at least, the least supervised as possible. Assessed some gaps in the area, we define our line of intervention for this dissertation. As already mentioned, as a rule, the corpora used in the area of opinions are manually annotated and they are not very inclusive. To tackle this problem we propose to replace these corpora with texts taken from Wikipedia and texts extracted from Weblogs, accessible to any researcher in the area. Thus, Wikipedia should represent objective texts and Weblogs represent subjective texts (which we can consider that is an opinion repository). These new corpora bring great advantages. They are obtained in an automatic way, they are not manually annotated, we can build them at any time and they are very inclusive. To be able to say that Wikipedia may represent objective texts and Weblogs may represent subjective texts, we assess their similarity at various morphological levels, with manually annotated objective/subjective corpora. To evaluate this similarity, we use two different methodologies, the Rocchio Method and the Language Model on a cross-validation basis. By using these two different methodologies, we achieve similar results which confirm our hypothesis. With the success of the step described above, we propose to automatically classify sentences (at various morphological levels) by analogy. At this stage, we use different SVM classifiers and training and test sets built over several corpora on a cross-validation basis, to, once again, have several results to compare to draw our final conclusions. This new concept of quality assessment of a Web page, through the absence of opinions, brings to the scientific community another way of research in the area of opinions. The user in general is also benefited, because he has the chance, when he consults a Web page or uses a search engine, to know with some certainty if the information is true or if this is only one set of opinions/sentiments expressed by the authors, excluding thus their own judgments of value about what he sees.
- Caries detection in panoramic dental x-ray imagesPublication . Oliveira, João Paulo Ribeiro de; Proença, Hugo Pedro Martins CarriçoThe detection of dentalcaries,in a preliminar stage are of most importance. There is a long history of dental caries. Over a million years ago, hominids such as Australopithecus suffered from cavities. Archaeological evidence shows that tooth decay is an ancient disease dating far into prehistory. Skulls dating from a million years ago through the Neolithic period show signs of caries. The increase of caries during the Neolithic period may be attributed to the increase of plant foods containing carbohydrates. The beginning of rice cultivation in South Asia is also believed to have caused an increase in caries. DentalCaries,alsoknownasdentaldecayortoothdecay,isdefinedasadisease of the hard tissues of the teeth caused by the action of microorganisms, found in plaque,onfermentablecarbohydrates(principallysugars). Attheindividuallevel, dental caries is a preventable disease. Given its dynamic nature the dental caries disease, once established, can be treated or reversed prior to significant cavitation taking place. There three types of dental caries [59], the first type is the Enamel Caries, that is preceded by the formation of a microbial dental plaque. Secondly the Dentinal Caries which begins with the natural spread of the process along the natural spread of great numbers of the dentinal tubules. Thirdly the Pulpal Caries that corresponds to the root caries or root surface caries. Primary diagnosis involves inspection of all visible tooth surfaces using a good light source, dental mirror and explorer. Dental radiographs (X-rays) may show dental caries before it is otherwise visible, particularly caries between the teeth. Large dental caries are often apparent to the naked eye, but smaller lesions can be difficult to identify. Visual and tactile inspection along with radiographs are employed frequently among dentists. At times, caries may be difficult to detect. Bacteriacanpenetratetheenameltoreachdentin,butthentheoutersurfacemaybe at first site intact. These caries, sometimes referred to as "hidden caries", in the preliminary stage X-ray are the only way to detect them, despite of the visual examinationofthetoothshowntheenamelintactorminimallyperforated. Without X-rays wouldn’t be possible to detect these problems until they had become severe and caused serious damage. [...]
- Communication tools with intra-body sensorsPublication . Caldeira, João Manuel Leitão Pires; Rodrigues, Joel José Puga CoelhoOver the years some medical studies have tried to better understand the internal behavior of human beings. Many researchers in this domain have been striving to find relationships between intra-vaginal temperature and certain female health conditions, such as ovulation and fertile period since woman’s intra-vaginal temperature is one of the body parameters most preferred in such studies. However, due to the lack of an appropriate technology, medical research devoted to studying correlations of such body parameters with certain woman’s body phenomena could not obtain improve on better results. The objective of this work falls in the creation of communication tools with intra-body sensors. These sensors must be able to collect intra-body parameters such as human core temperature. To reach this main objective the construction of a new intra-body sensor for acquisition and monitoring the intra-vaginal temperature is proposed. This novel intra-body sensor provides data collection that is used to studying the relation between temperature variations and female health conditions, such as anticipation and monitoring of the ovulation period, detection of pregnancy contractions, preterm labor prevention, etc. The novel sensor and his communication tools was tested and validated on hospitalized women as well as normal healthy women. Finally a medical team has attested to the accuracy, usability and performance of this novel intrabody sensor.
- Unsupervised learning of ontology for the medical domainPublication . Bastos, Sónia Margarida Ferreira de; Dias, Gaël Harry Adélio AndréTom Gruber (1993) defines Ontology as ”an explicit specification of a conceptualization.” Due two the enormous quantity of information available, there is a growing number of applications that perform tasks where lexical-semantic resources are needed, like Information Retrieval, intelligent search or machine translation. This shows that Natural Language Processing is becoming more dependent on semantic information. One of the main motivations in ontology building is the possibility of knowledge sharing and reuse across different applications. The start point is to fixed a particular domain (like medicine), which is expected to be the base of domain knowledge for a variety of applications. This is a difficult task as the domain knowledge strongly depends on the particular task at hand. This paper is an approach on ontology learning, for which it was selected the Medical Domain, so that we could have a base to compare and evaluate the resulting ontology. In our approach, we use different techniques, like Asymmetric Association Measures, clustering algorithm and text rank algorithm, so that we can obtain relations between a set of terms, which are rank by the degree of generality, like the cluster obtained by applying clustering algorithms, with the confidence measure as the values for the similarity matrix, to the set of terms, the generality clusters. Those clusters are then submitted to clustering algorithm, but with Symmetric Conditional Probability values in the similarity matrix, to obtain domain clusters within the generality clusters. In the future, this ontology may be used in acquisition of Lexical Chains for Text Summarization, as in other Natural Language Processing applications.
- Segmentação da íris em imagens com ruídoPublication . Catarino, Francisco Manuel Inácio Ferreira; Almeida, Pedro Domingues deA segmentação rápida e eficaz da íris em imagens com ruído é uma das maiores dificuldades num sistema de reconhecimento não-cooperativo. Por essa razão é proposto nesta dissertação um método de segmentação de íris, com tempo de execução apropriado em sistemas de reconhecimento em tempo real, sacrificando para isso alguma precisão. Ao contrário da maioria dos métodos existentes, a segmentação da íris é interpretada como um problema de reconhecimento de padrões. Devido à pequena percentagem da imagem ocupada pela íris é utilizado um método com o propósito de delimitar rudemente a zona de localização da íris. Foi utilizado um método de selecção de características para que apenas sejam utilizadas as que adicionam nova informação ao conjunto de dados, evitando perdas de tempo na recolha de características inúteis. Foram criados grupos de treino de diversas dimensões para a encontrar o grupo de características que melhora a aprendizagem de classificadores e apresenta maior precisão. Os píxeis são classificados individualmente como sendo íris livre de ruído ou não. São comparados os resultados obtidos sobre a base de dados de imagens UBIRIS.v2, entre vários classificadores tendo por base as medidas de erro usadas no concurso de segmentação de íris NICE.1. O melhor classificador é avaliado sobre as mesmas condições do participantes do concurso e os resultados são analisados e comparados com as melhores pontuações do concurso NICE.1.
- Towards the detection of encrypted peer-to-peer file sharing traffic and peer-to-peer TV traffic using deep packet inspection methodsPublication . Carvalho, David Alexandre Milheiro de; Freire, Mário MarquesThis dissertation is devoted to the study of Peer-to-Peer (P2P) network traffic identification, using Deep Packet Inspection (DPI) methods. The approach followed in this work is based on the analysis of the content of a packet payload, being paid particular attention to the cases where encryption or obfuscation is used. The protocols and applications under study along this dissertation are organized into two main categories: P2P file sharing (BitTorrent, Gnutella and eDonkey) and P2P TV (Lvestation, TVU Player and Goalbit). The history of P2P and its major milestones are briefly presented, along with their classification according to the functionalities they provide and the network protocol architectures being used by them. Studies on the evolution and current state in the detection of P2P traffic are particularly detailed, as they were the main motivation towards the detection of both encrypted P2P file sharing and P2P TV traffic. The detection of Peer-to-Peer traffic is accomplished by using a set of open source tools, emphasizing Snort, Wireshark and Tcpdump. Snort is used for triggering the alerts concerning this kind of traffic, by using a specified set of rules. These are manually created, based on the observed P2P traffic protocol signatures and patterns, by usingWireshark and Tcpdump. For the storage and visualization of the triggered alerts in a user friendly manner, two open source tools were used, respectively, MySQL and BASE. Finally, the main conclusions achieved in this work are briefly exposed. A section dedicated to future work contains possible directions that may be followed in order to improve this work.
- Procura estruturada de textos para perfis de utilizadoresPublication . Ferreira, David José Machado; Dias, Gaël Harry Adélio AndréA dimensão cada vez mais colossal e a falta de estruturação da informação existente na Web, está a fazer com que os sistemas de Information Retrieval enfrentem graves dificuldades no cumprimento dos objectivos para os quais foram criados. Tornase cada vez mais difícil para estes sistemas encontrarem um conjunto limitado e valioso com a informação procurada pelo utilizador. A consciência deste facto ao longo dos anos tem proporcionado um aumento da comunidade de investigadores que se debatem na exploração de diversos temas e conceitos capazes de solucionarem os problemas. Das diversas propostas, as mais promissoras são o clustering dos resultados e a personalização. O clustering permite que a informação devolvida seja organizada em categorias, dando ao utilizador a possibilidade de restringir a sua área de procura com base na escolha das categorias mais apelativas. Por sua vez, a personalização procura escolher automaticamente os resultados que são mais próximos do perfil do utilizador, efectuando uma reordenação da informação de acordo com os interesses de cada um. A comunidade científica ainda não construiu um sistema que fizesse a união das duas metodologias no que toca à personalização e necessária construção de perfis de utilizadores, com base na categorização dos resultados de pesquisas e das respectivas queries introduzidas pelos utilizadores. A criação de perfis passa geralmente pela obtenção das categorias de interesse com base na análise dos documentos lidos e classificados como relevantes para o utilizador. Estas categorias poderiam ser extraídas sem a necessidade de efectuar este tipo de análise de documentos, bastando para isso fazer uma relação entre queries e clusters dos resultados associados a essas queries. Este é o tema da proposta de trabalho apresentada nesta tese. A criação de perfis de utilizadores tendo por base a análise do histórico das pesquisas efectuadas pelos mesmos, bem como a categorização dos resultados para extrair conhecimento oculto e auxiliar a criação destes perfis. Ao serem criados perfis de utilizadores, torna-se possível para um sistema identificar o conteúdo que está mais associado aos interesses de cada pessoa, potencializando-se assim a interactividade entre o sistema e o utilizador.
- Resource reservation protocols for optical burst switched networksPublication . Gregório, José Manuel Boavida; Rodrigues, Joel José Puga CoelhoNesta disserta c~ao e feito um estudo em redes com comuta c~ao optica de agregados de pacotes (redes OBS). Assim, este estudo apresenta e descreve os conceitos mais importantes relacionados com as redes OBS. Inicialmente e analisado o estado da arte, efectuando uma descri c~ao detalhada da arquitectura de uma rede OBS. Seguidamente analisam-se os protocolos de reserva unidireccional de recursos (JIT, JIT+, JET, Jumpstart, Horizon and E-JIT). Para isso s~ao utilizadas redes com topologias regulares (em anel e em malha) com um n umero vari avel de n os, e tamb em irregulares (NSFNET e ARPANET). E tamb em apresentado um novo protocolo de reserva unidireccional de recursos chamado E-JIT+. Este novo protocolo baseia-se no protocolo j a existente JIT+ e tenta optimizar o seu desempenho. Para melhor descrever o modo de opera c~ao deste protocolo proposto e apresentada a especi ca c~ao formal do mesmo. Depois da apresenta c~ao deste protocolo analisa-se o seu desempenho. Para isso s~ao utilizadas as topologias de rede referidas anteriormente e tamb em um simulador de redes OBS adaptado de forma a suportar o novo protocolo. O simulador utilizado, de nome OBSSimulator, devolve os valores de probabilidade de perda dos agregados de pacotes em cada salto (hop) na rede. Deste modo, foram considerados v arios factores que podem in uenciar o desempenho dos protocolos de reserva unidireccional de recursos, tais como o n umero de n os da topologia de rede utilizada, a quantidade de tr afego na rede, o ganho do grau nodal, o tempo de processamento das mensagens de setup e o tempo de con gura c~ao dos comutadores opticos. No m deste trabalho concluiu-se que o protocolo proposto, E-JIT+, melhora o desempenho em rela c~ao aos outros protocolos de reserva unidireccional de recursos estudados, nos casos estudados.