FE - DI | Dissertações de Mestrado e Teses de Doutoramento
Permanent URI for this collection
Browse
Browsing FE - DI | Dissertações de Mestrado e Teses de Doutoramento by Issue Date
Now showing 1 - 10 of 393
Results Per Page
Sort Options
- Poligonização de Superfícies Implícitas por Amostragem Baseada num Corrector de NewtonPublication . Raposo, Adriano Nunes; Gomes, Abel João PadrãoA maioria dos algoritmos para amostragem de superfícies implícitas baseia-se no Teorema do Valor Intermédio. Isto é, assume-se que existe variação de sinal da função que representa a superfície. Acontece que nem sempre é assim, ou seja, nem sempre existe variação de sinal da função na vizinhança da superfície. Introduz-se assim um novo algoritmo baseado num Corrector de Newton capaz de efectuar a amostragem de superfícies implícitas quer exista ou não variação de sinal da função na vizinhança da superfície.
 - Armazenamento e processamento de imgens vectoriais em duas dimensõesPublication . Quinaz, Filipe Nuno Mateus Dias; Araújo, Pedro José GuerraEste documento representa um estudo acerca do armazenamento e processamento de imagens vectoriais de duas dimensões. Em relação ao armazenamento, pretendia-se o estudo dos formatos de imagem existentes e a sua estrutura, percebendo quais os mais adequados com vista ao armazenamento a longo prazo. Para tal, efectuou-se uma pesquisa extensa de documentos actuais. Conclui-se deste estudo que todos os formatos possuem algum tipo de vantagem, que justifica a sua existência. Para o armazenamento a longo prazo, verifica-se que este deverá ser efectuado em formatos de codificação em modo de texto e com métodos de compressão nãoproprietários. Desta forma foi estudada a estrutura mais detalhada dos formatos SVG, CGM e PDF/A. No âmbito do processamento de imagem, pretendia-se explorar e testar o processamento do ponto de vista do programador e do utilizador. Para testar o processamento do ponto de vista do utilizador, foi frequentado um curso pós-laboral de design em programas de edição vectorial. O objectivo consistia em verificar em primeira mão as necessidades dos utilizadores. Conclui-se que a simplicidade dos métodos e transparência das funções são factores importantes. Em relação ao ponto de vista do programador, foi criado um software de edição gráfica de nome DrawIt. O objectivo consistia em testar ferramentas relacionadas com as imagens vectoriais e verificar as dificuldades do processamento do ponto de vista do programador. O software atingiu os objectivos a que se propunha, possuindo no final as capacidades projectadas. Conclui-se que a escolha das ferramentas é um processo importante na construção de um editor gráfico, e que existe uma falta de informação sobre este tipo de sistemas. O DrawIt permitiu o estudo a fundo da norma SVG 1.1, sendo que a sua capacidade de descrever funções através de variados métodos multiplica o esforço do programador. O processamento de imagens vectoriais é exigente, e factores como a criação de threads para procedimentos mais complexos revelam ganhos elevados no tempo de processamento. Na construção do DrawIt foram estudadas as preferências dos utilizadores face às características dos formatos de imagem, de modo a definir que formato utilizar. Para isso realizou-se um estudo que se mostrou insuficiente. Deste modo, aplicou-se um inquérito de opinião a profissionais da área. Este inquérito reflecte apenas uma necessidade de um estudo mais aprofundado e abrangente, pois os parâmetros pelos quais muitos programadores se guiam, na escolha do formato vectorial a utilizar, podem, na realidade, estar errados. Detectou-se ao longo do estudo, uma falta de um standard forte na indústria das imagens vectoriais. A ausência deste standard levou as empresas a criar muitos formatos similares, dispersando com eles os utilizadores. Finalmente, foi possível concluir que a escolha do formato de imagem vectorial possui uma enorme relevância no que toca às capacidades descritivas, custo de armazenamento, velocidade de processamento e fidelidade em renderizações futuras. Existem formatos cuja preservação foi descrita como desejável por outros estudos. Entre os formatos seleccionados encontramos o SVG, o WebCGM e o PDF/A. Estes formatos são também os aconselhados para preservação a longo prazo de imagens.
 - Classification of opinionated texts by analogyPublication . Pais, Sebastião; Dias, Gaël Harry Adélio AndréWith the disproportionate increase of theWorldWideWeb and the quantity of information services and their availability, we have an excessive accumulation of documents of various kinds. Despite the positive aspects this represents and the potential this causes, a new problem arises as we need capable tools and methodologies to classify a document as to its quality. Assessing the quality of a Web page is not easy. For the technical evaluation of the structure of Web pages, many are the works that have emerged. This thesis follows a different course. It seeks to evaluate the content of pages according to the opinions and feelings they highlight. The adopted basis criterion to assess the quality ofWeb pages is to examine the absence of opinions and feelings in the texts. When we consult information from the Web, how do we know exactly that the information is reliable and does not express opinions which are made available to the public feelings? How can we ensure when we read a text that we are not being misled by the author who is expressing his opinion or, once again, his feelings? How can we ensure that our own assessment is free from any judgment of value that we can defend? Because of these questions, the area of "Opinion Mining", "Opinion Retrieval", or "Sentiment Analysis", is worth being investigated as we clearly believe that there is much to discover yet. After a lot of research and reading, we concluded that we do not want to follow the same methodology proposed so far by other researchers. Basically, they work with objective and subjective corpora manually annotated. We think it is a disadvantage because these are limited corpora, once they are small, and cover a limited number of subjects. We disagree with another point. Some researchers only use one or several morphological classes, or specific words as predefined attributes. As we want to identify the degree of objectivity/subjectivity of sentences, and not documents, the more attributes we will have, the more accurate we expect our classification to be. We want to implement another innovation in our method. We want to make it as automatic as possible or, at least, the least supervised as possible. Assessed some gaps in the area, we define our line of intervention for this dissertation. As already mentioned, as a rule, the corpora used in the area of opinions are manually annotated and they are not very inclusive. To tackle this problem we propose to replace these corpora with texts taken from Wikipedia and texts extracted from Weblogs, accessible to any researcher in the area. Thus, Wikipedia should represent objective texts and Weblogs represent subjective texts (which we can consider that is an opinion repository). These new corpora bring great advantages. They are obtained in an automatic way, they are not manually annotated, we can build them at any time and they are very inclusive. To be able to say that Wikipedia may represent objective texts and Weblogs may represent subjective texts, we assess their similarity at various morphological levels, with manually annotated objective/subjective corpora. To evaluate this similarity, we use two different methodologies, the Rocchio Method and the Language Model on a cross-validation basis. By using these two different methodologies, we achieve similar results which confirm our hypothesis. With the success of the step described above, we propose to automatically classify sentences (at various morphological levels) by analogy. At this stage, we use different SVM classifiers and training and test sets built over several corpora on a cross-validation basis, to, once again, have several results to compare to draw our final conclusions. This new concept of quality assessment of a Web page, through the absence of opinions, brings to the scientific community another way of research in the area of opinions. The user in general is also benefited, because he has the chance, when he consults a Web page or uses a search engine, to know with some certainty if the information is true or if this is only one set of opinions/sentiments expressed by the authors, excluding thus their own judgments of value about what he sees.
 - Caries detection in panoramic dental x-ray imagesPublication . Oliveira, João Paulo Ribeiro de; Proença, Hugo Pedro Martins CarriçoThe detection of dentalcaries,in a preliminar stage are of most importance. There is a long history of dental caries. Over a million years ago, hominids such as Australopithecus suffered from cavities. Archaeological evidence shows that tooth decay is an ancient disease dating far into prehistory. Skulls dating from a million years ago through the Neolithic period show signs of caries. The increase of caries during the Neolithic period may be attributed to the increase of plant foods containing carbohydrates. The beginning of rice cultivation in South Asia is also believed to have caused an increase in caries. DentalCaries,alsoknownasdentaldecayortoothdecay,isdefinedasadisease of the hard tissues of the teeth caused by the action of microorganisms, found in plaque,onfermentablecarbohydrates(principallysugars). Attheindividuallevel, dental caries is a preventable disease. Given its dynamic nature the dental caries disease, once established, can be treated or reversed prior to significant cavitation taking place. There three types of dental caries [59], the first type is the Enamel Caries, that is preceded by the formation of a microbial dental plaque. Secondly the Dentinal Caries which begins with the natural spread of the process along the natural spread of great numbers of the dentinal tubules. Thirdly the Pulpal Caries that corresponds to the root caries or root surface caries. Primary diagnosis involves inspection of all visible tooth surfaces using a good light source, dental mirror and explorer. Dental radiographs (X-rays) may show dental caries before it is otherwise visible, particularly caries between the teeth. Large dental caries are often apparent to the naked eye, but smaller lesions can be difficult to identify. Visual and tactile inspection along with radiographs are employed frequently among dentists. At times, caries may be difficult to detect. Bacteriacanpenetratetheenameltoreachdentin,butthentheoutersurfacemaybe at first site intact. These caries, sometimes referred to as "hidden caries", in the preliminary stage X-ray are the only way to detect them, despite of the visual examinationofthetoothshowntheenamelintactorminimallyperforated. Without X-rays wouldn’t be possible to detect these problems until they had become severe and caused serious damage. [...]
 - Segmentação da íris em imagens com ruídoPublication . Catarino, Francisco Manuel Inácio Ferreira; Almeida, Pedro Domingues deA segmentação rápida e eficaz da íris em imagens com ruído é uma das maiores dificuldades num sistema de reconhecimento não-cooperativo. Por essa razão é proposto nesta dissertação um método de segmentação de íris, com tempo de execução apropriado em sistemas de reconhecimento em tempo real, sacrificando para isso alguma precisão. Ao contrário da maioria dos métodos existentes, a segmentação da íris é interpretada como um problema de reconhecimento de padrões. Devido à pequena percentagem da imagem ocupada pela íris é utilizado um método com o propósito de delimitar rudemente a zona de localização da íris. Foi utilizado um método de selecção de características para que apenas sejam utilizadas as que adicionam nova informação ao conjunto de dados, evitando perdas de tempo na recolha de características inúteis. Foram criados grupos de treino de diversas dimensões para a encontrar o grupo de características que melhora a aprendizagem de classificadores e apresenta maior precisão. Os píxeis são classificados individualmente como sendo íris livre de ruído ou não. São comparados os resultados obtidos sobre a base de dados de imagens UBIRIS.v2, entre vários classificadores tendo por base as medidas de erro usadas no concurso de segmentação de íris NICE.1. O melhor classificador é avaliado sobre as mesmas condições do participantes do concurso e os resultados são analisados e comparados com as melhores pontuações do concurso NICE.1.
 - Procura estruturada de textos para perfis de utilizadoresPublication . Ferreira, David José Machado; Dias, Gaël Harry Adélio AndréA dimensão cada vez mais colossal e a falta de estruturação da informação existente na Web, está a fazer com que os sistemas de Information Retrieval enfrentem graves dificuldades no cumprimento dos objectivos para os quais foram criados. Tornase cada vez mais difícil para estes sistemas encontrarem um conjunto limitado e valioso com a informação procurada pelo utilizador. A consciência deste facto ao longo dos anos tem proporcionado um aumento da comunidade de investigadores que se debatem na exploração de diversos temas e conceitos capazes de solucionarem os problemas. Das diversas propostas, as mais promissoras são o clustering dos resultados e a personalização. O clustering permite que a informação devolvida seja organizada em categorias, dando ao utilizador a possibilidade de restringir a sua área de procura com base na escolha das categorias mais apelativas. Por sua vez, a personalização procura escolher automaticamente os resultados que são mais próximos do perfil do utilizador, efectuando uma reordenação da informação de acordo com os interesses de cada um. A comunidade científica ainda não construiu um sistema que fizesse a união das duas metodologias no que toca à personalização e necessária construção de perfis de utilizadores, com base na categorização dos resultados de pesquisas e das respectivas queries introduzidas pelos utilizadores. A criação de perfis passa geralmente pela obtenção das categorias de interesse com base na análise dos documentos lidos e classificados como relevantes para o utilizador. Estas categorias poderiam ser extraídas sem a necessidade de efectuar este tipo de análise de documentos, bastando para isso fazer uma relação entre queries e clusters dos resultados associados a essas queries. Este é o tema da proposta de trabalho apresentada nesta tese. A criação de perfis de utilizadores tendo por base a análise do histórico das pesquisas efectuadas pelos mesmos, bem como a categorização dos resultados para extrair conhecimento oculto e auxiliar a criação destes perfis. Ao serem criados perfis de utilizadores, torna-se possível para um sistema identificar o conteúdo que está mais associado aos interesses de cada pessoa, potencializando-se assim a interactividade entre o sistema e o utilizador.
 - Resource reservation protocols for optical burst switched networksPublication . Gregório, José Manuel Boavida; Rodrigues, Joel José Puga CoelhoNesta disserta c~ao e feito um estudo em redes com comuta c~ao optica de agregados de pacotes (redes OBS). Assim, este estudo apresenta e descreve os conceitos mais importantes relacionados com as redes OBS. Inicialmente e analisado o estado da arte, efectuando uma descri c~ao detalhada da arquitectura de uma rede OBS. Seguidamente analisam-se os protocolos de reserva unidireccional de recursos (JIT, JIT+, JET, Jumpstart, Horizon and E-JIT). Para isso s~ao utilizadas redes com topologias regulares (em anel e em malha) com um n umero vari avel de n os, e tamb em irregulares (NSFNET e ARPANET). E tamb em apresentado um novo protocolo de reserva unidireccional de recursos chamado E-JIT+. Este novo protocolo baseia-se no protocolo j a existente JIT+ e tenta optimizar o seu desempenho. Para melhor descrever o modo de opera c~ao deste protocolo proposto e apresentada a especi ca c~ao formal do mesmo. Depois da apresenta c~ao deste protocolo analisa-se o seu desempenho. Para isso s~ao utilizadas as topologias de rede referidas anteriormente e tamb em um simulador de redes OBS adaptado de forma a suportar o novo protocolo. O simulador utilizado, de nome OBSSimulator, devolve os valores de probabilidade de perda dos agregados de pacotes em cada salto (hop) na rede. Deste modo, foram considerados v arios factores que podem in uenciar o desempenho dos protocolos de reserva unidireccional de recursos, tais como o n umero de n os da topologia de rede utilizada, a quantidade de tr afego na rede, o ganho do grau nodal, o tempo de processamento das mensagens de setup e o tempo de con gura c~ao dos comutadores opticos. No m deste trabalho concluiu-se que o protocolo proposto, E-JIT+, melhora o desempenho em rela c~ao aos outros protocolos de reserva unidireccional de recursos estudados, nos casos estudados.
 - Extracção de palavras compostas por bootstrappingPublication . Lourenço, Manuel Soares; Dias, Gaël Harry Adélio AndréNesta dissertação foi proposto um novo método, que altera o funcionamento de um sistema existente para extracção de palavras compostas. Este sistema, o SENTA tem uma falha, e este novo método tem por objectivo a correcção dessa falha, extraindo assim palavras compostas que não seriam extraídas pelo SENTA normal. Usando um algoritmo de bootstrapping para fazer o sistema SENTA trabalhar de forma recursiva, alterando o corpus a cada iteração.
 - Construção automática de um dicionário emocional para o portuguêsPublication . Rodrigues, Daniel Henriques; Dias, Gaël Harry Adélio AndréNos últimos anos tem-se ve rificado um crescente fluxo de conteúdos disponíveis e de fácil acesso na World Wide Web (Web), fazendo com que actualmente haja uma acumulação excessiva de textos de diversas naturezas. Apesar dos aspectos positivos que isto representa e do potencial que acarreta, surge uma nova problemática que consiste na necessidade de desenvolver ferramentas e metodologias capazes de tratar esses mesmos conteúdos ao nível das opiniões e/ou sentimentos neles evidenciados. A avaliação dos conteúdos Web não é uma tarefa fácil. As técnicas de avaliação dos conteúdos estão inseridos na área de análise de sentimento e muitos são os trabalhos sugeridos. Esta lese segue um rumo diferente, com ela pretende-se avaliar os conteúdos Web para a língua portuguesa europeia. O critério base adoptado é criar as bases para, no futuro, construir classificadores de sentimentos. Os léxicos emocionais servem de base a grande parte dos métodos que efectuam a análise de sentimento. Apesar de existir uma grande quantidade desses recursos disponíveis para a comunidade científica, depois de muita pesquisa, verificou-se que não existe um recurso semelhante para a língua portuguesa europeia. Com o interesse cada vez maior por parte das empresas ou indivíduos em obter informação sobre os produtos em tempo real a partir dos dados da Web, existe a necessidade de construir um léxico emocional para o português que possa ser utilizado para efectuar a análise de sentimento, para esta língua. Para colmatar esta falta, construiu-se automaticamente um léxico emocional para o português. Os métodos que efectuam a análise de sentimento utilizam léxicos construídos manualmente ou semiautomaticamente, surgindo o problema do acrescentar conhecimentos linguísticos aos léxicos, inerente ao modo como estes são construídos. Sendo a identificação dos sentimentos a chave do processo, é necessário saber que os sentimentos são sinónimo de subjectividade. O desafio colocado nesta dissertação é de construir automaticamente um léxico subjectivo para o português europeu, aplicando técnicas estatísticas. A base da construção do léxico são os corpora que vaã ser utilizados. Para efectuar este ˜ estudo é necessário um corpus subjectivo (constituído por textos dos blogues) e um corpus objectivo (constituído por textos do corpus jornalístico CETEMPublico). Os corpora foram escolhidos com base no estudo efectuado por Pais [21] na demonstração da similaridade entre um conjunto de blogues e um corpus jornalístico, relativamente a um corpus constituído por textos subjectivos e objectivos. Para identificar a subjectividade no texto utilizou-se a informação das categorias morfológicas (part-of-speech) das palavras simples e as palavras compostas (n-grams). Estes indícios de subjectividade foram extraídos com ferramentas que efectuam o processo automaticamente. Com este trabalho demonstrou-se que é possível construir um léxico de subjectividade para o português europeu, aplicando técnicas estatísticas e utilizando corpora não anotados manualmente e ferramentas para extrair automaticamente os indícios de subejctividade.
 - Concepção de um sistema alternativo de reconhecimento de íris cooperativoPublication . Carreira, Ricardo Pereira de Oliveira; Proença, Hugo Pedro Martins CarriçoNos dias de hoje, uma das mais importantes condições que está associado ao ser humano é a segurança. Cada vez mais se pretende garantir a autenticidade das pessoas evitando assim ataques e invasões maliciosas. É nesse contexto que surgem os sistemas biométricos, como forma de solucionar esses problemas. Mais concretamente, o uso da íris como medida biométrica, tem sido dos métodos mais promissores, completos e robustos existentes no mercado. As suas aplicações são vastas, desde à utilização em aeroportos, laboratórios, bancos ou prisões. Em todos estes exemplos, é necessária uma cooperação dos indivíduos que permite adquirir imagens de qualidade para o processo de reconhecimento. Com a utilização de um sistema biométrico, independentemente da característica fisiológica utilizada, existem dois tipos de identificação: verificar se uma boa é quem diz ser ou identificar a pessoa em questão dizendo concretamente de quem se trata, caso essa seja uma das pessoas com autorização. Sendo que as características físicas funcionam como senha de acesso, os comuns problemas de esquecimento de passwords ou de furto de cartões de acesso deixam de fazer sentido. As pessoas são a sua própria senha. Nesta tese, encontra-se descriminado as metodologias que visam responder às várias etapas do reconhecimento da íris. No entanto, os métodos apresentados, tentam contornar a patente criada por John Daugman em 1994. É a única patente utilizada nos sistemas de reconhecimento biométrico em comercialização através da íris. Os métodos consistem inicialmente na segmentação da íris em imagens capturadas. De seguida, as imagens segmentadas passam por uma fase de normalização para um melhor manuseamento dos dados. Por fim existem métodos que determinam quais os valores mais aptos para extrair informação e criar uma assinatura biométrica. Os diversos métodos propostos encontram-se complementados com resultados, que justificam as várias decisões tomadas.
 
