2006
Permanent URI for this collection
Browse
Browsing 2006 by Title
Now showing 1 - 10 of 10
Results Per Page
Sort Options
Item 3D Modelling and Reconstruction of Peripheral Arteries(La Cruz, Jan 2006) La Cruz, AlexandraEin Modell ist eine vereinfachte Repräsentationsform eines Objekts. DieModellbildung kann als Formen von individuellen Objekte bezeichnet werden,die später in der Szene Verwendung finden. Seit vielen Jahren versuchenWissenschaftler ein geeignetes Modell für die Blutgefäße zu finden.Auf den ersten Blick scheint hierfür ein tubuläres Modell am Bestengeeignet zu sein, allerdings erweist sich dabei eine präzise Berücksichtigungder vielfältigen Gefäßpathologien als problematisch. Aus medizinischerSicht ist nicht nur der Mittelpunkt eines Gefäßlumens, sondern auchder Mittelpunkt des Gefäßes selbst relevant. Dies trifft vor allem bei auftretendenAnomalien, wie zum Beispiel bei pathologischen Blutgefäßen, zu.Eine präzise Berechnung von Gefäßparametern ist eine Grundvoraussetzungfür automatisierte Visualisierung und Analyse von sowohl gesundenwie auch erkrankten Blutgefäßen. Wir sind davon überzeugt, dass sicheine modell-basierte Technik am Besten für die Parametrierung von Blutgefäßen eignet. Ziel dieser Arbeit ist die Vorstellung einer neuen Technikzur Berechnung von Parametern erkrankter Blutgefäße der unteren Extremitäten.Der erste Teil beschreibt den Vergleich verschiedener Methoden zurApproximation der Mittellinie eines Gefäßes in einem Phantom der peripherenArterien. Sechs verschiedene Algorithmen wurden zur Berechnungder Mittellinie einer synthetischen peripheren Arterie verwendet. Dieevaluierten Methoden basieren auf folgenden Verfahren: Raycasting, beidem das Abbruchkriterium entweder schwellwertbasiert oder auf dem maximalenGradienten basiert ist; Block-Matching, bei dem die Pixelbewegungin aufeinander folgenden Bildern geschätzt wird und schwerpunkt- oderformbasierte Segmentierung. Für die formbasierte Segmentierung wurdesowohl die randomisierte Hough-Transformation als auch Ellipsen-Fittingverwendet. Da in dem synthetischen Datensatz die Mittellinie bekannt ist,kann die Genauigkeit der Verfahren berechnet werden.Der zweite Teil beschreibt die Einschätzung der Abmessungen derBeinarterien, die mittels Computertomographie aufgenommen wurden. DasBlutgefäß wird durch ein elliptisches oder zylindrisches Modell mit bestimmtenAbmessungen, bestimmter Ausrichtung und einer bestimmtenDichte (CT-Schwächungswerte) beschrieben. Das Modell separiert zweihomogene Regionen: Im Inneren des Modells befindet sich eine Regionmit der Dichte eines Gefäßes, außerhalb befindet sich der Hintergrund.Um die Punktbildfunktion des CT-Scanners zu modellieren, wurdeein Gauß Filter verwendet, der zu einer Verschmierung der Gefäßgrenzenführt. Ein Optimierungsvorgang dient zur Auffindung des Modells, dassich am besten mit den Eingangsdaten deckt. Die Methode bestimmt Mittelpunkt,Durchmesser, Orientierung und die durchschnittliche Dichte desBlutgefäßes, sowie die durchschnittliche Dichte des Hintergrundes.Der dritte Teil präsentiert die Ergebnisse einer klinschen Evaluation unsererMethoden, eine Grundvoraussetzung für den klinischen Einsatz. Fürdiese Evaluation wurden 20 Fälle aus den vorhandenen Patientendaten ausgewählt und nach Schweregrad der Erkrankung in zwei Gruppen klassifiziert.Manuelle Identifikation diente als Referenzstandard. Wir verglichendie Model-Fitting-Methode mit einer Standard-Methode, die derzeit imklinischen Einsatz ist. Im Allgemeinen war der durschnittliche Abstandsfehlerfür beide Methoden innerhalb der Variabilität zwischen den einzelnenmanuellen Identifikationen. Jedoch erzielte die nicht-lineare Model-Fitting-Technik basierend auf einem zylindrischen Modell in den meisten Fälleneine bessere Annäherung an die Mittellinie, sowohl in den leicht wie auchin den schwer erkrankten Fällen. Die nicht-lineare Model-Fitting-Technikist robuster und ergab eine bessere Beurteilung der meisten Fälle. Nichtdestowenigerhaben die Radiologen und die klinischen Experten das letzteWort im Hirblick auf den Einsatz dieser Technik im klinischen Umfeld. - Ein Modell ist eine vereinfachte Repräsentationsform eines Objekts. DieModellbildung kann als Formen von individuellen Objekte bezeichnet werden,die später in der Szene Verwendung finden. Seit vielen Jahren versuchenWissenschaftler ein geeignetes Modell für die Blutgefäße zu finden.Auf den ersten Blick scheint hierfür ein tubuläres Modell am Bestengeeignet zu sein, allerdings erweist sich dabei eine präzise Berücksichtigungder vielfältigen Gefäßpathologien als problematisch. Aus medizinischerSicht ist nicht nur der Mittelpunkt eines Gefäßlumens, sondern auchder Mittelpunkt des Gefäßes selbst relevant. Dies trifft vor allem bei auftretendenAnomalien, wie zum Beispiel bei pathologischen Blutgefäßen, zu.Eine präzise Berechnung von Gefäßparametern ist eine Grundvoraussetzungfür automatisierte Visualisierung und Analyse von sowohl gesundenwie auch erkrankten Blutgefäßen. Wir sind davon überzeugt, dass sicheine modell-basierte Technik am Besten für die Parametrierung von Blutgefäßen eignet. Ziel dieser Arbeit ist die Vorstellung einer neuen Technikzur Berechnung von Parametern erkrankter Blutgefäße der unteren Extremitäten.Der erste Teil beschreibt den Vergleich verschiedener Methoden zurApproximation der Mittellinie eines Gefäßes in einem Phantom der peripherenArterien. Sechs verschiedene Algorithmen wurden zur Berechnungder Mittellinie einer synthetischen peripheren Arterie verwendet. Dieevaluierten Methoden basieren auf folgenden Verfahren: Raycasting, beidem das Abbruchkriterium entweder schwellwertbasiert oder auf dem maximalenGradienten basiert ist; Block-Matching, bei dem die Pixelbewegungin aufeinander folgenden Bildern geschätzt wird und schwerpunkt- oderformbasierte Segmentierung. Für die formbasierte Segmentierung wurdesowohl die randomisierte Hough-Transformation als auch Ellipsen-Fittingverwendet. Da in dem synthetischen Datensatz die Mittellinie bekannt ist,kann die Genauigkeit der Verfahren berechnet werden.Der zweite Teil beschreibt die Einschätzung der Abmessungen derBeinarterien, die mittels Computertomographie aufgenommen wurden. DasBlutgefäß wird durch ein elliptisches oder zylindrisches Modell mit bestimmtenAbmessungen, bestimmter Ausrichtung und einer bestimmtenDichte (CT-Schwächungswerte) beschrieben. Das Modell separiert zweihomogene Regionen: Im Inneren des Modells befindet sich eine Regionmit der Dichte eines Gefäßes, außerhalb befindet sich der Hintergrund.Um die Punktbildfunktion des CT-Scanners zu modellieren, wurdeein Gauß Filter verwendet, der zu einer Verschmierung der Gefäßgrenzenführt. Ein Optimierungsvorgang dient zur Auffindung des Modells, dassich am besten mit den Eingangsdaten deckt. Die Methode bestimmt Mittelpunkt,Durchmesser, Orientierung und die durchschnittliche Dichte desBlutgefäßes, sowie die durchschnittliche Dichte des Hintergrundes.Der dritte Teil präsentiert die Ergebnisse einer klinschen Evaluation unsererMethoden, eine Grundvoraussetzung für den klinischen Einsatz. Fürdiese Evaluation wurden 20 Fälle aus den vorhandenen Patientendaten ausgewählt und nach Schweregrad der Erkrankung in zwei Gruppen klassifiziert.Manuelle Identifikation diente als Referenzstandard. Wir verglichendie Model-Fitting-Methode mit einer Standard-Methode, die derzeit imklinischen Einsatz ist. Im Allgemeinen war der durschnittliche Abstandsfehlerfür beide Methoden innerhalb der Variabilität zwischen den einzelnenmanuellen Identifikationen. Jedoch erzielte die nicht-lineare Model-Fitting-Technik basierend auf einem zylindrischen Modell in den meisten Fälleneine bessere Annäherung an die Mittellinie, sowohl in den leicht wie auchin den schwer erkrankten Fällen. Die nicht-lineare Model-Fitting-Technikist robuster und ergab eine bessere Beurteilung der meisten Fälle. Nichtdestowenigerhaben die Radiologen und die klinischen Experten das letzteWort im Hirblick auf den Einsatz dieser Technik im klinischen Umfeld.</p> <h2>Abstract</h2><p>A model is a simplified representation of an object. The modeling stagecould be described as shaping individual objects that are later used in thescene. For many years scientists are trying to create an appropriate model ofthe blood vessels. It looks quite intuitive to believe that a blood vessel can bemodeled as a tubular object, and this is true, but the problems appear whenyou want to create an accurate model that can deal with the wide variabilityof shapes of diseased blood vessels. From the medical point of view it isquite important to identify, not just the center of the vessel lumen but alsothe center of the vessel, particularly in the presences of some anomalies,which is the case diseased blood vessels.An accurate estimation of vessel parameters is a prerequisite for automatedvisualization and analysis of healthy and diseased blood vessels. Webelieve that a model-based technique is the most suitable one for parameterizingblood vessels. The main focus of this work is to present a new strategyto parameterize diseased blood vessels of the lower extremity arteries.The first part presents an evaluation of different methods for approximatingthe centerline of the vessel in a phantom simulating the peripheralarteries. Six algorithms were used to determine the centerline of a syntheticperipheral arterial vessel. They are based on: ray casting using thresholdsand a maximum gradient-like stop criterion, pixel-motion estimation betweensuccessive images called block matching, center of gravity and shapebased segmentation. The Randomized Hough Transform and ellipse fittinghave been used as shape based segmentation techniques. Since in the syntheticdata set the centerline is known, an estimation of the error can becalculated in order to determine the accuracy achieved by a given method.The second part describes an estimation of the dimensions of lower extremityarteries, imaged by computed tomography. The vessel is modeledusing an elliptical or cylindrical structure with specific dimensions, orientationand CT attenuation values. The model separates two homogeneousregions: Its inner side represents a region of density for vessels, and its outerside a region for background. Taking into account the point spread functionof a CT scanner, which is modeled using a Gaussian kernel, in order tosmooth the vessel boundary in the model. An optimization process is usedto find the best model that fits with the data input. The method providescenter location, diameter and orientation of the vessel as well as blood andbackground mean density values.The third part presents the result of a clinical evaluation of our methods,as a prerequisite step for being used in clinical environment. To performthis evaluation, twenty cases from available patient data were selectedand classified as mildly diseased and severely diseased datasets. Manualidentification was used as our reference standard. We compared the modelfitting method against a standard method, which is currently used in theclinical environment. In general, the mean distance error for every methodwas within the inter-operator variability. However, the non-linear model fittingtechnique based on a cylindrical model shows always a better centerapproximation in most of the cases, mildly diseased as well as severelydiseased cases. Clinically, the non-linear model fitting technique is morerobust and presented a better estimation in most of the cases. Nevertheless,the radiologists and clinical experts have the last word with respect to theuse of this technique in clinical environment.Item Computational Differential Geometry Tools for Surface Interrogation, Fairing, and Design(2006) Yoshizawa, ShinThis thesis presents a set of new mesh processing methods which are based on computational differential geometry techniques. The underlying idea of the methods consists of using proper discrete approximations of differential surface properties. The methods developed in the thesis contribute to the areas of curvature feature detection, mesh parameterization, fair mesh generation, mesh denoising, and free-form and variational mesh deformations. Comparisons of the developed methods with several state-of-the-art techniques and algorithms are done. The results of numerous numerical experiments demonstrate significant advantages of the proposed methods over conventional techniques. Applications of the methods are discussed and demonstrated. The main contributions of the thesis are as follows: Similarity-based Mesh Denoising. A new, powerful, and high quality feature preserving mesh/soup denoising technique and a new scheme for comparing different mesh/soup smoothing methods are proposed. The technique is based on a similarity-weighted averaging procedure and a new and robust similarity measuring scheme. Fair Mesh Generation via Elastica. A new numerical scheme for generating fair meshes is developed. Applications to shape restoration are considered. The scheme is build upon a discrete approximation of Willmore flow. A tangent speed component is introduced to the discrete Willmore flow in order to improve the quality of the evolving mesh and to increase computational stability. Fast and Robust Detection of Feature Lines on Meshes. A new, fast, and robust crest line detection method is developed. Applications to feature-adaptive mesh simplification and segmentation are considered. A novel thresholding scheme and a simple new formula for computing directional curvature derivatives are also introduced. Fast Low-Stretch Mesh Parameterization. A new, fast, simple, and valid low-stretch mesh parameterization scheme and its application for effcient remeshing are proposed by using a moving mesh approach. The scheme is based on a weighted quasi-conformal parameterization which equalizes the local stretch distribution. Particularly, the scheme does not generate regions of undesirable high anisotropic stretch. Free-Form Skeleton-driven Mesh Deformations. A new and powerful approach for generating natural-looking large-scale mesh deformations is proposed. An interesting feature of the approach consists of preserving original shape thickness. New self-intersection fairing schemes are also developed. Multiresolutional and variational extensions of the approach are considered.Item Dynamic Remeshing and Applications(Vorsatz, Jens, 2006-06-12) Vorsatz, JensTriangle meshes are a flexible and generally accepted boundary representation for complex geometric shapes. In addition to their geometric qualities such as for instance smoothness, feature sensitivity ,or topological simplicity, intrinsic qualities such as the shape of the triangles, their distribution on the surface and the connectivity is essential for many algorithms working on them. In this thesis we present a flexible and efficient remeshing framework that improves these ''intrinsic'' properties while keeping the mesh geometrically close to the original surface. We use a particle system approach and combine it with an iterative remeshing process in order to trim the mesh towards the requirements imposed by different applications. The particle system approach distributes the vertices on the mesh with respect to a user-defined scalar-field, whereas the iterative remeshing is done by means of ''Dynamic Meshes'', a combination of local topological operators that lead to a good natured connectivity. A dynamic skeleton ensures that our approach is able to preserve surface features, which are particularly important for the visual quality of the mesh. None of the algorithms requires a global parameterization or patch layouting in a preprocessing step, but works with simple local parameterizations instead.In the second part of this work we will show how to apply this remeshing framework in several applications scenarios. In particular we will elaborate on interactive remeshing, dynamic, interactive multiresolution modeling, semi-regular remeshing and mesh simplification and we will show how the users can adapt the involved algorithms in a way that the resulting mesh meets their personal requirements.Item Effective Retrieval and Visual Analysis in Multimedia Databases(Schreck, Tobias, April 2007) Schreck, TobiasBased on advances in acquisition, storage, and dissemination technology, increasing amounts of multimedia content such as images, audio, video, or 3D models, become available. The Feature Vector (FV) paradigm is one of the most popular approaches for managing multimedia content due to its simplicity and generality. It maps multimedia elements from object space to metric space, allowing to infer object similarity relationships from distances in metric space. The distances in turn are used to implement similarity-based multimedia applications. For a given multimedia data type, many different FV mappings are possible, and the effectiveness of a FV mapping can be understood as the degree of resemblance of object space similarity relationships by distances in metric space. The effectiveness of the FV mapping is essential for any application based on it. Two main ideas motivate this thesis. We first recognize that the FV approach is promising, but needs attention of FV selection and engineering in order to serve as a basis for building effective multimedia applications. Secondly, we believe that visualization can contribute to building powerful user interfaces for analysis of the FV as well as the object space. This thesis focuses on supporting a number of important user tasks in FV-based multimedia databases. Specifically, we propose innovative methods for (a) effective processing of content-based similarity queries, (b) FV space visualization for discrimination analysis, and (c) visualization layout generation for content presentation. The methods are applied and evaluated on a number of specific multimedia data types such as 3D models, images, and time series data, and are expected to be useful in many other multimedia domains.Item High-Fidelity Imaging(Mantiuk, Rafal, 2006-12-14) Mantiuk, RafalAs new displays and cameras offer enhanced color capabilities, thereis a need to extend the precision of digital content. High DynamicRange (HDR) imaging encodes images and video with higher than normalbit-depth precision, enabling representation of the complete colorgamut and the full visible range of luminance.This thesis addresses three problems of HDR imaging: the measurementof visible distortions in HDR images, lossy compression for HDR video,and artifact-free image processing. To measure distortions in HDRimages, we develop a visual difference predictor for HDR images thatis based on a computational model of the human visual system. Toaddress the problem of HDR image encoding and compression, we derive aperceptually motivated color space for HDR pixels that can efficientlyencode all perceivable colors and distinguishable shades ofbrightness. We use the derived color space to extend the MPEG-4 videocompression standard for encoding HDR movie sequences. We also proposea backward-compatible HDR MPEG compression algorithm that encodes botha low-dynamic range and an HDR video sequence into a single MPEGstream. Finally, we propose a framework for image processing in thecontrast domain. The framework transforms an image intomulti-resolution physical contrast images (maps), which are thenrescaled in just-noticeable-difference (JND) units. The application ofthe framework is demonstrated with a contrast-enhancing tone mappingand a color to gray conversion that preserves color saliency.Item Medical Visualization for Orthopedic Applications(Mlejnek, 2006) Mlejnek, MatejThis dissertation discusses visualization techniques of articular cartilage forboth quantitative and qualitative assessment. Articular cartilage is a very thinstructure covering the endings of human bones. Thus, even slight changes in itsthickness and inner structure may indicate an occurrence or progress of degeneration.The early detection of these factors is crucial for diagnosis and treatment ofcartilage degeneration. Research to find treatments to stop or even reverse thesedegenerative changes is well in progress.Magnetic resonance imaging is currently the best and most used non-invasivetechnique for acquisition of soft tissue structures like articular cartilage. In thiswork we use two types of data: a high-resolution anatomical scan of the cartilageand a T2 map, which is computed from a set of sequences with varying parameters.While the thickness of the data can be precisely assessed fromthe anatomical scan,the T2 map offers information on the inner structures of the cartilage.Since the femoral cartilage is a curved thin-wall structure with a relativelysmall extent in one direction, it is very difficult to estimate its thickness from astack of slices or even from a three-dimensional reconstruction of its surface. Wediscuss inspection of the tissue by unfolding and, thus, representing the tissue asa two-dimensional height field. Such a transformation of the object enables theapplication of 2D geometrical operations in order to observe subtle details in thethickness of the tissue.Nowadays scanners allow a quality assessment checking disruptions in thepattern of the T2 map of the patellar cartilage. The T2 map illustrates the quality ofthe cartilage and changes in the pattern of T2 map indicate defects before changesin the thickness itself occur. We propose the Profile Flags - an intuitive interfacefor probing of the T2 maps by browsing the reconstructed surface of the cartilage.The Profile Flag is positioned on the reconstructed surface of the tissue, and canbe moved along it. The Profile Flags can be applied to annotate local as well asglobal characteristics of the underlying data in a single still image. Furthermore,we present a set of extensions to Profile Flags for selection, classification andautomatic positioning. Profile Flags can also be used to measure time-varyingdynamic contrast enhanced magnetic resonance imaging data. - Die vorliegende Dissertation behandelt Visualisierungstechniken zur quantitativenund qualitativen Beurteilung des Zustandes von Gelenksknorpelgewebe.Es handelt sich dabei um dünne Knorpelstrukturen, die Gelenksköpfe im menschlichenKörper bedecken. Selbst geringe Änderungen in ihrer Dicke und Struturkönnen auf eine Degeneration hindeuten. Die Früherkennung solcher Veränderungenist von großer Bedeutung sowohl für die Diagnose und Behandlung der auslösendenKrankheiten als auch für die Erforschung ihrer Ursachen.Die Magnetresonanztomographie ist derzeit eines der am meisten verbreitetenbildgebenden Verfahren zur Untersuchung von Weichteilgewebe. Im Rahmendieser Arbeit kommen zwei Typen von MR Daten zur Anwendung: einhochaufläsender anatomischer Scan des Knorpelgewebes und eine sogenannte T2-Map, welche aus Sequenzen mit variirenden Parametern berechnet werden kann.Während die Dicke des Gelenksknorpels mit Hilfe des anatomischen Scans mithoher Präzision bestimmt werden kann, kann aus der T2-Map Information überseine Struktur gewonnen werden.Insbesondere die Untersuchung des femoralen Gelenksknorpels (Knorpelgewebe,welches den Oberschenkelkopf bedeckt) ist schwierig: Bedingt durchseine gewundene Struktur sind konventionelle Methoden basierend auf Schichtbildsequenzenoder dreidimensionaler Rekonstruktion zumeist ungeeignet. Ausdiesem Grund wird in der vorliegenden Arbeit eine Technik zur Auffaltung desGewebes behandelt. Die so gewonnene Repräsentation als zweidimensionalesHöhenfeld erlaubt die Anwendung von geometrischen Operationen, um eineverbesserte Darstellung von selbst geringen Annomalien zu ermöglichen.Durch Untersuchung der T2-Map können darüberhinaus Veränderungen in derStruktur des Knorpelgewebes der Patella (Kniescheibe) erkannt werden bevor permanenteSchäden entstehen. In dieser Arbeit wird die Profilflaggen-Metaphervorgestellt, welche eine einfache Sondierung von T2-Maps erlaubt. Eine Profilflaggewird auf der rekonstruierten Oberfläche des Knorpelgewebes platziertund kann darauf bewegt werden. Profilflaggen bieten eine einfache Schnittstellezur Interaktion und Dastellung der zugrundeliegenden Daten und sind somit zurUntersuchung und Annotierung von lokalen und globalen Charakteristika desGewebes geeignet. Neben dem grundlegenden Konzept werden zahlreiche Erweiterungenvorgestellt, die sich mit Selektion, Klassifikation und automatisierterPositionierung der Profilflaggen beschäftigen. Auch eine Anwendung zur Untersuchungvon mit dynamischer kontrastmittelunterstützter Magnetresonanztomographie(DCE-MRI) gewonnenen Daten wird behandelt.Item A Methodology for the Semantic Visualization of Industrial Plant CAD Models for Virtual Reality Walkthroughs(Posada, Jorge-Leon, Dec 2005) Posada, Jorge-LeonThere are still many open questions and needs in important aspects of the scientific area of Large Model Visualization LMV- for Plant Design. Performance to achieve interactive rates in immersive virtual environments is certainly one of them, especially if resources are limited, but not anymore the most critical one. Surprisingly, the different processes used today to generate the walkthroughs experiences take into account very few explicit semantic considerations. The main approaches presented in the literature in the field of LMV are mainly related to algorithms and compression methods to be applied to the geometric entities that compose the CAD model. However, no sufficient attention is given to the following aspects: (i) These models actually belong to a special engineering domain with related standards; (ii) the different potential users have diverse backgrounds and intentions; and (iii) an adapted visualization walkthrough of the model can be different for a specific user and purpose in that context, in order to use in an optimal way the available resources and techniques. Therefore, the most common situation is that the generation of visual walkthrough experiences is typically not aware (in proprietary systems with links to PDM the situation is better to some extent) that the 3D CAD model of a plant is actually just a geometric representation of a complex engineering system, and this knowledge is not sufficiently exploited in the generation of the walkthrough experience. The consequence is to have advanced VR environments for the interactive exploration of models of millions of triangles, that have little explicit use of the knowledge and in many cases none- about the domain, users and visualization purposes involved. As a result, the main motivation for the present work is focused on one of this research lines not sufficiently covered so far: The explicit introduction of semantic aspects, pushed from an engineering domain perspective and strongly complemented with computer graphics and semantic technologies-, in the process of generating visual walkthrough experiences for specific users, visualization purposes and resources in the Plant Design domain.Item NURBS und Unterteilungsflächen: Adaptive Visualisierung von Unterteilungsflächen und ihre Erweiterung auf nicht-uniforme Flächen(Mueller, 2006) Mueller, KerstinZurModellierung von Freiformflächen im CAD-Umfeld werden zur Zeit hauptsächlich nicht-uniformerationale B-Spline-Flächen (NURBS) und Unterteilungsflächen verwendet. NURBS-Flächen sind dieälteren sowie etablierteren Flächen und werden standardmäßig im Industriedesign verwendet. Unterteilungsflächenbieten eine flexiblere Topologie und nützliche Modellieroptionen, womit sie einen festenPlatz in Modellierungspaketen wie z.B. Maya und Cinema4D gefunden haben.Ziel dieser Arbeit ist es, die Vorteile von bikubischen NURBS- und Unterteilungsflächen in einemneuen, erweiterten Unterteilungsflächentyp (ESubs) zu vereinen, um damit ein breiteres Einsatzspektrumin Forschung und Industrie zu erhalten. Catmull-Clark- und bikubische NURBS-Flächen sind inden erweiterten Unterteilungsflächen durch die Verallgemeinerung enthalten. ESubs bieten jedoch Flächenformenan, die über die Möglichkeiten von NURBS- und Catmull-Clark-Flächen hinaus gehen. Zuden Kerneigenschaften des neuen Flächentyps ESubs gehören u.a. die Verwendung einer beliebigen,zwei-mannigfaltigen Topologie, die Generierung einer nicht-uniformen Fläche, die Möglichkeit Knotenintervalleeinzeln an den Kanten zu modifizieren und die Verfügbarkeit von sogenannten SpecialFeatures . Für den praktischen Einsatz sind Limitpunktregeln unabdingbar, weshalb sie zusätzlich zuden Unterteilungsregeln im Rahmen dieser Arbeit entwickelt wurden. ESubs sind die einzigen nichtuniformenUnterteilungsflächen als Verallgemeinerung von Catmull-Clark- und NURBS-Flächen, dieLimitpunktregeln anbieten.Der zweite Schwerpunkt dieser Arbeit ist die adaptive Visualisierung von Unterteilungsflächen. Sowohlbei der photorealistischen als auch bei der interaktiven Darstellung wird das Objekt adaptiv währenddes Renderingprozesses verfeinert. Dabei werden die Teile des Objektes, die zu einer Verbesserungdes Bildes beitragen, in entsprechend höherer Unterteilungstiefe dargestellt. Die dazu entwickelten undimplementierten Verfahren sind leicht auf weitere Unterteilungsflächentypen übertragbar und erlaubeneine einfache Handhabung von Special Features sowie anderen Regelmodifikationen. Durch die adaptiveVerfeinerung werden nur die notwendigen Flächenteile zur Generierung eines qualitativ hochwertigenBildes berechnet, so dass Rechenzeit und Speicherplatz effizient genutzt werden.Item Processing and Visualization of Peripheral CT-Angiography Datasets(Straka, July, 2006) Matus StrakaIn dieser Arbeit werden die einzelnen Schritte der Bearbeitung von Datenssätzen, die mittels Computer TomographyAngiography (CTA) gewonnen wurden, vorgestellt. Periphäre CTA-Datensätze sind volumetrischeDatensätze, die pathologische Veränderungen der Blutgefäße der unteren Extremitäten des menschlichen Körpersdarstellen. Diese Veränderungen sind das Ergebnis verschiedener atherosklerotischer Krankheiten wie z.B. derPeripheral Arterial Occlusive Disease (PAOD) und ihre frühe und genaue Diagnose trägt wesentlich zur Planungeiner späteren interventionellen radiologischen Behandlung.Die Diagnose stützt sich auf die Visualisierung des abgebildeten Gefäßbaumes, wo die individuellen pathologischenVeränderungen, solche als Plaque, Verkalkungen, Stenosen des Gefäßdurchgangs und Verstopfungendesselben sichtbar werden. CTA entwickelte sich über die letzten Jahre zu einem robusten, genauen, kosteneffizientenAbbildungsverfahren für Patienten mit sowohl coronaren als auch arteriellen Erkrankungen. AlsFolge der CTA-Prozedur entsteht ein Satz von 1200 2000 transversalen Schnittbildern, die die Blutgefäße mittelseines intravenös verabreichten Kontrastmittels hervorheben. Die Anzahl der erzeugten Schnittbilder ist sehrhoch und infolgedessen ihre manuelle Untersuchung müheselig und zeitintensiv. Deswegen wurden Nachbearbeitungsmethodenzur schnelleren und intuitiveren Darstellung der abgebildeten Gefäße entwickelt. EinfacheVisualisierungen mittels traditionellen Techniken wie Maximum-Intensity Projection (MIP) oder Direct VolumeRendering (DVR) sind jedoch wegen des Vorhandenseins von Knochen im Datensatz, welche die Gefäßeverdecken, nicht zielführend. Deswegen ist eine Folge von Operationen, die Bearbeitungspipeline, die zurErzeugung von klinisch-relevanten Bildern mit unverdeckten Gefäßen führt, notwendig.Im ersten Schritt der Pipeline wird der Datensatz segmentiert und die Gewebearten darin klassifiziert umeine spätere Gefäßidentifikation und Knochenentfernung zu erlauben. Wegen der hohen Dichte und der räumlichenVariabilität der Gewebearten ist das eine komplexe Aufgabe. Traditionelle Bildverarbeitungstechnikenliefern keine brauchbaren Ergebnisse deswegen stellen wir in dieser Arbeit neue Zugänge, die zusätzliche, anatomische Information in den Segmentierungs- und Klassifizierungsprozeßeinbringen, vor. Wir schlageneinen probabilistischen Atlas vor, der das Modellieren der räumlichen und der Dichteverteilung in einem Datensatzerlaubt um ihre bessere Klassifizierung zu ermöglichen. Beim Atlasaufbau werden die non-rigid thin-platespline Warping und die Registrierung der Datensätze angewendet, um der hohen anatomischen Variabilitätzwischen Patienten Rechnung zu tragen. Das Atlaskonzept wird weiter durch die Watershed Transform um dieGenauigkeit der Registrierungsprozedur zu erhöhen erweitert. Als Alternative schlagen wir vor und evaluiereneine Technik zur Gefäßhervorhebung, die auf Hessscher Filterung basiert, um die Aufdeckung und Erkennungder Gefäßstrukturen ohne Operatorüberwachung zu erlauben.Im zweiten Schritt wird ein geometrisches Modell des Gefäßbaums konstruiert, der es erlaubt Informationenüber die Zentrallinien der Gefäße abzuleiten. Hierzu wird ein schon vorhandener Algorithmus verwendet, derauf dem sogenannten Vessel-Tracking aufbaut, das mittels optimaler Pfadsuche mit Verbesserungen um dasgeometrische Modell genauer zu machen implementiert ist.Der dritte Schritt der Bearbeitungspipeline, die Visualisierung, verlangt ein genaues Modell, da ihre Ergebnissewesentlich durch ein potenziell ungenaues Modell beeinflußt werden können, was zu klinisch irreführendenBildern führt. Um die Unzulänglichkeiten der Gefäßvisualisierung mittels herkömmlichen Techniken alsMIP, CPR oder DVR zu beseitigen schlagen wir ihre Verallgemeinerung als Focus & Context-Konzept, das wirVesselGlyph nennen, vor. VesselGlyph erlaubt verschiedene Visualisierungstechniken in einem Bild intuitivund systematisch zu kombinieren um bessere, umfassendere und unverdeckte Gefäßansichten für diagnostischenZwecke zu erzeugen.Um das Design und die Entwicklung der vorgeschlagenen Segmentierungs-, Modellierungs- und Visualisierungsalgorithmenzu fördern und ihre Anwendung in klinischer Umgebung zu ermöglichen haben wireinen Satz von Werkzeugen um die AngioVis-ToolBox entwickelt. In dieser Anwendung werden die einzelnenSchritte der Bearbeitungspipeline realisiert. Die Toolbox wird mit zusätzlichen Hilfsprogrammen vervollständigt die zusammen eine vollfunktionsfähige medizinische Arbeitsstationssoftware ergeben die regelmäßigum Patientendaten in einer klinischen Umgebung zu bearbeiten eingesetzt wird. - In this thesis, individual steps of a pipeline for processing of the peripheral Computed Tomography Angiography(CTA) datasets are addressed. The peripheral CTA datasets are volumetric datasets representing pathologiesin vascularity of the lower extremities in the human body. These pathologies result from various atheroscleroticdiseases as e.g. the Peripheral Arterial Occlusive Disease (PAOD) and their early and precise diagnosticssignificantly contributes to planning of a later interventional radiology treatment.The diagnostics is based on visualization of the imaged vascular tree, where individual pathologic changes,as plaque, calcifications, stenoses of the vessel lumen and occluded parts of the vessels are visible. CTA hasevolved within the recent years into a robust, accurate and cost effective imaging technique for patients withboth coronary and arterial diseases. As a result of the CTA scanning, a set of 1200 2000 transverse slices isacquired, depicting vessels enhanced by means of an intravenously injected contrast medium. The number ofslices is high and therefore their manual examination is laborious and lengthy. As a remedy, post-processingmethods were developed to allow faster and more intuitive visualization of the imaged vascularity. However,simple visualization by means of the traditional techniques as maximum-intensity projection (MIP) or directvolume rendering (DVR) is hampered due to the presence of bones in the dataset, which occlude the vessels.Therefore, a sequence of operations the processing pipeline is needed, leading to generation of clinicallyrelevant images which depict unobstructed vessels.In the first step of the pipeline the dataset is segmented and the tissues are classified, to allow subsequentvessel identification and bone removal. This is a complex task because of high density and spatial variability ofthe tissues. Traditional image processing techniques do not deliver acceptable results and therefore in the thesiswe present new approaches that introduce additional anatomic information into the segmentation and classificationprocess. We propose a probabilistic atlas which enables modeling of spatial and density distributions ofvessel and bone tissues in datasets, to allow their improved classification. In the atlas construction the non-rigidthin-plate spline warping and registration of the datasets are applied, to address the high anatomic variabilityamong the patients. The concept of the atlas is further extended by means of the watershed transform, to furtherimprove precision of the registration procedure. Alternatively, we propose and evaluate a technique for vesselenhancement based on Hessian filtering to allow detection and recognition of vessel structures without operatorsupervision.In the second step a geometric model of the vessel tree is constructed to derive information about the vesselcenterlines. Here, an already available algorithm based on the so-called vessel-tracking, implemented by meansof optimal path searching, is exploited with improvements to make the geometric model more precise.The third step of the processing pipeline visualization requires this model, since its results can be significantlyinfluenced by a potential imperfections, bringing in clinically misleading images. To address limitationsof the vessel visualization by means of the existing techniques as MIP, CPR or DVR we propose their generalizationin form of a focus & context-based concept called VesselGlyph. VesselGlyph enables to combineintuitively and systematically various visualization techniques to single a image to allow better, more comprehensiveand unoccluded view of vessels for the diagnostic purposes.To support the design and development of the proposed segmentation, modeling and visualization algorithmsand to enable their application in the clinical environment, we implemented a set of tools grouped in the AngioVisToolBox software. Within this application, individual steps of the processing pipeline are accomplished.The toolbox is complemented with additional utilities constituting together a fully-functional medical workstationsoftware which is regularly used to process patient data on a daily basis in the clinical environment.Item Steerable Texture Synthesis for Vector Field Visualization(Taponecco, Francesca, Oct 2006) Taponecco, FrancescaVisualization is a fundamental field of research with uncountable applications, spanning from the fields of computer graphics and vision to the humanities. A key feature in visualization studies is thus the interdisciplinary nature of this research field, and it is interesting to note the numerous relative benefits and open directions where investigations can be guided. In the last years, importance of visualization is constantly growing as, thanks to the fast computer advances, it is possible to collect and handle large data sets. Consequently, focusing on scientific visualization techniques still reserves much attention and, although several valid visualization methods exist, further investigation is required. A fundamental open issue is the need for more control. The broad variety of tasks and the different level of expertise of users also require degrees of freedom and adaptivity to allow customizing the visualization process, effectively representing data sets. Such features would be especially beneficial in computer vision and imaging applications as well as for textures generation. The need for local control and the ability to constrain the synthesis of textures are nowadays relevant issues due to the fundamental role that textures play in computer graphics, providing realism and variety in digital scenes and objects. Unfortunately, most synthesis approaches still just allow generating simple homogeneous and regular textures, leaving a great part of texture potential unexplored. In this work, I propose novel techniques for the visualization of vectorial data sets, offering local as well as global control in the visualization process. I use statistical theory from texture synthesis and concepts from perception and cognition to optimize the resulting image and encode the information in the visualization. Furthermore, I introduce straightforward extensions to standard texture synthesis algorithms, allowing the generation of constrained textures, field-driven textures and a variety of texture filtering and transformation effects.