Texture-Mapping

Texture-Mapping
Texture Mapping der Vorderseite eines Würfels

Der Begriff Texture Mapping (deutsch etwa Musterabbildung) bezeichnet ein Verfahren der 3D-Computergrafik. Es dient dazu, die Flächen dreidimensionaler Oberflächenmodelle mit zweidimensionalen Bildern – sogenannten „Texturen“ – und Oberflächeneigenschaften auszustatten. Texturen lassen computergenerierte Bilder detailreicher und realistischer erscheinen, ohne dass das zugrundeliegende Modell selbst verfeinert werden muss.

Inhaltsverzeichnis

Verfahren

Der Versuch, die Textur Zeile für Zeile abzutasten und entsprechend der Position des Polygons schräge Linien im Bildspeicher zu zeichnen, endet in einem durchlöcherten Bild. Man muss gerade Linien (üblicherweise horizontal) im Bildspeicher rendern und auf der Textur entsprechend schräge Linien abtasten. Übliche Algorithmen zeichnen nur Dreiecke, d. h. alle Objekte werden aus Dreiecken zusammengesetzt.

Texturkoordinaten

Jedem Vertex eines 3D-Objektes kann zusätzlich zu seiner Position im xyz-Raum unter anderem noch eine Texturkoordinate im uvw-Raum zugeordnet werden. Anhand der Texturkoordinaten (auch uvw-Koordinaten genannt) wird definiert, wie eine Textur (ein Bitmap oder eine mathematische Textur) auf einem Polygon abbildet. Verwendet man eine zweidimensionale Bitmaptextur, so wie dies in Computerspielen der Fall ist, so werden lediglich die u- und die v-Koordinaten benötigt, um festzulegen, welcher Bildteil auf dem Polygon abgebildet werden soll. Bei mathematischen Texturen, wie z. B. 3D-Rauschen oder volumetrischen Texturen, wird oft zusätzlich noch die w-Koordinate benötigt.

Die uv-Koordinate (0,0) entspricht der unteren linken Ecke des Bildes, die uv-Koordinate (1,1) der oberen rechten Ecke. Uv-Werte größer 1 und kleiner 0 sind möglich und führen zu Randwiederholungseffekten des Bildes. Diese können in der Regel definiert werden. Zwei Möglichkeiten sind Randwiederholung oder Spiegelung. So lässt sich ein Bild über das Definieren der Texturkoordinaten über ein Polygon kacheln.

Außerdem ist es möglich einem Vertex mehrere Texturkoordinaten zuzuweisen. Man spricht dann von mehreren Mapping-Channels. Auf diese Art und Weise ist es möglich, mehrere Bilder bzw. Bildausschnitte auf einem Polygon überlagernd darzustellen.

In 3D-Modellen mit vielen Polygonen wird oft eine einzige Textur für das ganze Modell verwendet, sodass jeder Punkt des Modells nur einen Satz Texturkoordinaten hat (und nicht unterschiedliche Texturkoordinaten für die verschiedenen Polygone, die diesen Punkt verwenden), weil dieses Format für hardwarebeschleunigte 3D-Grafik und auch für den Designer des 3D-Modells besonders günstig ist.

Bei der einfachsten Variante des Texture Mapping werden die Texturkoordinaten entlang der schon vom 3D- in den 2D-Raum transformierten Randlinien des Polygons linear interpoliert. Dann werden sie entlang einer Bildschirmzeile (oder -spalte) von Randlinie zu Randlinie linear interpoliert, bei jedem Pixel wird der Farbwert des zu den interpolierten (u,v)-Koordinaten gehörenden Texels (Bildpunkt in der Textur) übernommen.

Perspektivenkorrektur

Bei Polygonen, die eine größere Ausdehnung in Sichtrichtung haben, führt das oben beschriebene Verfahren zu visuell unbefriedigenden Resultaten, weil die Texturkoordinaten nach der Projektion interpoliert werden und somit nicht berücksichtigen, dass eine Strecke im weiter entfernten Teil des projizierten Polygons einer größeren Strecke im originalen Polygon im 3D-Raum entspricht, als eine Strecke im näheren Teil des Polygons. Dadurch ändert sich die Zuordnung von Texturkoordinaten zu Punkten im dreidimensionalen Raum, wenn sich die Perspektive ändert.

Um dieses Problem zu lösen, werden meist anstatt der Texturkoordinaten u und v die Werte von u/z und v/z und weiters auch 1/z linear interpoliert, wobei z die Koordinate im 3D-Raum in Sichtrichtung ist (z bzw. 1/z muss daher zu jedem projizierten Punkt des Polygons gespeichert werden). Um für einen Pixel die Texturkoordinaten zu berechnen, müssen nun Divisionen ausgeführt werden:

u = (u/z)/(1/z)

v = (v/z)/(1/z)

Weil Divisionen relativ langsame Operationen sind, werden sie meist nicht bei jedem Pixel gemacht; stattdessen werden u und v nur bei wenigen Pixeln, die auf das Polygon gleichmäßig verteilt sind, so berechnet. Bei allen anderen Pixeln werden die Werte von u und v zwischen denen jener Pixel interpoliert. So kann man die störenden Effekte stark reduzieren, ohne dass all zu viel Rechenleistung dafür aufgewendet werden muss.

Texturinterpolation

Die bisher beschriebenen Verfahren nehmen vereinfachend an, dass jeder Pixel exakt einem Texel zugeordnet werden kann. Betrachtet man aber sowohl Pixel als auch Texel als Punkte ohne Ausdehnung, so ist dies im Allgemeinen nicht der Fall. Vielmehr liegen die Texturkoordinaten eines Pixels in der Regel zwischen mehreren Texeln. Es gilt also, zu entscheiden, wie aus den Farbwerten der umliegenden Texel der Farbwert für den Pixel gewonnen wird: Man benötigt ein geeignetes Interpolationsverfahren.

Das einfachste und schnellste solche Verfahren besteht darin, einfach den nächstliegenden Texel auszuwählen; man nennt dies nearest neighbor („nächster Nachbar“) oder auch point sampling („punktweise Stichprobe“). Beim aufwändigeren bilinearen Filtern wird der gesuchte Farbwert aus den vier umliegenden Texeln in Abhängigkeit ihrer Entfernung interpoliert, man nennt dies einen „Box-Filter“. Noch aufwändigere Filter, etwa der Gauß-Filter, ziehen weitere Texel in die Berechnung mit ein oder gewichten die Entfernung anders. Da ungeeignete Interpolationsverfahren zu unerwünschten Alias-Effekten führen – beispielsweise Moiré-Effekte –, muss ein Kompromiss zwischen Geschwindigkeit und Artefaktbildung gefunden werden.

MIP-Mapping

Diese Techniken werden angewandt, solange der Rasterabstand der Pixel kleiner als jener der Texel ist, einem beliebigen Pixel also höchstens ein Texel zugeordnet wird. Ist der Rasterabstand der Pixel jedoch größer als jener der Texel, so entspricht einem Pixel gleich ein ganzer Bereich der Textur. Zwar ist es nicht weiter schwierig, den Farbwert als Mittelwert sämtlicher Texel zu bilden, aber dies ist sehr aufwändig – für einen einzigen Pixel müssen viele Rechenoperationen ausgeführt werden – und daher nicht praktikabel.

Stattdessen verwendet man MIP-Maps. Diese enthalten neben der Originaltextur Kopien der Textur mit abnehmender Größe, sogenannte „Detailstufen“ (level of detail, LOD). Man wählt daraus die größte Detailstufe aus, die den gewöhnlichen Zustand „Pixel kleiner als Texel“ wieder herstellt, und arbeitet darauf wie auf der Originaltextur. Zusätzlich zu den bisherigen Interpolationsverfahren bietet sich hier die Möglichkeit, zwischen zwei aufeinanderfolgenden Detailstufen eine weitere lineare Interpolation durchzuführen; in Kombination mit der bilinearen Filterung erhält man so eine trilineare Filterung. Der Einsatz von MIP-Maps in Verbindung mit point sampling reduziert Alias-Effekte bereits stark, in Verbindung mit aufwändigeren Filtern und Interpolation zwischen den Detailstufen können sie auf ein Minimum reduziert werden.

Anisotropes Filtern

Die oben beschriebenen Anwendungen betrachten Pixel und Texel als Punkte, also als eindimensionale Objekte ohne Ausdehnung. Stattdessen kann man sie aber auch als kleine Quadrate auffassen. Dann gilt es zu berücksichtigen, dass ein Pixel, den man auf die Textur projiziert, dort keine quadratische sondern eine in eine Richtung elongierte Fläche bildet, wenn das betrachtete Polygon sich in Sichtrichtung ausdehnt. Wird bei der Filterung diese unterschiedliche Ausbreitung in verschiedene Richtungen (Anisotropie) des Pixels im Texturraum berücksichtigt, spricht man von anisotropem Filtern.

Spezielle Verfahren

Es gibt verschiedene Verfahren, um eine von einer Textur bedeckte Oberfläche dreidimensional erscheinen zu lassen:

  • Beim Bumpmapping wird die Beleuchtungsberechnung mit einem über die Oberfläche variiertem Normalvektor gemacht.
  • Beim Displacement Mapping werden mit der Information aus der Textur zusätzliche Polygone erstellt.

Wikimedia Foundation.

Игры ⚽ Поможем решить контрольную работу

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Texture mapping — Texture maps redirects here. For the 2003 ambient album, see Texture Maps: The Lost Pieces Vol. 3. 1 = 3D model without textures 2 = 3D model with textures Texture mapping is a method for adding detail, surface texture (a bitmap or raster image) …   Wikipedia

  • Texture mapping — Saltar a navegación, búsqueda 1 = Modelo 3D sin texturas 2 = Modelo 3D con texturas Texture mapping es un método para añadir detalles, colores o texturas exteriores a un grafico generado por ordenador o un modelo 3D. Esta aplicación a los modelos …   Wikipedia Español

  • Texture Mapping — der Vorderseite eines Würfels Der Begriff Texture Mapping (deutsch etwa „Musterabbildung“) bezeichnet ein Verfahren der 3D Computergrafik. Es dient dazu, die Flächen dreidimensionaler Oberflächenmodelle mit zweidimensionalen Bildern – sogenannten …   Deutsch Wikipedia

  • Texture mapping unit — Texture mapping units (also known as graphical pipelines) is a component in a video card. A TMU rotates and resizes a bitmap to be placed onto an arbitrary plane of a given 3D object as a texture . [ cite… …   Wikipedia

  • texture mapping — noun Computing the application of patterns or images to three dimensional graphics to enhance their realism …   English new terms dictionary

  • texture mapping —    The creation of a special surface. A two dimensional image (such as a PICT file) is applied to the surface of an object …   IT glossary of terms, acronyms and abbreviations

  • texture mapping — …   Useful english dictionary

  • Projective texture mapping — is a method of texture mapping that allows a textured image to be projected onto a scene as if by a slide projector. Projective texture mapping is useful in a variety of lighting techniques and it s the starting point for shadow… …   Wikipedia

  • Texture synthesis — is the process of algorithmically constructing a large digital image from a small digital sample image by taking advantage of its structural content. It is object of research to computer graphics and is used in many fields, amongst others digital …   Wikipedia

  • Texture-Based Volume Rendering — ist ein Verfahren zur räumlichen Darstellung von Schnittbildern wie sie bei CT, oder MRT Aufnahmen entstehen. Bei diesem Verfahren werden Texturen des darzustellenden Volumens geometrisch als parallele Schichten/Ebenen aneinander gelegt (Slicing) …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”