Genauigkeit (Messtechnik)

Genauigkeit (Messtechnik)

Präzision und Genauigkeit sind im Messwesen zwei Kriterien zur Beurteilung einer Messung.

Die Präzision ist ein Kriterium der Qualität eines Messverfahrens. Sie wird daher auch als innere Genauigkeit einer Messung bezeichnet.

  • Man quantifiziert die Präzision eines Verfahrens durch oftmaliges Wiederholen der Messung unter gleichen Umständen mit demselben Messgerät oder Messsystem und Reduktion der einzelnen Ergebnisreihen nach normierten Algorithmen der Fehler- und Ausgleichsrechnung. Ein sehr präzises Verfahren liefert für ein und dieselbe Aufgabe jeweils nahezu gleiche Ergebnisreihen. Die Präzision macht keine Aussagen darüber, wie weit die einzelnen Messwerte jeweils von der realen Vorgabe entfernt sind, sondern sie beschreibt die Stabilität des Messgeräts einschließlich seiner Ablesung während der Messung.

Im Vergleich dazu bedeutet Genauigkeit zweierlei:

  • Eine äußere Genauigkeit: Sie kommt in der Streuung der Mittelwerte der Messwerte zum Ausdruck, wenn diese wiederholt gemessen werden und dabei natürlichen nichtbeeinflussbaren Abweichungen unterliegen.
  • Eine absolute Genauigkeit, das ist der Grad der Übereinstimmung zwischen angezeigtem und wahrem Wert.

Um die Begriffe Genauigkeit und Präzision gegeneinander sinnvoll abzugrenzen, ist zunächst festzuhalten, dass hohe Präzision in technischen Zusammenhängen eine notwendige aber nicht hinreichende Voraussetzung für hohe Genauigkeit darstellt. Dieser Zusammenhang, der sich als logische Konsequenz aus den oben gegebenen Kurzdefinitionen ergibt, wird durch die veraltete Wortgebung "Wiederholgenauigkeit" besser zum Ausdruck gebracht: Präzision ist ein auf den Aspekt der Reproduzierbarkeit eingeschränkter Bestandteil der Genauigkeit. So können technische Vorgänge zwar mit hoher Präzision dennoch ungenau ablaufen, umgekehrt aber kann eine unpräzise Technik keine genauen Ergebnisse hervorbringen; siehe dazu auch die Definition der Präzision nach DIN.

Inhaltsverzeichnis

Begriffe

Präzision

Die Bedeutung des Begriffs Präzision wird unter DIN 55350-13 mit dem Hinweis auf die Bedeutungsgleichheit zum ehemals Wiederholgenauigkeit genannten Merkmal definiert.

Definition nach DIN
Die Präzision beschreibt, wie klein die maximalen Abweichungen voneinander unabhängiger Ermittlungsergebnisse werden, welche gewonnen wurden, indem der Prüfer ein festgelegtes Ermittlungsverfahren mehrfach unter vorgegebenen Bedingungen anwandte. Die Formulierung impliziert, dass hohe Präzision durch niedrige Absolut- und Relativwerte ausgedrückt wird. Die DIN weist zudem explizit darauf hin, dass ein Ermittlungsverfahren umso präziser arbeitet, je kleiner die „zufälligen Ergebnisabweichungen“ des Verfahrens sind.

Der Begriff „Wiederholgenauigkeit“ soll im Bereich der Normung nicht mehr verwendet werden. Allerdings wird nicht nur in älterer Fachliteratur, sondern auch in neuen Texten häufig die Wiederholgenauigkeit als Qualitätsmerkmal von Messgeräten und auch ganzen Produktionsmaschinen quantifiziert und belegt den Messgerätefehler.

Äußere Genauigkeit

Die äußere Genauigkeit ist derjenige Anteil am Messfehler, welcher nicht Teil des Messgerätefehlers (der Präzision der Messvorrichtung) ist.

Absolute Genauigkeit

In der EN 60051 wird die Genauigkeit eines Messgerätes definiert als

„ Grad der Übereinstimmung zwischen angezeigtem und richtigem Wert. Die Genauigkeit […] ist durch die Grenzen der Eigenabweichung und die Grenzen der Einflusseffekte bestimmt.“

In diesem Zusammenhang dient sie der Definition der Genauigkeitsklasse.

Anwendung

Details zum Interpretationsspielraum der Unabhängigkeit (von Ermittlungsergebnissen), der Festlegung (des Verfahrens) und der Vorgaben (an Bedingungen) schränken Anwender des Begriffs Präzision nur in sinnvollem Maß ein. Daraus ergeben sich zwei Hauptgebiete der Verwendung von Präzision als Qualitätsmerkmal:

  • Kalibriermaschinen
  • Robotik

Kalibriermaschinen

Im Vergleich zur Absolutgenauigkeit eines Messgerätes spielt die Präzision zwar eine zunächst untergeordnete Rolle in der Bewertung der Qualität des Geräts. Solange es möglich ist, ein genaueres Messverfahren – als das in seiner Qualität zu bewertende – zum unmittelbaren Vergleich heranzuziehen, wird man in der Regel eine Kalibrierung durchführen, um die Qualität des Gerätes absolut anzugeben. Das bedeutet kalibrieren: Eine Messvorichtung an einem Besseren messen (siehe: Normal).

Eine Messvorrichtung kann ein Messgerät kalibrieren, wenn seine absolute Genauigkeit im gesamten Messbereich wenigstens um eine Größenordnung besser ist, als die des Prüflings.

Die jeweils zum Stand der Technik genauesten Geräte können selber nicht kalibriert werden, da ein zu diesem Zweck benötigtes, deutlich genaueres Messgerät ja nicht existiert. Daher kann diesen Messgeräten mit der jeweils höchsten technisch erreichbaren Genauigkeit keine Quantifizierung ihres größten, absoluten Messfehlers zugeordnet werden.

Allerdings gelingt es mit der Ermittlung der Präzision in diesen Fällen, trotzdem wertvolle Aussagen über die Zuverlässigkeit der Ergebnisse solcher Maschinen zu gewinnen. Wird mehrmals hintereinander (unabhängige Ermittlungsergebnisse) dieselbe Messaufgabe (Verfahren festgelegt und Bedingungen vorgegeben) ausgeführt, können die jeweils einander entsprechenden Abweichungen dieser unabhängigen Ermittlungsergebnisse nach einem vorgegebenen Schema verrechnet werden. Das Ergebnis dieser Prozedur ist die Präzision der neuen Kalibriermaschine.

Für kalibrierbare Geräte, also solche mit weniger hohem Präzisionsniveau, stellt die Messung der Wiederholgenauigkeit eine Chance zur Verbesserung dar. Ein Hersteller solcher Messgeräte kann daraus etwas über systematische Fehler seiner Konstruktion lernen und in die Weiterentwicklung einfließen lassen. Die Wiederholgenauigkeit wird vor allem bei Drehgebern, Winkel- und Längenmessgeräten hoher Präzision angegeben.

Beispiel Eichnormal

Für primäre Kalibriergeräte selbst allerdings spielt die Wiederholgenauigkeit eine wesentliche Rolle, da sie selbst Eichnormale darstellen und daher gar nicht (oder nur in wenigen Ausnahmefällen) kalibrierbar sind. Zur Ermittlung der Wiederholgenauigkeit wird der Messbereich mehrmals hintereinander unter möglichst gleichen Bedingungen durchlaufen. Die so entstehenden Messdiagramme werden nun miteinander verglichen. Um derartige „Vergleichsmessungen mit sich selbst“ deutlich von absoluten Kalibrierungen abzugrenzen, ist der Begriff der „Wiederholgenauigkeit“ – im Sinne der Präzision – unverzichtbar vor allem im Bereich der Meßsysteme höchster Präzision und höchster Absolutgenauigkeit. Die Wiederholgenauigkeit kann besser sein, als die Absolutgenauigkeit. Aber die Absolutgenauigkeit kann zum Zeitpunkt der Qualitätsfeststellung unmessbar sein im Rahmen des technischen Entwicklungsstandes. Der Unterschied rührt vor allem daher, dass für prinzipiell sehr gut funktionierende Messgeräte die einzelnen Messergebnisse meist als Gaussverteilungen um den tatsächlichen, physikalischen Wert symmetrisch herumgestreut sind. In besonderen Fällen jedoch können systematische Fehler eines Messgerätes die absoluten Messfehler in Teilbereichen des gesamten Messbereichs konzentrieren, während die übrigen Bereiche mit sehr viel höherer Genauigkeit messen. Liegen derartige, systematische Fehler vor, die sich aus den Grenzen der technischen Realisierbarkeit ergeben, wie es bei Messgeräten zur Kalibrierung typisch ist, dann können zwei aufeinander folgende Messreihen nahezu identische Diagramme liefern, welche aber absolut betrachtet typische Fehler in jeweils denselben Spektralbereichen besitzen.

Wenn es überhaupt keine Möglichkeit gibt, einem Kalibriergerät durch etwas Besseres Messfehler nachzuweisen, dann ist die Wiederholgenauigkeit zunächst der einzige Hinweis für eine wenigstens grobe Schätzung dafür, wie gut das Messverfahren oder die Messmethode sein könnte.

Die bei Eichnormalen relevanten Aspekte der Präzision werden an Messmaschinen der PTB besonders gut erkennbar: Von großer Bedeutung ist eine zusätzlichen Kontrolle aller Ermittlungsergebnisse eines Kalibriergerätes durch Vergleich mit den entsprechenden Ermittlungsergebnissen wenigstens einer nicht baugleichen Präzisionsmaschine für dasselbe Einsatzgebiet. [1]

Robotik

In der industriellen Fertigung werden überwiegend automatische Produktionsanlagen eingesetzt, deren Wert sich offenkundig daraus ergibt, dass sie unter vorgegebenen Bedingungen (Produktionshalle, Materialien, Formen, …) möglichst oft und schnell hintereinander (Unabhängigkeit) ein und dieselbe Produktionsaufgabe möglichst identisch erfüllen. Dazu sind Produktionsanlagen mit vielen Messgeräten – insbesondere für Längen und Winkel – ausgestattet.

Die Präzision der einzelnen Messgeräte, die dazu dienen, Informationen über den Bearbeitungsraum in eine CNC-verrechenbare Form zu bringen, kann sich bei gelungener Konstruktion der gesamten Anlage auf diese vererben. Um das Gesamtergebnis zu bewerten, wird die Präzision einer kompletten Produktionsanlage genau so ermittelt, wie die Präzision einer Kalibriermaschine.

Präzision am Beispiel: Linearachse einer Bearbeitungsmaschine

Wiederholgenauigkeit beschreibt im Kontext einer Linearachse einer automatischen Produktionsanlage die Reproduzierbarkeit eines Messwertes für die Position in dieser Achse unter gleichen Bedingungen für die Ermittelung dieses Wertes.

Sei die Produktionsanlage eine Bearbeitungsmaschine mit drei Linearachsen X, Y und Z. Die Präzision der X-Achse kann gemessen werden, indem die Positionen angefahren werden, an denen die Y- und Z-Achse während der Ermittlung festgehalten werden sollen. Dann werden die festgelegten Rahmenbedingungen (Temperatur, Schmierzustand, …) eingestellt und das Verfahren (definiert durch Angaben zum Beginn der Messstrecke, zum Messweg, zur Anfahrrichtung, zur Verfahrgeschwindigkeit, …) wird mehrmals hintereinander durchlaufen. Die Ermittlungsergebnisse werden schließlich nach DIN verrechnet. Da es sich bei diesem Beispiel um eine Positionieraufgabe handelt, ergibt sich für die Präzision ein Wert in der physikalischen Maßeinheit Meter, aufgrund der Standards zur Genauigkeit von Produktionsanlagen angegeben in Mikrometer[2]

Oft hat allerdings eine Relativangabe mehr Aussagekraft. Diese gewinnt man im Beispiel dadurch, dass man die ermittelte, absolute Wiederholgenauigkeit durch den jeweils durchlaufenen Messweg teilt. Die Angabe dieser prozentualen Präzision erlaubt in gewissen Maßen den Vergleich sogar recht unterschiedlicher Messgeräte.

Präzision am Beispiel: Fräsen einer Kreisnut mit XY-Tisch

Die Bedeutung der Präzision für die Produktionstechnik kann am vereinfachten Beispiel einer relativ trivialen Bearbeitung mittels zweier Linearachsen einer CNC-Maschine besonders gut dargestellt werden: eine Steuerung enthält in der Darstellung eines CNC-Programms alle relevanten Daten zur Herstellung eines bestimmten Werkstücks, das (ohne Beschränkung der Allgemeinheit) aus einem Rohling gefräst werden soll. Das Programm beschreibt die gewünschte Form (Geometrie) und die in jedem Augenblick des Fräsprozesses anzuwendende Technologie (Fräser, Vorschub, Spindeldrehzahl, Getriebestufen, Kühlmitteleinsatz sowie viele andere Herstellungsdetails). Um z.B. eine kreisrunde Nut mit den Kreismittelpunktskoordinaten (X=0, Y=0) in der Bearbeitungsebene zu fräsen, die von den beiden Maschinenachsen X (links-rechts) und Y (vorne-hinten) definiert wird, müssen die Bewegungsabläufe dieser beiden Linearachsen miteinander interpoliert werden. Im konkreten Beispiel werde eine Kreisnut des Bahnmittenradius R mit einem Bahnvorschub F gefräst. Die Fräsermittelpunktsbahn hat die Länge des Umfangs U dieses Kreises. Die Herstellungszeit T für eine Kreisbahn der Nut beträgt U/F. Der Interpolator prägt der X-Achse zu jedem Zeitpunkt t während der Bearbeitung die Bewegung Rsin(t/T) auf und synchron dazu der Y-Achse Rcos(t/T). Startpunkt sei (X=0,Y=-R). X startet (t=0) also mit der Geschwindigkeit F (Beschleunigungsphase vernachlässigt) und fährt mit sinkender Geschwindigkeit die Strecke R nach rechts. Nach Ablauf der Zeit t=T/4 mit Geschwindigkeit 0 dort angekommen, startet die X-Achse in der entgegengesetzten Richtung mit wachsender Geschwindigkeit, passiert mit F den Ursprung (X=0) und bremst nun den linken Umkehrpunkt an, den sie nach 3T/4 mit Geschwindigkeit 0 erreicht. Das restliche Viertel der Bearbeitungszeit T fährt X wieder mit bis F anwachsender Geschwindigkeit nach rechts bis zum Ursprung (X=0). Die Y-Achse startet (t=0) bei -R vor dem Ursprung und fährt aus dem Stand während T/4 mit bis F wachsender Geschwindigkeit zum Ursprung (Y=0), bremst ab dort den hinteren Umkehrpunkt bei Y=R an und bewegt sich während T/2 bis T in der Gegenrichtung nach vorne entsprechend gemäß der zweiten Halbwelle des Cosinus. Während der gesamten Zeit T werden ständig die jeweiligen Positionswerte X(t) und Y(t) gemessen, um sie als Regelgrößen in den Lageregelkreisen der Achsen zu verrechnen. Hohe Präzision der Fräsmaschine bedeutet in diesem Kontext, dass alle Kreisnuten, die auf ihr in derselben Weise nacheinander gefräst werden, möglichst identisch sind. Dieses Ziel kann nur erreicht werden, wenn die Daten der Systeme zur Lagemessung wenigstens bijektive Abbildungen der tatsächlichen Positionen der Linearachsen darstellen. Präzise Lagebestimmung der beiden Achsen X und Y ist also eine notwendige Voraussetzung für die Präzision der ganzen Maschine.

Zusammenhang der Präzision mit konkreten Fehlern

Das metrisch dimensionierte Geometrieprogramm der Steuerung einer ansonsten idealen Maschine erlaube den Wechsel des Maßsystems auf zöllig, verwendet aber als Umrechnungsfaktor fälschlich s=25 statt 25,4 [1 inch = 25,4 mm]. Bei Programmierung des Kreises mit dem Radius R in Zoll werden alle berechneten Längen gleichmäßig um den Faktor 125/127 gegenüber der zölligen Anzeige gestaucht. Es entstehen ideale Kreisnuten, allerdings jeweils mit rund 1,6 % zu kleinem Radius und Umfang.

  • Dieser systematische Fehler der Geometrierechnung beeinflusst nicht die Präzision der Maschine. Die Ergebnisse sind dem programmierten Werkstück geometrisch ähnlich und untereinander identisch, also perfekt reproduzierbar. Bestmögliche Präzision = 0.

Bei der Behebung des geometrischen Fehlers in der CNC-Software wird der korrigierte Faktor s=25.4 versehentlich nur der X-Achse aufgerechnet, nicht aber der Y-Achse (s(Y)=1). Dadurch werden alle X-Positionen korrekt angefahren, aber alle Y-Längen mit dem Faktor 1/s=5/127 gestaucht. Es entstehen lauter identische, elliptische Nuten, keine Kreise.

  • Dieser systematische Fehler der Geometrieberechnung beeinflusst nicht die Präzision der Maschine, obwohl die Ergebnisse der Bearbeitung dem programmierten Werkstück nicht einmal mehr geometrisch ähnlich sind. Präzision = 0 (ideal).

Kugelumlaufspindeln übertragen bei den meisten realen Linearachsen die Drehbewegungen der Servoantriebe auf den Bearbeitungstisch. Beim Richtungswechsel verursacht die Lose ein zu langes Verharren der Achse im Umkehrpunkt und führt zu den typischen Umkehrspitzen an den Quadrantenübergängen (X=0) und (Y=0) der tatsächlich gefahrenen Bahn. Werden die translatorischen Achspositionen aus den Winkeldaten eines hochauflösenden Drehgebers an der Antriebsspindel ermittelt, so existiert bei der Richtungsumkehr im Streckenbereich der Lose keine bijektive Abbildung zwischen den wahren Werten der Tischposition und den gemessenen Winkeln: der Servoantrieb dreht die Spindel, der Drehgeber misst den Drehwinkel und die Steuerung berechnet dazu Positionen und Positionsänderungen, obwohl der Tisch in dieser Achse steht. Die Längenmessung kann in diesem Beispiel die Präzision des Drehgebers nicht erben, weil die Präzision der Längenmessung auch die dominierenden Fehlerbeiträge aus der Spindelsteigung und der Kopplung (Dehnung des Antriebsriemens, Spindellose und andere Effekte) zwischen Rotation (Servoantrieb, Kugelumlaufspindel) und Translation (Linearachse des Bearbeitungstischs) enthält.

  • Der Umkehrfehler durch eine Spindellose verschlechtert die Präzision einer Linearachse mit Präzisionsdrehgeber als Sensor der Lagebestimmung.

Hohe Vorspannung am Gewindetrieb verringert die Lose und verbessert dadurch die Präzision. Allerdings zum Preis einer erhöhten Reibung und damit einher gehenden Erwärmung der Führungskomponenten. Ein sich erwärmender Kugelgewindetrieb ändert seine Länge, nicht aber die Windungszahl; daher ändern die lokal und temporär auftretenden Temperaturschwankungen seine Spindelsteigung. Die Präzision wird dadurch verschlechtert.

  • Die thermische Abhängigkeit der Spindelsteigung eines Kugelgewindetriebs verschlechtert die Präzision einer Linearachse mit Präzisionsdrehgeber als Sensor der Lagebestimmung.

Ein Linearmaßstab, der fest mit dem Bearbeitungstisch verbunden ist, kann die Lagebestimmung der zugeordneten Achse unbeeinflusst von Spindellose und Spindelsteigung messen. Die Präzision eines derartigen Längenmessgerätes kann sich daher auf die Linearachse als ganze Komponente der Maschine vererben.

  • Spindellose und thermisch abhängige Spindelsteigung beeinflussen die Präzision der Lagebestimmung durch ein Längenmessgerät nicht.

Problematik von Präzisionsangaben

Da die Wiederholgenauigkeit von Geräten auch mit systematischen Konstruktionsfehlern nach der Definition nahezu beliebig hoch sein kann, ohne dass daraus unmittelbar Aussagen über die Qualität in der absoluten Genauigkeit abgeleitet werden können, sind Angaben darüber stets kritisch zu prüfen. Nur wenn die Genauigkeit eines Gerätes an sich unzweifelhaft zum Ausdruck kommt, liefert die Angabe der Präzision ein willkommenes und wichtiges Kriterium bei der Entscheidung über die Eignung des Gerätes für die zu lösende Aufgabe.

Siehe auch: Qualitätsmanagement – Die geräteabhängige Präzision ist Teil jeder Qualitätskontrolle.

Wirtschaftliche Bedeutung der Präzision

Vom Standpunkt der Wissenschaft aus betrachtet ist Präzision ein der Genauigkeit deutlich untergeordnetes Qualitätsmerkmal (eines Messgeräts), da Messungen in wissenschaftlichen Experimenten ein möglichst exaktes Abbild der Realität darstellen müssen, um als Tests für Hypothesen zu taugen. Vom Standpunkt der Güterproduktion aus rentiert sich eine Maschine vor allem durch ihre Präzision. Der Unterschied dieser Betrachtungsweisen liegt darin begründet, dass in der Fertigung den Kosten gegenüber ihrem Nutzen stärkeres Gewicht eingeräumt wird, als in der Wissenschaft. Eine Maschine, die schnell und billig Passungen absolut präzise herstellen kann, die alle auf genau dieselbe Art nicht passen, ist eine gute Maschine. Denn man kann ihr beibringen, genau um soviel nicht passende Passungen herzustellen, dass die zum Nichtpassen unpassenden Passungen nun zur ursprünglichen Aufgabe passen. Im Prinzip ist damit das Grundrezept beschrieben, mit dem heute viele systematische Maschinenfehler durch Algorithmen zur Fehlerkompensation in CNC-gesteuerten Produktionsanlagen unschädlich gemacht werden. In der Praxis werden Bearbeitungsmaschinen als Investitionsgüter sehr streng kalkuliert.

Beispiel: Kotflügel

Die Integration der Kotflügel in die Karosserie eines Automobils wurde möglich, als ausreichend präzise Maschinen zu akzeptablen Investitionskosten zur Verfügung standen, um den jeweiligen Flügel passend zu der Aussparung in der Karosserie zu pressen. Die dabei auftretenden Toleranzen kompensierte man durch Handverlesen und Schließen des Spalts durch elastische Keder. Durch wachsende Präzision der Produktionsmaschinen konnte man bald Kotflügel so präzise herstellen, dass der Keder nicht mehr benötigt wurde und die Flügel direkt eingeschweißt werden konnten. Dieses bekannte Beispiel illustriert den wesentlichen Zusammenhang von industrieller Wirtschaft und Präzision: in automatisierten Herstellungsprozessen korreliert hohe Präzision der Produktionsmaschinen direkt mit hoher Produktivität.

Literatur

Einzelnachweise

  1. Erste internationale Bewährungsprobe für das Hydrodynamische Prüffeld, Forschungsnachrichten der Abteilung 1, PTB. 22.12.2004
  2. Genauigkeit bei Antriebssystemen. In: drivesets.de, Fachwissen Mechatronik. Systec GmbH. 23.08.2006 – illustriert anschaulich und ausführlich die Zusammenhänge rund um die Präzision einer Maschinenachse

Wikimedia Foundation.

Игры ⚽ Нужно решить контрольную?

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Genauigkeit — ist ein Begriff, der in sämtlichen Wissenschaften eine zentrale Rolle spielt. Genauigkeit bedeutet Sorgfalt, Gründlichkeit, Richtigkeit, Zielgerichtetheit, Übereinstimmung. Der Begriff Exaktheit (v. lat.: exigere abwägen) wird beispielsweise in… …   Deutsch Wikipedia

  • Genauigkeit — Präzision; Akkuratesse; Exaktheit; Gründlichkeit; Akribie; Korrektheit; Richtigkeit; Sorgfalt; Gewissenhaftigkeit * * * Ge|nau|ig|keit 〈f. 20; unz.〉 Gewissenhaftigkeit, Sorgfalt, Korrektheit, Exaktheit …   Universal-Lexikon

  • Messtechnik — Mẹss|tech|nik 〈f. 20〉 1. Technik zur Feststellung von Maßen u. Gewichten 2. 〈Mess u. Regeltech.〉 Zusammenwirken von technischen Mess u. Regelvorgängen, bes. bei der Steuerung automatischer Prozesse * * * Mẹss|tech|nik, die <o. Pl.>:… …   Universal-Lexikon

  • Lasertechnik: Laser in der industriellen Messtechnik —   Aufgrund seiner herausragenden Eigenschaften hat sich der Laser nicht nur im Bereich der Werkstoffbearbeitung und fertigung als vielfältig einsetzbares Werkzeug etabliert, er ist auch in vielen Bereichen der Messtechnik nicht mehr wegzudenken.… …   Universal-Lexikon

  • Acht-Bit-Genauigkeit — Die digitale Auflösung beschreibt, wie fein gestuft eine ursprünglich kontinuierlich veränderliche Größe bei einer digitalen Mess oder Rechenoperation digital dargestellt werden kann oder wie genau allein von der Digitalisierung her, ohne weitere …   Deutsch Wikipedia

  • Bit-Genauigkeit — Die digitale Auflösung beschreibt, wie fein gestuft eine ursprünglich kontinuierlich veränderliche Größe bei einer digitalen Mess oder Rechenoperation digital dargestellt werden kann oder wie genau allein von der Digitalisierung her, ohne weitere …   Deutsch Wikipedia

  • Libelle (Messtechnik) — Die Libelle in einer Wasserwaage Libelle (lat. kleine Waage) ist in der Messtechnik ein mit einer Flüssigkeit und einer Gasblase gefüllter Glas bzw. Kunststoffhohlkörper zur Überprüfung der horizontalen bzw. vertikalen Lage von Gegenständen,… …   Deutsch Wikipedia

  • Triangulation (Messtechnik) — Triangulation ist eine Methode der optischen Abstandsmessung mit der trigonometrischen Funktion. Inhaltsverzeichnis 1 Prinzip 2 Besonderheiten in drei Dimensionen 3 Technische Umsetzung 4 …   Deutsch Wikipedia

  • Messbarkeit (Messtechnik) — In der für die Messtechnik grundlegenden Norm DIN 1319 wird die Messung definiert als das Ausführen von geplanten Tätigkeiten zu einer quantitativen Aussage über die Messgröße durch Vergleich mit einer Einheit.[1] Dabei ist die Messgröße jene… …   Deutsch Wikipedia

  • Verfahrensvalidierung — Unter Methodenvalidierung in der Analytik versteht man den formellen und dokumentierten Nachweis, dass eine analytische Methode für ihren Einsatzzweck geeignet ist und die an sie gestellten Anforderungen erfüllt. Die Methodenvalidierung ist ein… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”