Entropie (Sozialwissenschaften)

Entropie (Sozialwissenschaften)

In die Sozialwissenschaften fand der Begriff der Entropie Eingang sowohl als physikalische Zustandsgröße wie auch als ein Maß aus der Informationstheorie.

Eine der menschlichen Intuition entgegenkommende Weise, die Bedeutung von Entropie verständlich darzustellen, besteht darin, nicht die Entropie selbst, sondern die Veränderung von Entropie zu betrachten, also die Zunahme oder die Verringerung von Entropie.

  • Entropiezunahme ist Informationsverlust:
Gilbert Newton Lewis schrieb im Jahr 1930: „Eine Zunahme der Entropie bedeutet Informationsverlust und nichts Anderes.“[1]
Die kurze Zusammenfassung einer Erklärung der Entropie von Murray Gell-Mann im Jahr 1994 lautet: „Entropie ist Informationsmangel, dessen Größe an dem Aufwand gemessen wird, der zur Behebung dieses Informationsmangels erforderlich wäre.“ (Einzelheiten s.u.)
  • Zur Entropieverringerung benötigt ein System seine Umwelt:
Ein System kann seine Entropie nur durch die Belastung seiner Umwelt verringern. Dazu muss es offen sein. Verringert eines seiner Subsysteme seine Entropie, so muss entweder die Summe der Entropien der übrigen Subsysteme im Gesamtsystem ansteigen oder das Gesamtsystem muss seine Umwelt mit Entropie belasten.
  • Entropiezunahme verringert die Veränderungsfähigkeit eines Systems:
Ein System mit niedriger Entropie kann sich leichter ohne Belastung seiner Umwelt verändern als ein System mit hoher Entropie. Verändert sich ein System unabhängig von seiner Umwelt, dann nimmt seine Entropie zu. Ein System mit maximaler Entropie kann sich aus eigener Kraft überhaupt nicht mehr verändern. Diese beiden Tatsachen treffen auf die Subsysteme eines Systems gleichermaßen zu.

Der letzte Punkt ergibt sich auch aus einer exakten Definition der Entropie in der Physik: Wenn ein thermodynamisches System sich ausgehend von einem alten Zustand so verändern kann, dass es zum Erreichen eines neuen Zustandes keinerlei thermische Energie mit seiner Umwelt austauschen muss, dann ist dieser neue Zustand „adiabatisch erreichbar“. Das ist nur möglich, wenn die Entropie des thermodynamischen Systems im alten Zustand niedriger ist als die Entropie des Systems im neuen Zustand. Das bedeutet auch, dass vom neuen Zustand ausgehend der alte Zustand nicht adiabatisch erreichbar ist. Mit eigenen Mitteln kann das System nicht zum alten Zustand zurückkehren. Ist in einem System eine Veränderung adiabatisch erreichbar, so ist das System hinsichtlich dieser Veränderung autark.

Inhaltsverzeichnis

Kritik des Begriffes der „Entropie“

Wortwahl

Der Physiker Leon Cooper führt Schwierigkeiten, den Begriff der Entropie zu verstehen, im Wesentlichen auf die Wahl des falschen Begriffes durch Rudolf Clausius zurück: „...anstelle den Namen dem Körper der zeitgenössischen Sprachen zu entnehmen, gelang es ihm, ein Wort zu prägen, das fur Alle dieselbe Sache bedeutete: Nichts.“[2] Clausius begründete seine Wortwahl damit, dass er alte Sprachen für wichtige wissenschaftliche Größen bevorzuge, weil sie in alten Sprachen für Alle dasselbe bedeuteten. Und Claude Shannon wählte anstatt des von ihm ursprünglich angedachten Begriffs der Ungewissheit (uncertainty) den Begriff der Entropie für die Informationstheorie, weil er eine wohl etwas ironisch gemeinte Idee von John von Neumann übernahm: „… niemand weiß, was Entropie wirklich ist, also wird man in der Debatte immer einen Vorteil haben.“ Darum leitet der Thermodynamiker Arieh Ben-Naim ein Lehrbuch über statistische Thermodynamik mit einer Begründung ein, warum er den Begriff der Entropie durch den Begriff „fehlende Information“ (MI, Missing Information) ersetzt.[3]

Das Verhältnis von Entropie und „Unordnung“

Durch die häufige und populäre Gleichsetzung von Entropie mit „Unordnung“ bietet sich die Verwendung des Begriffs der Entropie jeder Wissenschaft an, die ordnende Prozesse und die Ordnung sozialer Systeme erforscht. Oft wird Entropie als Synonym für Unordnung auch in populären Darstellungen sozialwissenschaftlicher Themen verwendet. Ein Beispiel ist „Soziale Entropie[4], ein Begriff der Makrosoziologie, mit dem in der öffentlichen Diskussion oft wertend „Soziale Unordnung“ gemeint ist. Die Gleichsetzung von Entropie mit Unordnung ist jedoch umstritten. Sie ist zwar nicht prinzipiell unzulässig, aber die Zulässigkeit der Gleichsetzung ist abhängig von vielen Zusatzbedingungen, darunter subjektive Sichtweisen und normative Wertungen. Der Gebrauch der Entropie als Synonym für Unordnung führt daher leicht zu Aussagen, die verwirrend, unklar und anfechtbar sind. Arieh Ben-Naim zeigt in Entropy Demystified (2007), dass das Konzept von Ordnung und Unordnung bei der Erklärung der Entropie nicht hilfreich ist und dass eine Erklärung der Wirkmechanismen auch der thermodynamischen Entropie exakt nur über die Informationstheorie und Wahrscheinlichkeitstheorie möglich ist. Der Begriff der Entropie sei zwar zunächst in der Physik entwickelt worden, ihm läge aber die Informations- und Wahrscheinlichkeitstheorie zugrunde.[5]

Physikalische Entropie

Als physikalische Größe ist die Entropie eine der Zustandsgrößen der materiellen Umwelt der Wirtschaft. Größere Aufmerksamkeit für die Darstellung dieses Sachverhalts und seiner Auswirkungen erzielte erstmals Nicholas Georgescu-Roegen[6]. Eine Rolle spielt die Entropie auch in der Diskussion über die Beschränkung der Wirtschaft durch ihre materielle Umwelt, eine im gegenwärtigen Sprachgebrauch als „Physiokratie[7] bezeichnete Position. Die Unüberwindbarkeit der Grenzen der dem zweiten Hauptsatz der Thermodynamik unterworfenen materiellen Welt zeigte Leó Szilárd: Selbst wenn in abgeschlossenen Systemen intelligentes Leben enthalten ist, kann in diesen Systemen die Entropie durch intelligentes Handeln nicht gesenkt werden[8]. Innovation bietet keinen Ausweg zur Überwindung des zweiten Hauptsatzes der Thermodynamik.

Umgang des Menschen mit Entropie

Im Umgang mit Entropie kann der Mensch nur eingeschränkt auf Intuition zurückgreifen[9], weswegen seine Sorge vorwiegend der Suche nach sogenannten Energiequellen gilt, ohne die mit jeder Energieumwandlung verbundene Entropieproduktion und die Notwendigkeit von Entropiesenken (zum Beispiel Lager für Abfallstoffe) gleichermaßen zu berücksichtigen. Zunehmend werden jedoch die Prozesse, mit denen Entropie in die Umwelt der Gemeinschaft exportiert wird, wegen ihrer belastenden Effekte wahrgenommen. Dazu gehört insbesondere die Produktion von Abfallstoffen. In der Wirtschaft und Politik ist Entropieproduktion eine Belastung der von der Gesellschaft geteilten Umwelt, die in vielen Ländern bereits besteuert wird. Solche Entropiesteuern[10], mit denen nach dem Verursacherprinzip Umweltbelastung besteuert[11] wird, werden heute in der Regel als Ökosteuern implementiert. Die Verringerung von Entropieproduktion kann auch subventioniert werden, beispielsweise durch die Förderung effizienter Antriebe, Heizungen usw. Mit dem Emissionsrechtehandel wurde das Recht zum Export von Entropie in die gemeinschaftlich genutzte Biosphäre zu einem Handelsgut.[12]

Intuition und implizites Wissen um Entropie

Woher könnte ... das was geboren, geworden, zusammengesetzt, dem Verfall unterworfen ist, da doch nicht verfallen sollte: das gibt es nicht.[13]

Nur wenige Menschen können klar beschreiben, was Entropie ist. Aber sie haben ein Gefühl für Entropie dort, wo es lebenswichtig ist. Für wichtigste Verhaltensweisen können Menschen auf Instinkte und Intuition zurückgreifen. Dazu gehört das implizite Wissen um die Grenzen der Umkehrbarkeit der Zerstörung von Strukturen (zum Beispiel Dinge und Lebewesen). In der Auseinandersetzung mit Entropie und der mit ihr verbundenen Gesetzmäßigkeiten behandelt ein signifikanter Teil des Humors der Menschen solche Vorgänge, die als eigentlich unmöglich empfunden werden und in denen gegen den zweiten Hauptsatz der Thermodynamik, gegen die Wahrscheinlichkeitstheorie usw. „verstoßen“ wird. Sieht der Mensch in einem Film, wie ein Haus sich aus Schutt und Asche wieder selbstständig aufbaut, weiß er intuitiv, dass der Film rückwärts abgespielt wird. Der Mensch hat also ein implizites Wissen um die Gesetze von Unumkehrbarkeit und Umkehrbarkeit, das er auch als Maßstab zur Identifizierung von Wundern einsetzt. Er fühlt, oft ohne den Grund dafür beschreiben zu können, dass sich die Entropie eines Systems ohne Hilfe der Umwelt des Systems nicht verringern kann.

Die Intuition des Menschen basiert auf lebenswichtigem impliziten Wissen. Im Gegensatz dazu ist Wissen um die Folgen eigenen Handelns zum Teil auch eine Hemmung der eigenen Entfaltungsmöglichkeiten. Hier warnt den Menschen nicht das Wissen um die Beeinflussung der Umwelt durch eigenes Handeln, sondern das Wissen um gesellschaftliche Sanktionen und persönliche Verluste. Soweit Warnungen vor wahrscheinlichen schädlichen Folgen für den Handelnden nicht erforderlich sind, kann Verdrängung und Wissensvermeidung helfen, die höherpriorige eigene Entfaltung nicht durch störendes Wissen zu beeinträchtigen. Struktur findet diese in Glaubenssystemen, in denen Wunder zugelassen sind und so den handelnden Menschen von seiner Verantwortung befreien. Das sind die Ursachen für die Schwierigkeiten des Menschen mit seinen heutigen Energieumwandlungsmöglichkeiten, die in entwicklungsgeschichtlich derart kurzer Zeit um Größenordnungen anwuchsen, dass der Mensch hierzu noch kein angemessenes implizites und kollektives Wissen aufbauen konnte.[9]

Informationstheoretische Entropie

Als ein Maß der Informationstheorie hielt die Shannon-Entropie Einzug in die Sozialwissenschaften bei der Entwicklung von Konzentrationsmaßen und Kennzahlen für die Ungleichverteilung beispielsweise der Einkommensverteilung und Vermögensverteilung. Hieraus entstanden die Entropiemaße von Henri Theil[14][15], Anthony Atkinson[14][16] und Serge-Christophe Kolm[16]. Der Theil-Index und das Atkinson-Maß werden jedoch nicht nur bei der Untersuchung von Einkommens- und Vermögensverteilungen verwendet, sondern beispielsweise in der Soziologie auch bei der Beobachtung der Segregation von Bevölkerungsgruppen.

Beispiel: der Theil-Index

Die Bezeichnung „Entropiemaß“ bereitet selbst hervorragenden Wissenschaftlern Schwierigkeiten. In On Economic Inequality (Kapitel 2.11)[17] meinte Amartya Sen, dass der Begriff Entropie nicht gerade intuitiv sei. Zwar sei die von seinem Mitautor (James Foster) verwendete Theil-Entropie „interessant“, aber es wunderte ihn, dass eine hohe Ungleichverteilung beispielsweise von Einkommen eine hohe Entropie und damit eine hohe Unordnung ergäbe. Sen geht sogar soweit, Theils Formel als „willkürlich“ zu bewerten.

Redundanz ist die Differenz zweier Entropien

Verfügt ein System in einer seiner Kategorien über Redundanz, so bedeutet das, dass sich das System in dieser Kategorie mit eigenen Mitteln verändern kann. Wie die Redundanz eines Systems sich (für die Kategorie der internen Ressourcenverteilung) aus der Differenz zweier Entropien des Systems ermitteln lässt, zeigt die Berechnung des Theil-Index, der ein in der Soziometrie und der Ökonometrie benutztes Ungleichverteilungsmaß ist, das Henri Theil aus der Informationstheorie ableitete.

Im Hinblick auf Allgemeinverständlichkeit soll dieser Artikel ohne Formeln auskommen; nur im Folgenden wird einmal eine Ausnahme gemacht und Theils Index stellvertretend für alle als Entropiemaß gestaltete Ungleichverteilungsmaße herangezogen. Die Einzelheiten sind im Hauptartikel Theil-Index erklärt. Mit der hier angegebenen Variante der Formel können Ungleichverteilungen berechnet werden, bei denen N mit Quantilen abgegrenzte Bereiche (in diesem Beispiel sind das Gruppen von Einkommensbeziehern) eine unterschiedliche Breite A haben: Ei sei das Einkommen im i-ten Bereich und Ai sei die Anzahl (oder der prozentuale Anteil) der Einkommensbezieher im i-ten Bereich.[18] Egesamt sei die Summe der Einkommen aller N Bereiche und Agesamt sei die Summe der Einkommensbezieher aller N Bereiche (oder 100%).

Sens Verwunderung ist in diesem Fall nicht der Problematik (s.o.) der Gleichsetzung von Entropie und Unordnung zuzuschreiben, sondern die Auflösung von Sens Problem ergibt sich, wenn man Theils Formeln[19] in zwei Teile aufteilt und wie folgt darstellt:

  • Die in einen linken und einen rechten Teil aufgeteilte Formel für Bevölkerungsanteile, die sich auf Einkommen verteilen, arbeitet mit auf Einkommen bezogenen Summanden:

T_T = \ln{\frac{{A}_\mathrm{gesamt}}{{E}_\mathrm{gesamt}}} - \frac{\sum_{i=1}^N {{E}_i} \ln{\frac{{A}_i}{{E}_i}}}{{E}_\mathrm{gesamt}}
  • Die in einen linken und einen rechten Teil aufgeteilte Formel für Einkommen, die sich auf Bevölkerungsanteile verteilen, hat auf Bevölkerungsanteile bezogenen Summanden[20]:

T_L = \ln{\frac{{E}_\mathrm{gesamt}}{{A}_\mathrm{gesamt}}} - \frac{\sum_{i=1}^N {{A}_i} \ln{\frac{{E}_i}{{A}_i}}}{{A}_\mathrm{gesamt}}

Tatsächlich enthält jede der beiden Formeln zwei Entropien. Der Teil links vom Minuszeichen ist die maximale Entropie (bei Gleichverteilung). Der Teil rechts vom Minuszeichen ist die tatsächliche Entropie (für eine tatsächlich gegebene Verteilung). Eine solche Differenz ist in Anlehnung an die Informationstheorie[21] keine Entropie, sondern eine Redundanz.

Amartya Sen wunderte sich zu Recht: Der Theil-Index ist keine Theil-Entropie, sondern eine Theil-Redundanz. Als Differenz zweier Entropien bleibt jedoch auch die Redundanz in der Entropiedomäne. Obwohl Theils, Atkinsons und Kolms Ungleichverteilungsmaße Redundanzen sind, kann man sie deswegen weiterhin als Entropiemaße bezeichnen. Sie als „Entropien“ zu bezeichnen, kann dagegen zu Verwirrungen führen.

Mit normalisierten Daten E'i = Ei / Egesamt und A'i = Ai / Agesamt werden die Formeln noch einfacher:


T_T = 0 - \frac{\sum_{i=1}^N {{E}'_i} \ln{\frac{{A}'_i}{{E}'_i}}}{1} = \sum_{i=1}^N {{E}'_i} \ln{\frac{{E}'_i}{{A}'_i}}

T_L = 0 - \frac{\sum_{i=1}^N {{A}'_i} \ln{\frac{{E}'_i}{{A}'_i}}}{1} = \sum_{i=1}^N {{A}'_i} \ln{\frac{{A}'_i}{{E}'_i}}

Die maximale Entropie wird hierbei auf Null verschoben. Die tatsächliche gegebene Verteilung stellt sich dann als eine negative Entropie dar. Das ist die Redundanz.

Der Mittelwert beider Redundanzen ist ein symmetrisierter Theil-Index:


T_s = {\frac{1}{2}} \sum_{i=1}^N \ln \frac{{E}'_i}{{A}'_i} \left({{E}'_i}-{{A}'_i} \right)

Des Einen Ordnung ist des Anderen Unordnung

Das Beispiel verdeutlicht auch die Problematik der Gleichsetzung von Entropie mit Unordnung. Bei Erreichen einer völligen Gleichverteilung nimmt der Theil-Index den Wert „Null“ an. Das ist maximale Entropie beziehungsweise minimale Redundanz. Aber bedeutet das auch „maximale Unordnung“? Ist maximale Konzentration „maximale Ordnung“? Wenn leichte Auffindbarkeit ein Kriterium für Ordnung wäre, dann bestünde maximale Ordnung tatsächlich bei maximaler Ungleichverteilung, denn diese Verteilung ergibt sich, wenn zum Beispiel das gesamte Vermögen einer Gesellschaft bei einer einzigen Person untergebracht ist. Das Kriterium der leichten Auffindbarkeit stünde mit der informationstheoretischen Definition von Entropie als Maß des Informationsmangels im Einklang. Um das bei einem Einzigen untergebrachte Vermögen Aller zu finden, muss nur eine einzige Adresse erfragt und mitgeteilt werden. Dieser kleine Informationsmangel ist einfach zu beheben. In einer realen Gesellschaft gäbe es bei dieser maximalen Ordnung jedoch auch maximalen Unfrieden, verursacht durch als maximal empfundene Ungerechtigkeit. Für Egalitaristen ist maximale Ordnung jedoch die Gleichverteilung des Vermögens. Empirische Untersuchungen[22] zeigen jedoch, dass viele Menschen eine Ungleichverteilung in einem unscharfen Bereich zwischen totaler Gleichverteilung und totaler Ungleichverteilung für optimal halten.

Übereinstimmung von Formel und Entropie-Erklärung

Theils Formel steht auch im Einklang mit Gell-Manns Erklärung der Entropie, in der von einem „Aufwand“ die Rede ist. Links vom Minuszeichen ist Agesamt / Egesamt beispielsweise das gleichverteilte Vermögen pro Besitzer. Wie wird nun der Informationsaufwand berechnet, der erforderlich ist, um den sich aus diesem Bruch ergebenden Quotienten darzustellen? Das geschieht mit einer skalierenden Funktion, die Logarithmus genannt wird: Der Logarithmus einer Zahl ist proportional zu dem Aufwand, der gebraucht wird, um diese Zahl aufzuschreiben. Das ist der Informationsaufwand, der erforderlich ist, das gleichverteilte Pro-Kopf-Vermögen mitzuteilen. Rechts vom Minuszeichen ist Ai / Ei das tatsächliche Vermögen pro Besitzergruppe. Auch hier beschreibt wieder der Logarithmus dieser Zahl den Platz, der gebraucht wird, um diese Zahl aufzuschreiben. Da die Gruppe aber weniger Gewicht hat, als das Ganze, müssen die einzelnen Aufwände noch mit Ei / Egesamt gewichtet werden.

Erfahrungen aus der Biophysik

Der Forschungsgegenstand der Sozialwissenschaften sind komplexe Systeme. Damit bieten sich den Sozialwissenschaften die Erfahrungen aus der Physik komplexer Systeme an, also Erfahrungen der Biophysik. Deutlich wird hier beispielsweise die Schwierigkeit, die Entropie von Lebewesen ("Was ist die Entropie einer Katze?"[23]) quantitativ anzugeben. Andererseits hilft das Verständnis für Entropie und die ihr zugrunde liegenden Sätze, das Verhalten komplexer Systeme besser zu verstehen. Dem Biophysiker Michail Wladimirowitsch Wolkenstein sind gut verständliche Einführungen[24][25] für wissenschaftlich ausgebildete Leser zu diesem Thema zu verdanken.

Entropie als Maß des „Unwissens“

Murray Gell-Mans Erklärung der Entropie als zur Minderung des „Unwissens“ nötiger Aufwand wurde am Anfang dieses Artikels nur verkürzt wiedergegeben. Seine Erklärung wurde von Ilya Prigogine kritisiert[26], weil er meinte, man könne so durch Wissensänderung in einem geschlossenen System die Entropie verringern. Darum ist es wichtig, bei Gell-Manns Definition zu beachten, dass sie nicht festlegt, dass die Behebung des Informationsmangels tatsächlich erfolgen muss. Es geht um den potenziellen Aufwand zur Behebung von Informationsmangel. Würde der Aufwand im geschlossenen System realisiert und dadurch eine Entropieminderung bewirkt, so würde diese Minderung durch eine vom Aufwand bewirkte Entropiesteigerung mindestens kompensiert werden. Hier schließt sich schon wieder der Kreis zu Leó Szilárd (s.o.), der basierend auf diesem Zusammenhang zeigte, dass intelligente Wesen (einschließlich Maxwells Dämon) in einem geschlossenen System die Entropie nicht verringern können.

Statistische Physik

Wie kommt es zu Gell-Mans Erklärung? Entropie wurde zuerst als physikalische Größe in der Thermodynamik verwendet und phänomenologisch verstanden. Erklärbar sind die ihr zugrunde liegenden Vorgänge und Zusammenhänge mit den Erkenntnissen aus der von Ludwig Boltzmann begründeten Statistischen Physik (auch Statistische Mechanik oder Statistische Physik genannt). Nicht historisch, aber systematisch bietet sich darum Boltzmanns Entropie als gemeinsame Basis für die Erklärung sowohl der thermodynamischen (nach Clausius) wie auch der informationstheoretischen Entropie (nach Shannon) an[27].

Makrozustand und seine Mikrozustände

Für Sozialwissenschaftler ist Statistik ein gewohntes Handwerkszeug. Mit ihr beschreiben sie beispielsweise die Makrozustände einer Gesellschaft, die sich aus den vielen Mikrozuständen der in ihrer Umwelt handelnden Menschen ergeben. Gegebenenfalls sind diese Mikrozustände für sich auch wieder Makrozustände, die sich auf noch kleinere Mikrozustände herunterbrechen lassen. Das führt zu komplexen Systemen, die nur auf der Makroebene geführt[28] werden können. Das Wissen um das Zusammenwirken der Mikrozustände hilft, die möglichen Makrozustände abzuschätzen, aber die Mikrozustände selbst entziehen sich der praktischen Handhabbarkeit.

Auch in der statistischen Physik werden die Makrozustände eines Systems als eine statistische Beschreibung der Mikrozustände behandelt, die zu den Makrozuständen führen. Beispielsweise ist die Temperatur eine statistische Größe im Makrobereich, die im Mikrobereich (örtlich und zeitlich) fluktuiert und sich aus dem einzelnen Verhalten der vielen Partikel des Körpers ergibt, für den diese Temperatur gemessen wird. Selbst wenn das Verhalten eines einzelnen Partikels beobachtbar wäre, könnte eine Beobachtung aller Partikel in den in unserer Alltagswelt für uns mit bloßem Auge sichtbaren Körpern nicht realisiert werden. Dieses Beispiel dient nun dazu, die Begriffe Makro- und Mikrozustand einzuführen, bevor eine der Möglichkeiten folgt, Entropie zu erklären: „Die Entropie und Information haben einen engen Zusammenhang. Tatsächlich kann Entropie als ein Maß des Unwissens verstanden werden. Wenn nur bekannt ist, dass sich ein System in einem gegebenen Makrozustand befindet, dann beschreibt die Entropie eines Makrozustandes den Grad des Unwissens über den Mikrostatus. Dieser Grad ist die Anzahl der Bits der zusätzlichen Information, die noch benötigt wird, um den Mikrostatus vollständig zu spezifizieren. Dabei werden alle Mikrozustände als gleichermaßen wahrscheinlich behandelt.[29]“ In einer Systemtheorie für Psychologen beschreibt Norbert Bischof Entropie in ähnlicher Weise als „das Maß für das Quantum an unvorhersehbarer Aktualität, also an ‚Information‘, das im Durchschnitt durch jeden Auswahlakt der Signalquelle erzeugt wird.[30]“. Nach Richard Becker ist Entropie nicht Unwissen, sondern eine Funktion des Unwissens: „S = k ln(Unkenntnis)“[31]. Damit bleibt die Entropie auch hier ein Maß des Unwissens.

Fluktuationen

Wenn alle Milch in Ihrem durchgerührten Kaffee sich ohne äußere Einwirkung plötzlich irgendwo in der Tasse wieder unerwarteterweise zusammenrotten würde, wäre das eine Fluktuation. Dass das tatsächlich passiert, ist jedoch für das Makrosystem Kaffee extrem unwahrscheinlich. Möglich ist diese Fluktuation durchaus. Sie wird aber wohl niemals beobachtet werden.

Auf Mikroebene dagegen sind kurzzeitige Konzentrationserhöhungen als lokale Entropieverminderungen mit höherer Wahrscheinlichkeit möglich. Bei einem extrem großen Makrosystem als Beispiel kann das Auftreten lokaler Fluktuationen wiederum aus anderen Gründen beobachtbar werden: Extrem viele extrem niedrige Auftrittswahrscheinlichkeiten können zu einer ausreichend hohen Wahrscheinlichkeit führen, dass irgendwo doch ein „unerwartetes“ Ereignis beobachtbar wird. Die Atmosphäre der Erde ist zum Beispiel genügend groß, um immerhin soviele „seltene“ Zusammenballungen von Molekülen zuzulassen, dass von hinreichend vielen solcher Zusammenballungen im sichtbaren Spektrum kurzwelligeres Licht von diesen Fluktuationen reflektiert wird und so in unsere Augen gelangt. Darum sehen wir einen blauen Himmel.

Die Möglichkeit von Fluktuationen bedeutet, dass bei der Systemanalyse sorgfältig verstanden werden muss, ob bei Systemen mit wenigen Makrozuständen Schwankungen durch kurze Fluktuationen zu berücksichtigen sind, derentwegen aufeinanderfolgenden Zustände nicht mehr durch einen Anstieg der Entropie zu identifizieren und in die richtige Reihenfolge zu bringen sind. Und auch bei sehr großen Systemen können Fluktuationen auch eine Wirkung haben. Außerdem kann hinsichtlich der Unendlichkeit und auch der Länge der Menschheitsgeschichte „kurz“ auch für viele Jahre stehen. Für die Sozialwissenschaften bedeutet das, dass nicht immer sicher ist, ob ein Zustand (zum Beispiel Wirtschaftswachstum) von signifikanter Dauer ist, oder nur eine Fluktuation vorliegt.

Entropiekapazität

Entropiekapazität und Wärme

In der Physik haben Körper eine Eigenschaft, die Joseph Black „Wärmekapazität“ nannte. Heute wird diese Eigenschaft als „Entropiekapazität“ bezeichnet. Die Träger der Entropiekapazität im Körper sind eine Vielzahl von Teilchen, aus deren Verhalten (Geschwindigkeit, Rotation, Position) sich die Mikrozustände des Körpers ergeben. Zusammen führen sie zu dem Makrozustand „Wärme“ des Systems Körper. Diese „Wärme“ ist „Entropie“[32]. Je wärmer der Körper ist, also je mehr Entropie er hat, desto mehr der gesamten Mikrozustandsmöglichkeiten des Körpers sind „besetzt“. Sind die gesamten Mikrozustandsmöglichkeiten alle besetzt, dann ist die maximale Entropie des Körpers erreicht. Sollen mehr Mikrozustände realisiert werden, als der Körper darstellen kann, dann gefährdet das seine strukturelle Integrität.

Die Entropie des Körpers wird mit dem Logarithmus der aktuell besetzten Mikrozustandsmöglichkeiten dieses Systems quantitativ angegeben. Historisch bedingt, wird die Entropie noch mit der Boltzmannkonstante k ≈ 1,381 • 10-23 • Joule/Kelvin multipliziert. Das ist die mittlere Energie eines Mikrozustandes für eine gegebene Temperatur. In einem Einheitensystem ohne den Makrozustand „Temperatur“ kann auf diese Multiplikation verzichtet werden. Die Boltzmann-Entropie ist dann dimensionslos, wie die Shannon-Entropie. Die Temperatur steht nicht mehr zur Darstellung eines Makrozustandes zur Verfügung. Aber der Makrozustand kann trotzdem beschrieben werden, und zwar durch die entsprechende mittlere Energie, die er bei der gegebenen Temperatur hätte[5]. Als Alternative zur Verbannung der die Entropie verkomplizierenden Temperatur aus der Physik ist auch ein anderer Weg denkbar: Die Einführung der „Informationstemperatur“[33].

Zusammenführung der verschiedenen Entropie-Konzepte

Die strukturelle Kopplung zwischen Wirtschaft und Gesellschaft sowie zwischen Gesellschaft und materieller Umwelt erlaubt verschiedenste Arten von Entropietransfer, also auch eine Wechselwirkung von Informationsentropien und thermodynamischen Entropien. Wie weit die physische Entropie mit der metaphysischen Entropie zusammengeführt werden kann, ist jedoch in der Diskussion.[34] Zwei Wege, die dort hinführen, wurden bereits angesprochen:

  • Die Entropie der Informationstheorie wird in die Thermodynamik überführt.[35]
  • Die thermodynamische Entropie wird informations- und wahrscheinlichkeitstheoretisch erklärt.[3][5]

Tatsächlich ist eine Erklärung der Wirkmechanismen der thermodynamischen Entropie exakt über die Wahrscheinlichkeitstheorie möglich.

Die quantitative Angabe der Entropie und die quantitative Beschreibung von Entropie-Änderungen in komplexen[36] Systemen bleibt schwierig bis unmöglich, was mit der Entropie der beschreibenden Systeme (Menschen und ihre Hilfsmittel) zu erklären ist. Trotzdem ist ein Verständnis für die Wirkung von Entropie von Systemen (siehe Einleitung dieses Artikels) hilfreich, um die Wechselwirkung zwischen Systemen und ihrer Umwelt zu verstehen.[37] Dazu gehört die prinzipielle Unmöglichkeit autarken Handelns. Öffnet sich ein System, dann ist der Verzicht auf Unabhängigkeit das Ziel dieser Öffnung.

Einzelnachweise

  1. Lewis, Gilbert Newton (1930): The Symmetry of Time in Physics, Science, 71, 0569
  2. Leon Neil Cooper (1968): An Introduction to the Meaning and the Structure of Physics
  3. a b Ben-Naim, Arieh (2008): A Farewell to Entropy: Statistical Thermodynamics Based on Information
  4. Wöhlcke, Manfred (2003): Das Ende der Zivilisation. Über soziale Entropie und kollektive Selbstzerstörung.
  5. a b c Ben-Naim, Arieh (2007): Entropy Demystified, Kapitel 8.2: The Association of Entropy with „Disorder“
  6. Georgescu-Roegen, Nicholas (1971): The entropy law and economic process, Cambridge, Mass.
  7. Coyle, Diane (1999): The Weightless World: Thriving in the Digital Age (Beispiel für Kritik an einer als „physiokratisch“ bezeichneten Position)
  8. Szilárd, Leó (1929): Über die Entropieverminderung in einem thermodynamischen System bei Eingriffen intelligenter Wesen. Zeitschrift für Physik 1929; 53: 840-856, Springer-Verlag Berlin (Habilitationsschrift), zu finden in Leff, Harvey S./Rex, Andrew F. (1991): Maxwell's Demon - Entropy, Information, Computing
  9. a b Verbeeck, Bernhard (1998): Anthropologie der Umweltzerstörung
  10. Scheer, Hermann (1998): Sonnen-Strategie, darin Die Entropiesteuer (Kapitel 8)
  11. Kafka, Peter (1998), Zeit zum Aufstehen: „Man könnte diese Steuer aufs ‚Durcheinanderwerfen der Biosphäre‘ auch als ‚Entropiesteuer‘ bezeichnen.“
  12. Luhmann, Niklas (1988): Die Wirtschaft der Gesellschaft. In dem Buch zeigt Luhmann, dass in der Wirtschaft ausschließlich Geld das Kommunikationsmedium ist, eine physikalische Größe wie „Entropie“ kann daher im operativ geschlossenen Wirtschaftssystem nicht kommuniziert werden. Die Wirtschaft ist jedoch soweit mit ihrer Umwelt strukturell gekoppelt, dass die Umwelt Kommunikationen im Wirtschaftssystem bewirkt. Diese erfolgen allerdings immer über das Kommunikationsmittel Geld. Deswegen wird in dieser Kommunikation des Handels keine direkt wahrnehmbare Beziehung zwischen Umweltbelastung und Kosten vermittelt.
  13. Siddhartha Gautama (vermutlich aus dem Jahr 483 v. Chr. überliefert): Dígha Nikáya (DN 16.3.6), Maháparinibbána Sutta
  14. a b Cowell, Frank A. (2002, 2003): Theil, Inequality and the Structure of Income Distribution, London School of Economics and Political Sciences (mit Bezugnahmen zu der „Klasse der Kolm-Indizes“, das sind Maßzahlen für Ungleichverteilungen wie zum Beispiel der Theil-Index)
  15. Theil, Henri (1971): Principles of Econometrics
  16. a b Tsui, Kai-Yuen (1995): Multidimensional Generalizations of the Relative and Absolute Inequality Indices: The Atkinson-Kolm-Sen Approach. Journal of Economic Theory 67, 251-265.
  17. Sen, Amartya (1997): On Economic Inequality, Enlarged Edition with a substantial annexe after a Quarter Century with James Foster, Oxford
  18. Die Notation mit E und A folgt der Notation einer kleinen Formelsammlung von Lionnel Maugis: Inequality Measures in Mathematical Programming for the Air Traffic Flow Management Problem with En-Route Capacities (für IFORS 96), 1996
  19. Cuong Nguyen Viet (2007): Do Foreign Remittances Matter to Poverty and Inequality? Evidence from Vietnam (Die Formeln gelten für Bereiche mit gleicher Breite (Quantile mit gleichem Abstand). Die hier im Artikel angegebenen Formeln kann man auch auf Bereiche mit unterschiedlicher Breite anwenden.)
  20. Helpman, Elhanan (2004): The Mystery of Economic Growth (Die beiden Formeln entsprechen den beiden vom Autor auf S.150 erwähnten Berechnungsweisen des Theil-Index: In der ersten Formel erfolgt die Gewichtung durch den Einkommensanteil, in der zweiten durch den Bevölkerungsanteil. Der Mittelwert beider Formeln führt zu dem im Artikel Theil-Index für den Vergleich mit der Hoover-Ungleichverteilung benutzten symmetrierten Theil-Index.)
  21. ISO/IEC DIS 2382-16:1996 definiert die Redundanz in der Informationstheorie
  22. Amiel / Cowell, F.A. (1999): Thinking about inequality, 1999
  23. Edwin Thompson Jaynes: Papers on Probability, Statistics and Statistical Physics. ed. R. D. Rosencrantz, Reidel, Dordrecht 1983 ; zitiert in: Jean Bricmont: Science of Chaos or Chaos in Science? In: Physicalia Magazine. 17, (1995) 3-4, S. 159–208.
  24. Michail Wladimirowitsch Wolkenstein: Entropie und Information. 1986. (Wegen Urheberrechtsstreitigkeiten zwischen zwei russischen Verlagen wurde diese Übersetzung ins Deutsche vom Markt genommen. Sie ist aber in vielen Bibliotheken zu finden.)
  25. Michail Wladimirowitsch Wolkenstein: Physical Approaches to Biological Evolution. 1994
  26. Prigogine, Ilya (1997): The End of Certainty, Time, Chaos and the New Laws of Nature
  27. Ben-Naim, Arieh (2007): Entropy Demystified (populärwissenschaftlich); Ben-Naim, Arieh (2008): Statistical Thermodynamics Based on Information: A Farewell to Entropy (Lehrbuch)
  28. Malik, Fredmund (1984/2006): Strategie des Managements komplexer Systeme
  29. Gell-Mann, Murray (1994): The Quark and the Jaguar (Zitat zur besseren Verständlichkeit syntaktisch und grammatisch leicht verändert. „Ignorance“ wurde mit „Unwissen“ übersetzt.)
  30. Bischof, Norbert (1998): Struktur und Bedeutung (Im Original „Quelle“ anstelle von „Signalquelle“ im Zitat.)
  31. Becker, Richard (1955): Theorie der Wärme
  32. Land Rheinland-Pfalz (2000): Energie und Entropie, PZ-Information 1/2000
  33. Ingarden, Roman Stanisław (1997): Information dynamics and open systems: classical and quantum approach (Der Autor ist der Sohn von Roman Witold Ingarden.)
  34. Vojta, Günter / Vojta, Matthias (2000): Taschenbuch der statistischen Physik, Kapitel 7 Statistische Physik und Informationstheorie
  35. Lange, Franz H. (1966): Signale und Systeme, Band 3, S.64
  36. Ebeling, W. / Freund, J., Schweitzer, F. (1998): Komplexe Strukturen: Entropie und Information
  37. Vojta, Günter / Vojta, Matthias (2000): Taschenbuch der statistischen Physik, Kapitel 13.2.2 Stochastische Theorien des Verhaltens: „Immerhin eröffnen sich durch Anwendung der Methoden der statistischen Physik neue Wege zur Erforschung und zum Verständnis des Verhaltens sehr komplexer Systeme der Soziologie, Ökologie und Ökonomie.“

Wikimedia Foundation.

Игры ⚽ Нужен реферат?

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Entropie — Der Begriff Entropie (griechisches Kunstwort εντροπία [entropía], von εν [en ] – ein , in und τροπή [tropē] – Wendung, Umwandlung) steht für: Mathematik Entropieschätzung, verschiedene Methoden zur statistischen Schätzung der Shannon Entropie auf …   Deutsch Wikipedia

  • Soziale Entropie — In die Sozialwissenschaften fand der Begriff der Entropie Eingang sowohl als physikalische Zustandsgröße wie auch als ein Maß aus der Informationstheorie. Eine der menschlichen Intuition entgegenkommende Weise, die Bedeutung von Entropie… …   Deutsch Wikipedia

  • Ungleichverteilung — Ungleichverteilungsmaße beschreiben den Grad der Ungleichverteilung einer Größe gegenüber einer anderen Größe. In den Sozialwissenschaften sind diese Größen auf der einen Seite häufig Ressourcen wie Einkommen oder Vermögen und auf der anderen… …   Deutsch Wikipedia

  • Ungleichverteilungsmaße — beschreiben den Grad der Ungleichverteilung einer Größe gegenüber einer anderen Größe. In den Sozialwissenschaften sind diese Größen auf der einen Seite häufig Ressourcen wie Einkommen oder Vermögen und auf der anderen Seite die Anzahl derer, die …   Deutsch Wikipedia

  • Ungleichverteilungsmaß — Ein Ungleichverteilungsmaß beschreibt den Grad der Ungleichverteilung einer Größe gegenüber einer anderen Größe. In den Sozialwissenschaften sind diese Größen auf der einen Seite häufig Ressourcen wie Einkommen oder Vermögen und auf der anderen… …   Deutsch Wikipedia

  • Distributive Gerechtigkeit — Verteilungsgerechtigkeit bezeichnet die Gerechtigkeit von Verteilungsregeln und ihren Ergebnissen. Entsprechend gibt es eine Regelgerechtigkeit und eine Ergebnisgerechtigkeit. Die Ergebnisgerechtigkeit ist ein Gerechtigkeitskonzept, das solche… …   Deutsch Wikipedia

  • Ergebnisgerechtigkeit — Verteilungsgerechtigkeit bezeichnet die Gerechtigkeit von Verteilungsregeln und ihren Ergebnissen. Entsprechend gibt es eine Regelgerechtigkeit und eine Ergebnisgerechtigkeit. Die Ergebnisgerechtigkeit ist ein Gerechtigkeitskonzept, das solche… …   Deutsch Wikipedia

  • Redundant — Redundanz (latein. redundare „im Überfluss vorhanden sein“) bezeichnet grundsätzlich einen Zustand von Überschneidung oder Überfluss. Es hat in verschiedenen Gebieten eine spezifische Bedeutung: Geräte und Anlagentechnik: Hier steht Redundanz für …   Deutsch Wikipedia

  • Bimbes — 10.000.000 Mark Banknote der Freien Stadt Danzig (1923) 5 Euro Banknote …   Deutsch Wikipedia

  • Entwicklung des Geldes — 10.000.000 Mark Banknote der Freien Stadt Danzig (1923) 5 Euro Banknote …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”