Wie verhält sich Entropie zur Chaostheorie?

ENTROPIE

Entropie ist im Allgemeinen ein Maß für "Störung". Es ist an sich keine gute Definition, aber so wird es im Allgemeinen definiert. Eine konkretere Definition wäre:

#color(blue)(DeltaS = int1/T delq_"rev")#

where:

  • #q_"rev"# is the reversible (i.e. most efficient) heat flow
  • #T# is temperature
  • #S# is entropy

Die #del# impliziert, dass der Wärmefluss keine Zustandsfunktion ist (wegunabhängig), sondern a Weg(-abhängig) Funktion. Die Entropie ist jedoch eine wegunabhängige Funktion.

CHAOSTHEORIE

Chaos-Theorie Grundsätzlich heißt es, dass ein System, wo nicht Zufälligkeit ist an der Erzeugung zukünftiger Zustände im System beteiligt kann immer noch sein unberechenbar. Wir müssen uns nicht mit der Definition befassen, was ein chaotisches System ausmacht, da dies weit außerhalb des Rahmens der Frage liegt.

Ein Beispiel für ein chaotisches System ist die Arbeit mit Zahlen in der Computerprogrammierung, die sich in der Nähe befinden Maschinengenauigkeit (nur die Grenzlinie ist im Grunde genommen zu klein); es wird extrem schwierig sein, sie zu behalten vollständig unverändert, auch wenn Sie nur versuchen, eine bestimmte kleine Zahl auszudrucken (z. B. in der Nähe von #10^(-16)# auf einem 64-Bit Linux).

Also, wenn Sie versuchen zu drucken #5.2385947493857347xx10^(-16)# mehrmals erhalten Sie möglicherweise:

  • #2.7634757416249547xx10^(-16)#
  • #9.6239678259758971xx10^(-16)#
  • #7.2345079403769486xx10^(-16)#

...etc. Das macht dieses chaotische System unvorhersehbar; du erwartest #5.2385947493857347xx10^(-16)#, aber Sie werden das wahrscheinlich nicht in einer Million Versuchen bekommen.

CHAOS-THEORIE GEGEN. ENTROPIE

Im Wesentlichen ist die Grundidee der Chaostheorie, die sich auf Entropie bezieht, die folgende das System neigt zu "Unordnung", dh etwas, das nicht vorhersehbar ist. (Es ist NICHT der zweite Hauptsatz der Thermodynamik.)

Dies impliziert, dass das Universum ein chaotisches System ist.

Wenn Sie einen Haufen nicht klebriger Bälle auf den Boden fallen lassen, können Sie nicht garantieren, dass sie zusammenbleiben UND jedes Mal genau auf den gleichen Punkt fallen UND nach dem Sturz an Ort und Stelle bleiben. Es ist für sie entropisch günstig, sich voneinander zu trennen und sich beim Auftreffen auf den Boden zu zerstreuen.

That is, you cannot predict exactly how they will fall.

Selbst wenn Sie sie aneinander haften ließen, Ballsystem verringert in Entropie einfach vom Fallen zum System getrennte aus dem menschlichen System, und die menschliches System hat verringert in der Entropie, als die Kugeln seine / ihre Hände verließen.

Less microstates available to the system = smaller entropy for the system.

Zusätzlich kann die Universum hat jetzt erhöht in der Entropie, weil die Anzahl der betrachteten Systeme hat verdoppelt (du + Bälle). Es ist immer irgendwie erklärt.

WIE KANN ENTROPY EINE STAATLICHE FUNKTION SEIN, WENN SIE DER CHAOS-THEORIE FOLGT?

Es wurde zuvor bewiesen, dass Entropie eine Zustandsfunktion ist.

Das heißt, wir können den Anfangs- und Endzustand bestimmen, ohne uns Gedanken über den Pfad zu machen, der verwendet wird, um dorthin zu gelangen. Das ist tröstlich, weil in einem chaotisches System, wir können nicht Notwendig den Endzustand vorhersagen.

Aber wenn wir weiß schon Der endgültige Zustand, den wir erreichen wollen (das heißt, wir wählen ihn selbst), die Eigenschaft der Zustandsfunktion der Entropie ermöglicht es uns, den von uns benutzten Pfad anzunehmen spielt keine rolle solange es das erzeugt genau Endzustand wollen wir.

Den Endzustand im Voraus zu kennen, überwindet die Grundzüge der Chaostheorie.