<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Nola &#8211; Die Kluge Eule</title>
	<atom:link href="https://dieklugeeule.com/author/nola/feed/" rel="self" type="application/rss+xml" />
	<link>https://dieklugeeule.com</link>
	<description></description>
	<lastBuildDate>Sat, 01 Feb 2020 18:18:50 +0000</lastBuildDate>
	<language>de-DE</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.0</generator>

<image>
	<url>https://dieklugeeule.com/wp-content/uploads/2022/04/cropped-logo-smal-2-32x32.jpg</url>
	<title>Nola &#8211; Die Kluge Eule</title>
	<link>https://dieklugeeule.com</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Wie verhält sich Entropie zur Chaostheorie?</title>
		<link>https://dieklugeeule.com/wie-verhalt-sich-entropie-zur-chaostheorie/</link>
		
		<dc:creator><![CDATA[Nola]]></dc:creator>
		<pubDate>Sat, 01 Feb 2020 18:18:50 +0000</pubDate>
				<category><![CDATA[Chemie]]></category>
		<guid isPermaLink="false">https://dieklugeeule.com/?p=6984</guid>

					<description><![CDATA[Wie verhält sich Entropie zur Chaostheorie? ENTROPIE Entropie ist im Allgemeinen ein Maß für &#34;Störung&#34;. Es ist an sich keine gute Definition, aber so wird es im Allgemeinen definiert. Eine konkretere Definition wäre: #color(blue)(DeltaS = int1/T delq_"rev")# where: #q_"rev"# is the reversible (i.e. most efficient) heat flow #T# is temperature #S# is entropy Die #del# ... <a title="Wie verhält sich Entropie zur Chaostheorie?" class="read-more" href="https://dieklugeeule.com/wie-verhalt-sich-entropie-zur-chaostheorie/" aria-label="Mehr dazu unter Wie verhält sich Entropie zur Chaostheorie?">Weiterlesen</a>]]></description>
										<content:encoded><![CDATA[<h1 class="questionTitle">Wie verhält sich Entropie zur Chaostheorie?</h1>
<div class="answerContainer clearfix">
<div class='answerText'>
<div class="answerDescription">
<div>
<div class='markdown'>
<p class="gt-block"><strong><a href="http://socratic.org/chemistry/thermochemistry/entropy">ENTROPIE</a></strong></p>
<p class="gt-block"><strong>Entropie</strong> ist im Allgemeinen ein Maß für &quot;Störung&quot;. Es ist an sich keine gute Definition, aber so wird es im Allgemeinen definiert. Eine konkretere Definition wäre:</p>
<blockquote class="notranslate">
<p>#color(blue)(DeltaS = int1/T delq_"rev")#</p>
<p>where:</p>
<ul>
<li>#q_"rev"# is the reversible (i.e. most efficient) <strong>heat flow</strong></li>
<li>#T# is <strong>temperature</strong></li>
<li>#S# is <strong>entropy</strong></li>
</ul>
</blockquote>
<p class="gt-block">Die #del# impliziert, dass der Wärmefluss keine Zustandsfunktion ist (wegunabhängig), sondern a <strong>Weg</strong>(-abhängig) <strong>Funktion</strong>. Die Entropie ist jedoch eine wegunabhängige Funktion.</p>
<p class="gt-block"><strong>CHAOSTHEORIE</strong></p>
<p class="gt-block"><a href="https://en.wikipedia.org/wiki/Chaos_theory" rel="nofollow"><strong>Chaos-Theorie</strong></a> Grundsätzlich heißt es, dass ein System, wo <strong><em>nicht</em></strong> <em>Zufälligkeit</em> ist an der Erzeugung zukünftiger Zustände im System beteiligt <strong><em>kann</em></strong> immer noch sein <em>unberechenbar</em>. Wir müssen uns nicht mit der Definition befassen, was ein chaotisches System ausmacht, da dies weit außerhalb des Rahmens der Frage liegt.</p>
<p class="gt-block">Ein Beispiel für ein chaotisches System ist die Arbeit mit Zahlen in der Computerprogrammierung, die sich in der Nähe befinden <strong>Maschinengenauigkeit</strong> (nur die Grenzlinie ist im Grunde genommen zu klein); es wird extrem schwierig sein, sie zu behalten <strong><em>vollständig</em></strong> unverändert, auch wenn Sie nur versuchen, eine bestimmte kleine Zahl auszudrucken (z. B. in der Nähe von #10^(-16)# auf einem 64-Bit Linux).</p>
<p>Also, wenn Sie versuchen zu drucken #5.2385947493857347xx10^(-16)# mehrmals erhalten Sie möglicherweise:</p>
<ul>
<li>#2.7634757416249547xx10^(-16)#</li>
<li>#9.6239678259758971xx10^(-16)#</li>
<li>#7.2345079403769486xx10^(-16)#</li>
</ul>
<p>...etc. Das macht dieses chaotische System unvorhersehbar; du erwartest #5.2385947493857347xx10^(-16)#, aber Sie werden das wahrscheinlich nicht in einer Million Versuchen bekommen.</p>
<p class="gt-block"><strong>CHAOS-THEORIE GEGEN. ENTROPIE</strong></p>
<p class="gt-block">Im Wesentlichen ist die Grundidee der Chaostheorie, die sich auf Entropie bezieht, die folgende <strong>das System neigt zu &quot;Unordnung&quot;</strong>, dh etwas, das nicht vorhersehbar ist. (Es ist NICHT der zweite Hauptsatz der Thermodynamik.)</p>
<p class="gt-block"><strong>Dies impliziert, dass das Universum ein chaotisches System ist.</strong></p>
<p>Wenn Sie einen Haufen nicht klebriger Bälle auf den Boden fallen lassen, können Sie nicht garantieren, dass sie zusammenbleiben UND jedes Mal genau auf den gleichen Punkt fallen UND nach dem Sturz an Ort und Stelle bleiben. Es ist für sie entropisch günstig, sich voneinander zu trennen und sich beim Auftreffen auf den Boden zu zerstreuen. </p>
<blockquote class="notranslate">
<p>That is, you cannot predict <strong><em>exactly</em></strong> how they will fall.</p>
</blockquote>
<p class="gt-block">Selbst wenn Sie sie aneinander haften ließen, <em>Ballsystem</em> <strong>verringert</strong> in Entropie einfach vom Fallen zum System <em>getrennte</em> aus dem menschlichen System, und die <em>menschliches System</em> hat <strong>verringert</strong> in der Entropie, als die Kugeln seine / ihre Hände verließen.</p>
<blockquote class="notranslate">
<p><em>Less microstates available to the system = smaller entropy for the system.</em></p>
</blockquote>
<p class="gt-block">Zusätzlich kann die <em>Universum</em> hat jetzt <strong>erhöht</strong> in der Entropie, weil die Anzahl der betrachteten Systeme hat <em>verdoppelt</em> (du + Bälle). Es ist immer irgendwie erklärt.</p>
<p class="gt-block"><strong>WIE KANN ENTROPY EINE STAATLICHE FUNKTION SEIN, WENN SIE DER CHAOS-THEORIE FOLGT?</strong></p>
<p class="gt-block"><strong>Es wurde zuvor bewiesen, dass Entropie eine Zustandsfunktion ist.</strong></p>
<p class="gt-block">Das heißt, wir können den Anfangs- und Endzustand bestimmen, ohne uns Gedanken über den Pfad zu machen, der verwendet wird, um dorthin zu gelangen. Das ist tröstlich, weil in einem <strong>chaotisches System</strong>, wir können nicht <em>Notwendig</em> den Endzustand vorhersagen. </p>
<p class="gt-block">Aber wenn wir <strong><em>weiß schon</em></strong> Der endgültige Zustand, den wir erreichen wollen (das heißt, wir wählen ihn selbst), die Eigenschaft der Zustandsfunktion der Entropie ermöglicht es uns, den von uns benutzten Pfad anzunehmen <strong><em>spielt keine rolle </em></strong> solange es das erzeugt <strong><em>genau</em></strong> Endzustand wollen wir. </p>
<p class="gt-block"><strong>Den Endzustand im Voraus zu kennen, überwindet die Grundzüge der Chaostheorie.</strong></p>
</div></div>
</p></div>
</p></div>
</p></div>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
