Entropio: Malsamoj inter versioj
[kontrolita revizio] | [kontrolita revizio] |
Enhavo forigita Enhavo aldonita
DidCORN (diskuto | kontribuoj) Aldonitaj ligiloj |
Doesle (diskuto | kontribuoj) e lingvaĵoj, tipgrafio, forigis ligilojn el sekcititoloj; eksteraj ligiloj sub referencojn |
||
Linio 1:
{{Sen fontoj|dato=Februaro 2011|temo=fiziko}}
'''Entropio''' ([[Greka lingvo|greke]] τρoπή, ‚transformo‘<ref>{{Cite web
'''Entropio''' estas mezuro de malordo de iu sistemo. Ĝi estas koncepto de [[termodinamiko]] ankaŭ uzebla pli aŭ malpli metafore en aliaj sciencoj, ekzemple ankaŭ en filozofio, kaj eĉ komun-uze (kie ĝi kvazaŭ sinonimas al la ĥaoseco, ĥaosemo, ĥaosiĝo de sistemo).▼
|url=http://www.etymonline.com/index.php?term=entropy▼
|title=Entropy▼
|publisher=Online Etymology Dictionary▼
|accessdate=2008-08-05▼
▲
==
La entropio [[Termodinamiko|termodinamika]] <math>S</math>, simple nomata
[[Rudolf Clausius]], en [[1865]], enkondukis la koncepton de entropio. Li definis la ŝanĝon <math>\partial S</math> kiel entropio de termodinamika sistemo dum reversebla procedo.
Linio 12 ⟶ 17:
Kie <math>\partial Q</math> estas la kvanto da infinitezima [[varmo]] ŝanĝita dum la tempo <math>\partial t</math> en kiu la momenta absoluta [[temperaturo]] estas <math>T \ </math>.
Clausius donis al kvanto <math>S</math> la nomon
▲|url=http://www.etymonline.com/index.php?term=entropy
▲|title=Entropy
▲|publisher=Online Etymology Dictionary
▲|accessdate=2008-08-05
En 1877, [[Ludwig Boltzmann]] ideigis ke la entropio de sistemo povas esti ligita al eblaj nombroj de
<center><math>S = k \ln \Omega \ </math></center>
kie <math>k</math> estas la Boltzmann-a konstanto, kaj <math>\Omega</math> estas la nombroj de taŭgaj mikrostatoj. Tiu postulato, kiu oni konas kiel ''Boltzmann-a principo'', povas esti konsiderata kiel la fundamento de la [[statistika meĥaniko]], kiu priskribas la termodinamikajn sistemojn uzante la statistikan disvolviĝon de ĝiaj eroj. Tio rilatas al mikroskopika propraĵo de la sistemo
<math>\Omega</math>, al ĝiajn termodinamikajn propaĵojn, t. e.
Oni povas vidi <math>\Omega</math> kiel mezuron de la malordigo de sistemo. Tio okazas, ĉar tio kion ni pensas kiel "ordiĝajn" sistemojn tendencas havi malmultajn konformiĝajn eblojn, kaj "malordiĝajn" tiujn kiuj havas multajn konformiĝajn eblojn.▼
▲Oni povas vidi <math>\Omega</math> kiel mezuron de la malordigo de sistemo. Tio okazas, ĉar tio, kion ni
Post tiu eltrovo, la ideo ke la malordigo tendencas kreski eniris en aliajn branĉojn de la pensado, eĉ konfuze. Unu el la miskomprenoj estas la fakto ke la rezulto de <math>\Delta S \ge 0</math> aplikiĝas nur por izolaj sistemoj. Oni scias ke la [[Tero]] ne estas izolata sistemo, ĉar ĝi daŭre ricevas energion de la [[Suno]]; sed la [[universo]] estas izolata sistemo, sekve, ĝia tuta malordiĝo konstante plikreskos, ĝis ekvilibro. De tio, oni spekulacias ke la universo estas destinita al termika morto, kiam tuta energio finos per la homogena distribuado, do sekvos ke estos nenia fonto de laboro.
==
Sistemo tendencas pasi de stato de ordo, aŭ malalta entropio, al stato de plej granda malordo aŭ alta entropio. La entropio de iu sistemo estas rilata al la kvanto da [[informo]]j kiun ĝi enhavas.<ref>Schneider, T.D, [http://www.lecb.ncifcrf.gov/~toms/paper/primer/primer.pdf Teorio de informado kun alaĵo per logaritmo], National Cancer Institute, 14 April 2007.</ref>
La formulo de [[Claude Shannon|Shannon]]:
<center> <math>S(M) = - \log_2 p(M) \ </math> </center>
rezultigas la entropion <math>S(M)</math> de mesaĝo <math>M</math> en bitokoj, estante <math>p(M)</math> la [[probablo]] de la mesaĝo <math>M</math>. Tiel, la probablo de la mesaĝo unua <math>M_1</math> konsistigita de serio de dek 0-j estas egala al nur unu, kaj <math>S(M_1)=\log_2 (1) = 0</math>. La probablo de la mesaĝo <math>M_2</math> konstituita de tri 1-j kaj sep 0-j estas <math>p(M_2)={1 \over 120}</math>, kaj la entropio de tiu mesaĝo estas <math>S(M_2)=-\log_2(\frac{1}{120})
==Eksteraj ligiloj==▼
* [http://www.physnet.org/modules/pdf_modules/m160.pdf ''Entropy''] en [http://www.physnet.org Project PHYSNET] ({{en}})▼
* [http://www.autonlab.org/tutorials/infogain.html Blidoj pri pluso da informoj kaj entropio] ({{en}})▼
* Roger Balian; [http://www-spht.cea.fr/articles/t00/158/ ''Entropio, informado: ''proteoforma'' koncepto]: teksto el lekcio donita en la ''Universitato de ĉiuj sciaĵoj'' (239-a prelego: La statoj de materio, 26-an de aŭgusto 2000, ''Conservatoire national des Arts et Métiers'', [[Parizo]]). Eldonita de Yves Michaud; ''Universitato de ĉiuj sciaĵoj'' (Vol. 4), Odile Jacob (2001) p. 947-959 / re-eldonita: ''Universitato de ĉiuj sciaĵoj'' (vol. 17), Poche Odile Jacob (2002) p. 20-220. ({{fr}})▼
* Roger Balian; [http://www-spht.cea.fr/articles/t94/009/ ''La makroskopa tempo''] : teksto el lekcio pri ''malinversibileco kaj entropio'' donita dum la unua simpozio "Physique & Interrogations Fondamentales", organizita de la ''Société Française de Physique'', la 8-an de decembro 1993 en Parizo. Eldonita de Étienne Klein & Michel Spiro; Les Editions Frontières (1994) pp. 155-211 / Re-eldonita Poche Flammarion, Collection Champs (1995).({{fr}})▼
== Referencoj ==
{{Referencoj}}
▲== Eksteraj ligiloj ==
▲* [http://www.physnet.org/modules/pdf_modules/m160.pdf ''Entropy''] en [http://www.physnet.org Project PHYSNET]
▲* [http://www.autonlab.org/tutorials/infogain.html Blidoj pri pluso da informoj kaj entropio]
▲* Roger Balian; [http://www-spht.cea.fr/articles/t00/158/ ''Entropio, informado:
▲* Roger Balian; [http://www-spht.cea.fr/articles/t94/009/ ''La makroskopa tempo''] : teksto el lekcio pri ''malinversibileco kaj entropio'' donita dum la unua simpozio
[[Kategorio:Entropio]]
|