Entropio: Malsamoj inter versioj

[kontrolita revizio][kontrolita revizio]
Enhavo forigita Enhavo aldonita
Jotterbot (diskuto | kontribuoj)
e roboto aldono de: mk:Ентропија
-Sekcia titolo kun unu "=" +{{Sen fontoj}}
Linio 1:
{{Sen fontoj|dato=Februaro 2011}}
'''Entropio''' estas mezuro de malordo de iu sistemo. Ĝi estas koncepto de [[termodinamiko]] ankaŭ uzebla pli aŭ malpli metafore en aliaj sciencoj, ekzemple ankaŭ en filozofio, kaj eĉ komun-uze (kie ĝi kvazaŭ sinonimas al la ĥaoseco, ĥaosemo, ĥaosiĝo de sistemo).
 
== Termodinamiko ==
 
 
 
La entropio termodinamika <math>S</math>, simple nomata "la entropio" en la kunteksto de [[kemio]] kaj [[fiziko]], estas mezuro de kvanto de energio en fizika sistemo kiu ne povas esti uzata por fari laboron.
Linio 27 ⟶ 26:
Post tiu eltrovo, la ideo ke la malordigo tendencas kreski eniris en aliajn branĉojn de la pensado, eĉ konfuze. Unu el la miskomprenoj estas la fakto ke la rezulto de <math>\Delta S \ge 0</math> aplikiĝas nur por izolaj sistemoj. Oni scias ke la [[Tero]] ne estas izolata sistemo ĉar ĝi daŭre ricevas energion de la [[Suno]], sed la [[universo]] estas izolata sistemo, sekve, ĝia tuta malordiĝo konstante plikreskos. De tio, oni spekulacias ke la universo estas destinita al termika morto kiam tuta energio finos per la homogena distribuado kaj la sekvo laŭ kiu estos nenia fonto de laboro.
 
== Komputiko ==
 
Sistemo tendencas pasi de stato de ordo, aŭ malalta entropio, al stato de plej granda malordo aŭ alta entropio. La entropio de iu sistemo estas rilata al la kvanto de informo kiun ĝi enhavas. Oni povas priskribi sistemon tre ordigatan uzante malpli bitokoj ol bezonataj por priskribi malordigatan. Ekzemple, oni povas priskribi serion kiu havus dek 0-jn uzante simplan kodon kiel (0,10). Sed serio de simboloj hazardaj estas pli malfacile reprezentata; ekzemple, se serio havus tri 1-jn kaj sep 0-jn, ĝi bezonos kromajn etikedojn por esti reprezentata. Tiel (001100100) estos kodigita kiel (0,2,1,2,1,2,1,1,1,2) kun nula avantaĝo. Tio okazas ĉar ekzistas nur unu kombino por la unua serio, ekz. (0000000000), sed ekzistas <math>\frac{10!}{3!7!}</math> = 120 kombinoj por la dua serio, ekz. (1110000000), (1101000000), ktp.
Linio 36 ⟶ 35:
 
rezultas la entropio <math>S(M)</math> de mesaĝo <math>M</math> en bitokoj, estante <math>p(M)</math> la probableco de la mesaĝo <math>M</math>. Tiel, la probableco de la mesaĝo unua <math>M_1</math>' konsistigita de serio de dek 0-j estas egala al unu kaj <math>S(M_1)=\log_2 (1) = 0</math>. La probableco de la mesaĝo <math>M_2</math> konstituita de tri 1-j kaj sep 0-j estas <math>p(M_2)={1 \over 120}</math>, kaj la entropio de tiu mesaĝo estas <math>S(M_2)=-\log_2(\frac{1}{120})=6,9</math>.
 
==Notoj kaj referencoj ==
{{Referencoj}}
 
[[Kategorio:Entropio]]