Entropio

El Vikipedio, la libera enciklopedio
Saltu al: navigado, serĉo

Entropio (greke τρoπή, ‚transformo‘[1]) estas mezuro de malordo de sistemo. Ĝi estas koncepto de termodinamiko ankaŭ uzebla pli aŭ malpli metafore en aliaj sciencoj, ekzemple ankaŭ en filozofio kaj eĉ komun-uze (kie ĝi kvazaŭ sinonimas al la ĥaoseco, ĥaosemo, ĥaosiĝo de sistemo).

Termodinamiko[redakti | redakti fonton]

La entropio termodinamika S, simple nomata „la entropio“ en la kunteksto de kemio kaj fiziko, estas mezuro de kvanto da energio en fizika sistemo kiu ne povas esti uzata por fari laboron.

Rudolf Clausius, en 1865, enkondukis la koncepton de entropio. Li definis la ŝanĝon \partial S kiel entropio de termodinamika sistemo dum reversebla procedo.

\partial S = \frac{\partial Q}{T} \ ,

kie \partial Q estas la kvanto da infinitezima varmo ŝanĝita dum la tempo \partial t en kiu la momenta absoluta temperaturo estas T \ ; do en la SI-sistemo, la mezurunuo estas Ĵulo/Kelvino.

Clausius donis al kvanto S la nomon entropio. Notu ke tiu ekvacio envolvas nur ŝanĝon en entropio, do la entropio estas nur definita kiel konstanta aldono. Sekve, statistika difino alternativa de entropio estos diskutita por difini tion.

En 1877, Ludwig Boltzmann ideigis ke la entropio de sistemo povas esti ligita al eblaj nombroj de „mikrostatoj“ laŭ ĝiaj termodinamikaj propraĵoj. Li konsideris, ekzemple, idealan gason en ĝia ujo. Mikrostato estas determinita laŭ la pozicio kaj movokvanto de ĉiu atomo. Pro tio, oni bezonas konsideri nur tiujn mikrostatojn al kiuj (1) la pozicio de ĉiuj partikuloj estas lokitaj en la volumeno de la ujo, (2) la sumo de la kinetaj energioj de la atomoj estas egala al tuta energio de la gaso. Boltzmann ankaŭ postulis:

S = k \ln \Omega \

kie k estas la Boltzmann-a konstanto, kaj \Omega estas la nombroj de taŭgaj mikrostatoj. Tiu postulato, kiu oni konas kiel Boltzmann-a principo, povas esti konsiderata kiel la fundamento de la statistika meĥaniko, kiu priskribas la termodinamikajn sistemojn uzante la statistikan disvolviĝon de ĝiaj eroj. Tio rilatas al mikroskopika propraĵo de la sistemo \Omega, al ĝiajn termodinamikajn propaĵojn, t. e. al la entropio S. Sub la difino de Boltzmann, la entropio estas klare funkcio de stato. Krome, ĉar \Omega estas nepre natura numero (1,2,3,...), la entropio estu pozitiva.

Oni povas vidi \Omega kiel mezuron de la malordigo de sistemo. Tio okazas, ĉar tio, kion ni konsideras „ordiĝaj“ sistemoj, tendencas havi malmultajn konformiĝajn eblojn, kaj „malordiĝaj“ havas multajn konformiĝajn eblojn.

Post tiu eltrovo, la ideo ke la malordigo tendencas kreski eniris en aliajn branĉojn de la pensado, eĉ konfuze. Unu el la miskomprenoj estas la fakto ke la rezulto de \Delta S \ge 0 aplikiĝas nur por izolaj sistemoj. Oni scias ke la Tero ne estas izolata sistemo, ĉar ĝi daŭre ricevas energion de la Suno; sed la universo estas izolata sistemo, sekve, ĝia tuta malordiĝo konstante plikreskos, ĝis ekvilibro. De tio, oni spekulacias ke la universo estas destinita al termika morto, kiam tuta energio finos per la homogena distribuado, do sekvos ke estos nenia fonto de laboro.

Komputiko[redakti | redakti fonton]

Sistemo tendencas pasi de stato de ordo, aŭ malalta entropio, al stato de plej granda malordo aŭ alta entropio. La entropio de iu sistemo estas rilata al la kvanto da informoj kiun ĝi enhavas.[2]

En komputiko, oni povas priskribi sistemon tre ordigatan uzante malpli da bitokoj ol bezonataj por priskribi malordigatan. Ekzemple, oni povas priskribi serion kiu havus dek 0-jn uzante simplan kodon kiel (0,10). Sed serio de simboloj hazardaj estas pli malfacile reprezentata; ekzemple, se serio havus tri 1-jn kaj sep 0-jn, ĝi bezonos kromajn etikedojn por esti reprezentata. Tiel (001100100) estos kodigita kiel (0,2,1,2,1,2,1,1,1,2) kun nula avantaĝo. Tio okazas ĉar ekzistas nur unu kombino por la unua serio, ekz. (0000000000), sed ekzistas \frac{10!}{3!7!} = 120 kombinoj por la dua serio, ekz. (1110000000), (1101000000), ktp.

La formulo de Shannon:

S(M) = - \log_2 p(M) \

rezultigas la entropion S(M) (nombro sen unuo) de mesaĝo M en bitokoj, estante p(M) la probablo de la mesaĝo M. Tiel, la probablo de la mesaĝo unua M_1 konsistigita de serio de dek 0-j estas egala al nur unu, kaj S(M_1)=\log_2 (1) = 0. La probablo de la mesaĝo M_2 konstituita de tri 1-j kaj sep 0-j estas p(M_2)={1 \over 120}, kaj la entropio de tiu mesaĝo estas S(M_2)=-\log_2(\frac{1}{120}) \approx 6,9 \ .

Referencoj[redakti | redakti fonton]

  1. Entropy. Alirita 2008-08-05 (Angla reta vortaro pri etimologio).
  2. Schneider, T.D, Teorio de informado kun alaĵo per logaritmo, National Cancer Institute, 14 April 2007.

Eksteraj ligiloj[redakti | redakti fonton]

  • Entropy en Project PHYSNET angle
  • Blidoj pri pluso da informoj kaj entropio angle
  • Roger Balian; Entropio, informado: proteoforma koncepto: teksto el lekcio donita en la Universitato de ĉiuj sciaĵoj (239-a prelego: La statoj de materio, 26-an de aŭgusto 2000, Conservatoire national des Arts et Métiers, Parizo). Eldonita de Yves Michaud; Universitato de ĉiuj sciaĵoj (Vol. 4), Odile Jacob (2001) p. 947-959 / re-eldonita: Universitato de ĉiuj sciaĵoj (vol. 17), Poche Odile Jacob (2002) p. 20-220. france
  • Roger Balian; La makroskopa tempo : teksto el lekcio pri malinversibileco kaj entropio donita dum la unua simpozio Physique & Interrogations Fondamentales, organizita de la Société Française de Physique, la 8-an de decembro 1993 en Parizo. Eldonita de Étienne Klein & Michel Spiro; Les Editions Frontières (1994) pp. 155-211 / Re-eldonita Poche Flammarion, Collection Champs (1995). france