Entropio: Malsamoj inter versioj

El Vikipedio, la libera enciklopedio
[nekontrolita versio][nekontrolita versio]
Enhavo forigita Enhavo aldonita
Loveless (diskuto | kontribuoj)
e roboto aldono de: simple:Thermodynamic entropy
TrBot (diskuto | kontribuoj)
Linio 39: Linio 39:
[[Kategorio:Entropio]]
[[Kategorio:Entropio]]


[[ar:إنتروبية (تحريك حراري)]]
[[ar:إنتروبية (ديناميكا حرارية)]]
[[be:Энтрапія]]
[[be:Энтрапія]]
[[bg:Ентропия]]
[[bg:Ентропия]]

Kiel registrite je 04:57, 1 mar. 2009

Entropio estas mezuro de malordo de iu sistemo. Ĝi estas koncepto de termodinamiko ankaŭ uzebla pli aŭ malpli metafore en aliaj sciencoj, ekzemple ankaŭ en filozofio, kaj eĉ komun-uze (kie ĝi kvazaŭ sinonimas al la ĥaoseco, ĥaosemo, ĥaosiĝo de sistemo).

Termodinamiko

La entropio termodinamika , simple nomata "la entropio" en la kunteksto de kemio kaj fiziko, estas mezuro de kvanto de energio en fizika sistemo kiu ne povas esti uzata por fari laboron.

Rudolf Clasius, en 1865, enkondukis la koncepton de entropio. Li definis la ŝanĝon kiel entropio de termodinamika sistemo dum reversebla procedo.

Kie estas la kvanto de infinitezima varmo ŝanĝita dum la tempo en kiu la momenta absoluta temperaturo estas .

Clausius donis al kvanto la nomon "entropio", el la greka vorto τρoπή, transformo. Notu ke tiu ekvacio involvas nur ŝanĝon en entropio, dum la entropio estas nure definita kiel konstanta aldono. Sekve, statistika defino alternativa de entropio estos diskutita por defini tion.

En 1877, Ludwig Boltzmann ideigis ke la entropio de sistemo povas esti ligita al eblaj nombroj de "mikrostatoj" laŭ ĝiaj termodinamikaj propraĵoj. Li konsideris, ekzemple, idealan gason en ĝia ujo. Mikrostato estas determinita laŭ la pozicioj kaj momentumo de ĉiu atomo. Pro tio, oni bezonas konsideri nur tiujn mikrostatojn al kiuj (1) la posicio de ĉiuj partikuloj estas lokitaj en la volumo de la ujo, (2) la sumo de la kinetikaj energioj de la atomoj estas egala al tuta energio de l' gaso. Boltzmann ankaŭ postulis:

kie estas la Boltzmanna konstanto kaj estas la nombroj de taŭgaj mikrostatoj. Tiu postulato, kiu oni konas kiel Boltzmanna precipo, povas esti konsiderata kiel la fundamento de la statistika meĥaniko, kiu priskribas la termodinamikajn sistemojn uzante la statistikan kondukton de ĝiaj eroj. Tio rilatas al mikroskopika propraĵo de la sistemo la ĝiajn termodinamikajn propaĵojn, la entropion . Sub la defino de Boltzmann, la entropio estas klare funkcio de stato. Krome, ĉar estas nepre natura numero (1,2,3,...), la entropio estu pozitiva.

Oni povas vidi kiel mezuron de la malordigo de sistemo. Tio okazas, ĉar tio kion ni pensas kiel "ordiĝajn" sistemojn tendencas havi malmultajn konfigurajn eblojn, kaj "malordiĝajn" tiujn kiuj havas multajn konfigurajn eblojn.


Post tiu eltrovo, la ideo ke la malordigo tendencas kreski eniris en aliajn branĉojn de la pensado, eĉ konfuze. Unu el la miskomprenoj estas la fakto ke la rezulto de aplikiĝas nur por izolaj sistemoj. Oni scias ke la Tero ne estas izolata sistemo ĉar ĝi daŭre ricevas energion de la Suno, sed la universo estas izolata sistemo, sekve, ĝia tuta malordiĝo konstante plikreskos. De tio, oni spekulacias ke la universo estas destinita al termika morto kiam tuta energio finos per la homogena distribuado kaj la sekvo laŭ kiu estos nenia fonto de laboro.

Komputiko

Sistemo tendencas pasi de stato de ordo, aŭ malalta entropio, al stato de plej granda malordo aŭ alta entropio. La entropio de iu sistemo estas rilata al la kvanto de informo kiun ĝi enhavas. Oni povas priskribi sistemon tre ordigatan uzante malpli bitokoj ol bezonataj por priskribi malordigatan. Ekzemple, oni povas priskribi serion kiu havus dek 0-jn uzante simplan kodon kiel (0,10). Sed serio de simboloj hazardaj estas pli malfacile reprezentata; ekzemple, se serio havus tri 1-jn kaj sep 0-jn, ĝi bezonos kromajn etikedojn por esti reprezentata. Tiel (001100100) estos kodigita kiel (0,2,1,2,1,2,1,1,1,2) kun nula avantaĝo. Tio okazas ĉar ekzistas nur unu kombino por la unua serio, ekz. (0000000000), sed ekzistas = 120 kombinoj por la dua serio, ekz. (1110000000), (1101000000), ktp.

la formulo de Shannon

rezultas la entropio de mesaĝo en bitokoj, estante la probableco de la mesaĝo . Tiel, la probableco de la mesaĝo unua ' konsistigita de serio de dek 0-j estas egala al unu kaj . La probableco de la mesaĝo konstituita de tri 1-j kaj sep 0-j estas , kaj la entropio de tiu mesaĝo estas .