Kysymys:
Kuinka $ \ frac {dQ} {T} $ mittaa järjestelmän satunnaisuutta?
pranphy
2012-08-03 16:10:16 UTC
view on stackexchange narkive permalink

Opiskelen entropiaa, ja minun on vaikea saada kiinni siitä, mikä on entropia.

Monissa artikkeleissa ja kirjoissa sanotaan, että entropia on järjestelmän satunnaisuuden tai häiriön mitta. He sanovat, kun kaasujärjestelmän annetaan laajentaa satunnaisuuksia jne. Mutta loppujen lopuksi sanotaan, että $ \ frac {\ mathrm dQ} {T} $ on satunnaisuuden lisääntymisen mitta ja sitä kutsutaan entropiaksi.

Vaikka uskon, että entropia on järjestelmän satunnaisuuden mitta, en ymmärrä:

  1. Kuinka $ \ frac {\ mathrm dQ} {T} $ pitää sisällään tietoja järjestelmän satunnaisuus?
  2. Kuinka entropia on minkä tahansa järjestelmän riippumaton ominaisuus. Oletan, että minkä tahansa kahden yhtälön $ PV = nRT $ parametrin tulisi kuvailla järjestelmää kokonaan. Miksi tarvitsemme entropiaa?

Kiitos.

Seitsemän vastused:
Nathaniel
2012-08-03 18:43:48 UTC
view on stackexchange narkive permalink

Mielestäni ei ole aivan oikein sanoa, että entropia on "satunnaisuus" tai "häiriö". Entropia määritellään tilastomekaniikassa seuraavasti: $ -k_B \ sum_i p_i \ log p_i $, jossa $ k_B $ on Boltzmannin vakio (joka on tarkoitettu vain fyysisesti sopiviin yksiköihin) ja $ p_i $ on todennäköisyys, että järjestelmä on tilassa $ i $. Nämä todennäköisyydet eivät tarkoita, että järjestelmä hyppää "satunnaisesti" tilasta toiseen (tosin melko usein), vaan tarkoittavat vain, että sinä järjestelmää tarkkailevana kokeilijana et tiedä tarkalleen missä tilassa on, mutta luulet joidenkin olevan todennäköisempiä kuin toiset. Shannonin (1948) ja Jaynesin (1957) jälkeen tämä entropian kaava on tulkittu kokeilijan järjestelmää koskevien tietojen perusteella: mitä vähemmän tietoa, sitä enemmän entropia. (Nämä linkit ovat vain täydellisyyden vuoksi - en suosittele lukemista niitä ensimmäisenä aiheen esittelyäsi.) Kokeilijan järjestelmää koskevan tiedon määrä voi laskea monista syistä, mutta ainoa tapa lisätä sitä on, jos kokeilija tekee uuden mittauksen. Tämä on syy termodynamiikan toiseen lakiin.

On huomattava, että entropian ja toisen lain merkitykselle on monia eri näkökulmia, eivätkä kaikki ole samaa mieltä edellä esitetyn kanssa. Yritän kuitenkin vastata kahteen kysymykseesi tästä näkökulmasta.

  1. Nykyaikaisesta näkökulmasta on parempi nähdä $ dS = \ frac {dQ} {T} $ $ Q $: n määritelmänä $ S $: n sijaan. Loppujen lopuksi $ S $: lla on jo määritelmä todennäköisyyksien suhteen. Jos katsomme, että $ dQ $ määritellään $ TdS $: ksi, voimme nähdä, että se on yhtä suuri kuin $ dU + PdV - \ sum_i \ mu_i dN_i $ (järjestämällä uudelleen termodynamiikan perusyhtälö), mikä on yhtä suuri kuin energian kokonaismuutos, josta on vähennetty työn muodossa siirretty energia. (Tässä olen määritellyt työn "mekaaniseksi työksi" $ PdV $ plus "kemiallinen työ" $ - \ mu_i dN_i $. Voit myös lisätä termejä sähkötyöhön jne.)

  2. Ihanteellisen kaasun entropia on otettava huomioon useista syistä. Yksi on se, että $ T $, joka esiintyy ihanteellisessa kaasulaissa, on määritelty muodossa $ T = \ frac {\ osalinen U} {\ osittainen S} $, joten $ S $ tulee tällä tavalla. Toinen on se, että yhtälö $ PV = nRT $ ei kerro, kuinka lämpötila muuttuu, kun lisäät energiaa järjestelmään. Tätä varten sinun on tiedettävä lämpökapasiteetti, joka liittyy läheisesti entropiaan. Lopuksi, entropian käsite on erittäin hyödyllinen ymmärtääkseen, miksi et voi rakentaa ikuista liikekonetta.

Jos tämä näkökulma kuulostaa siltä, ​​että se saattaa olla järkevää sinulle , saattaa olla kannattavaa lukea tämä Jaynesin julkaisu, joka ottaa historiallisen näkökulman, ja selittää kuinka entropia löydettiin ensin (ja määriteltiin $ dQ / T $: na) ja miten se sitten odottamattomasti osoittautui olla kaikkea tietoa.

Emme voi todella käyttää tätä yhtälöä Q: n määrittelemiseen, koska sitä ei voida laajentaa järjestelmiin, jotka eivät ole tasapainossa. Tällaisissa järjestelmissä lämpövirta ja entropia on määritelty hyvin, mutta eivät välttämättä T. Lämpötila on makroskooppinen parametri, joka sattuu olemaan yhtä suuri kuin tasapainossa olevien järjestelmien keskimääräinen kineettinen energia. Järjestelmissä, jotka eivät ole tasapainossa, kaikki on mahdollista: monilämpötilasta lämpötilaan olematta ollenkaan. En näe yksinkertaista selitystä kysymykseen tilastollisesta fysiikasta.
@Shaktyai Olen eri mieltä siitä, että lämpövirta voidaan määritellä hyvin järjestelmille, joilla ei ole määritettävissä olevaa $ T $: ta. Energiavirta on aina määriteltävissä, mutta jos $ T $ ei ole, ei ole mitään tarkoituksenmukaista tapaa jakaa se työhön verrattuna lämpöön. Tai ainakaan, en tiedä esimerkkiä, missä tämä voidaan tehdä. Jos pystyt näyttämään minulle yhden, vaihdan vastaukseni.
Epätasapainotilastomekaniikassa lämpövirta on vain nopeuden asteikon 3 hetki: = int (1/2 * m * (Vv) ^ 2 * v * f (r, v, t)), missä V on keskinopeus V = int (v * f (r, v, t)) Jos järjestelmä ei ole LTE: ssä, f (r, v, t) ei ole Maxwellian eikä T: tä ole määritelty. Törmäyssäteilymalleissa (tähden ilmakehä tai fuusioplasmat) on hyvin yleistä kohdata jakautumistoiminto, jossa lämpötila on kaksi tai ei lainkaan.
Christoph
2012-08-04 14:54:28 UTC
view on stackexchange narkive permalink

Tämä vastaus on jonkin verran käsin aaltoileva, mutta uskon sen pitäisi auttaa ymmärtämään käsitteitä intuitiivisella tasolla.

Ensinnäkin entropia ei ole mitenkään satunnaisuutta. Erillisessä tasapainotetussa järjestelmässä tilastomekaniikan perusolettaman mukaisesti entropia on vain $$ S = k \ ln \ Omega $$, jossa $ \ Omega $ on mikrotilojen lukumäärä - mikroskooppiset järjestelmäkokoonpanot - yhteensopiva annetun makrotason kanssa - makroskooppinen tasapainotila, jota luonnehtivat termodynaamiset muuttujat.

Se seuraa toisesta laista $$ \ delta Q = T \ mathrm {d} S = T \ mathrm {d} (k \ ln \ Omega) = kT \ frac1 \ Omega \ mathrm {d} \ Omega $$ tai vastaavasti $$ \ mathrm {d} \ Omega = \ Omega \ frac {\ delta Q} {kT} $$ Energia $ kT $ liittyy keskimääräiseen energiaan vapausastetta kohti, joten tämä kaava kertoo meille, että lämmön siirtyminen tasapainossa olevaan järjestelmään avaa uuden määrän mikrotiloja, jotka ovat verrannollisia olemassa olevien lukumäärään ja siirretty energia voi herättää vapausasteiden määrän.

Tämä vastaus täydentää tehokkaasti sitä, mitä on jo sanottu, ja kuvaa lyhyesti yhteenlasketun lämmön ja samaa makrotasoa vastaavien mahdollisten mikrotilojen määrän kasvun välisen suhteen; ja tekee sen olettaen vain tilastomekaniikan perustason. +1
Johannes
2012-08-20 18:11:48 UTC
view on stackexchange narkive permalink

Edellä oleviin vastauksiin sisältyy runsaasti merkityksellisiä tietoja. Lyhyt ja yksinkertainen intuitiivinen kuva näyttää kuitenkin silti puuttuvan.

Tärkeintä on, että lämpötila mittaa energiaa vapausastetta kohti ja siten $ \ frac {dQ} {T} $ mittaa vain vapausasteiden määrän jonka yli energia on levinnyt. Vapausasteiden määrä kuvaa järjestelmän mikroskooppista monimutkaisuutta (kuten muut ovat huomauttaneet, termi "satunnaisuus" pitää monta mielestä vähemmän tarkoituksenmukaisena) - tiedon määrää, joka tarvitaan järjestelmän määrittelemiseen sen kaikkiin mikroskooppisiin yksityiskohtiin asti. Tätä määrää kutsutaan (tilastolliseksi) entropiaksi.

Saatat pitää tästä blogista, jossa käsitellään aihetta.

Ron Maimon
2012-09-11 01:28:52 UTC
view on stackexchange narkive permalink

Ajattele yhtälöä.

$$ dS = {dQ \ yli T} $$

lämpötilan määritelmänä ei haje. Entropia on perustavanlaatuisempi --- se on vaihetilan koko, mahdollisten tilojen määrän loki. Lämpötila on johdannainen tästä suhteessa energiaan.

Ymmärtääksesi miksi tämä on järkevää, aseta kaksi järjestelmää vierekkäin. Jos energia virtaa kuumasta kylmään, entropian menetys kuumassa järjestelmässä kompensoidaan enemmän kylmän järjestelmän entropian vahvistuksella. Joten energia virtaa keskimäärin tilastollisesti kuumasta kylmään.

Lämpötilan ominaisuudet eivät tee dollarista $ dQ \ yli T $ entropiaa, vaan pikemminkin entropian ominaisuudet kerroin $ dS \ yli dQ $ käänteislämpötila.

Mono
2012-08-03 21:51:14 UTC
view on stackexchange narkive permalink

On syytä huomata, että määritelmäsi elementtimuutoksesta järjestelmän entropiassa, nimittäin:

$ dS = \ displaystyle \ frac {\ delta Q} {T} $

Se on voimassa vain sisäisesti palautettavissa olevaan muutokseen . Tämä ei ole tekniikka, joka voidaan jättää pois; Luulen, että osa kysymyksestäsi saattaa liittyä käsitteeseen lämpö (mitattava määrä siirrettyä energiaa) ja tilastolliseen epävarmuuteen (joka vaihtoehtoisten ja vastaavien tulkintojen mukaan on entropian sisäinen merkitys).

Sisäisesti palautuvassa prosessissa, johon liittyy lämmön lisäystä tai vähennystä järjestelmästä, kyseisen T-lämpötilan erotuksen ( epätarkka) on oltava tasainen lämpötila järjestelmän spatiaalisen laajennuksen yli sen rajoihin asti, niin että joka tällä hetkellä järjestelmän rajojen lämpötila on yhtä suuri kuin sen irtolämpötila (ja ainutlaatuinen). Tämä tarkoittaa, että kiinnostavan järjestelmän sisällä ei ole lämpötilagradientteja, ja juuri tämän tosiasian vuoksi järjestelmän rajojen sisällä ei ole mahdollista lämmönvaihtoa. Tämä johtuu siitä, että jotta järjestelmä voi vaihtaa lämpöä jonkin muun kanssa, niiden välillä on oltava lämpötilaero, ja jos ero on nolla (ne ovat yhtä suuret), lämpöä ei siirretä. Jos ajattelet sitä, tämä on hyvä argumentti: kylmä lasillinen vettä lämpenee yhä enemmän, kun jätät sen huoneeseen, mutta kun se saavuttaa saman lämpötilan ympäröivän ilman lämpötilassa, muutosta ei enää ole ja se pysyy siellä loputtomiin .

Palataksemme alkuperäiseen yhtälöön, voit nyt tulkita RHS: n kertomalla sinulle, että tilanteissa, joissa järjestelmän lämpötila on tasainen joka hetki , äärettömän pienen lämmön määrän suhde tai sen ympäristöstä vähennetään järjestelmää, ja järjestelmän jokaisessa pisteessä oleva ainutlaatuinen lämpötila (joka ei ole muuta kuin sen muodostavien yksittäisten molekyylien keskimääräisen kineettisen energian mitta) on yhtä suuri kuin muutos entropiassa. Ja mikä on entropia? No, makroskooppisesti puhuen , voit pitää yllä kirjoittamaani entropian määritelmänä ja voit termodynaamisesti päätellä, että se on todellakin tilafunktio (se riippuu vain järjestelmän pisteominaisuuksista, kuten paine ja lämpötila), eikä se riipu tapahtumaketjusta, jolla kyseinen tila saavutettiin.

Toisaalta , tilastomekaniikka (joka on uudempi tapa käsitellä sitä, mitä näemme makroskooppisesti termodynaamisina ominaisuuksina, kuten entropia, alkaen molekyylitason mekaanisesta kuvauksesta) antaa meille lisätietoja entropian luonteesta. Mielestäni on parempi ajatella sitä ei satunnaisuuden mittana, vaan järjestelmän (mikroskooppisen) tilan (makroskooppisena) epävarmuutena .

Annan sinulle yksinkertaisen esimerkin: kuvittele, että sinulla on biljardipöytä, jonka yläosa on peitetty täysin läpinäkymättömällä kankaalla, ja vain yksi avoin pää kepin esittelyyn. Oletetaan nyt, että tiedät (jollain tavalla), että kahdeksan palloa on jaettu taulukkoon muodostaen suoran viivan, jonka välinen etäisyys on yhtä suuri, mutta et tiedä missä tarkalleen tämä viiva seisoo taulukon suorakulmaisella alueella; ja että koetta varten valkoinen on aivan reiän vieressä (ja tietysti tiedät sen). Ota nyt keppi, työnnä se kankaan aukkoon ja lyö lyöntipallo. Muutaman sekunnin (kuulo) törmäyksen jälkeen voit olla varma, että liike pysähtyi kankaan alla. Mitä tapahtui tietämyksellesi järjestelmästä?

No, et tiedä, mihin kukin pallo on mennyt (olemme tietysti sulkeneet taskut!), mutta et tiennyt sitä ennen lakkoa, vai mitä? Mutta sitten tiesit ainakin, että he muodostavat linjan, ja tämä tieto on nyt poissa. Ulkopuolisesta näkökulmastasi etukäteen antamasi tiedot pallojen sijainnista ja energiasta ja liikemäärästä, jotka syötit järjestelmään lakon kautta, eivät riitä sulkemaan pois valtavaa määrää pallojen todellisia jakautumia. Kokeilun alkaessa voit ainakin kirjoittaa muistiin pallolinjan mahdollisten sijaintien määrän (ehkä piirtämällä ruudukko pöydän pinnan yli siten, että kunkin solun sivupituus on yhtä suuri kuin pallon halkaisija, ja laskemalla pallojen määrä pituussuuntaiset solulinjat), mutta nyt mahdollisten sijaintien määrä on moninkertaistunut . Ennen ja jälkeen sinulla on vain osittainen tieto järjestelmän kokoonpanosta (voit vain laskea mahdolliset, sen perusteella, mitä tiedät järjestelmästä ulkopuolelta, mikä rajoittaa mahdollisuuksia), mutta tämä tieto on vähentynyt kokeilun jälkeen. Sillä ei ole mitään tekemistä pallojen törmäysten fysiikan kanssa: se liittyy siihen, että et näe palloja näkökulmastasi, ja kaikki mitä voit tehdä, on noutaa osittaista tietoa epäsuorien mittausten avulla.

Analogia yllä olevan esimerkin kanssa tilastojärjestelmässä on, että mittaamalla makroskooppisia havaittavissa olevia ominaisuuksia (kuten lämpötila, paine, tiheys jne.) mittaamme vain keskimääräiset mikroskooppiset ominaisuudet . Esimerkiksi lämpötila on keskimääräisen molekulaarisen kineettisen energian mitta ja paine mittaa iskujen molekyylien siirtämää keskimääräistä liikemäärää alueyksikköä kohti. Niiden mittaaminen antaa meille osittaisen tiedon sen mikroskooppisesta kokoonpanosta (kuten alkuperäiset tiedot, jotka pidit altaan pallojen sijainnista). Ja kaikki muutokset makroskooppisissa havainnoitavissa korreloivat muutoksiin mahdollisissa (eli ei poissuljetuissa) mikroskooppisissa kokoonpanoissa, ja sitten se aiheuttaa muutoksen tietämyksessämme siitä. Osoittautuu, että nämä muutokset voidaan mitata, ja se on todellakin entropian vaihtelua siinä mielessä, että entropian kasvu korreloi epävarmuuden kasvuun tai tiedon vähenemiseen . Osoittaa, että tämä suhde on voimassa, alkaen mekaanisesta kehyksestä, on koko kohta tilastomekaniikan takana.

Lopuksi toivon, että näet nyt, että mitä $ \ displaystyle \ frac { \ delta Q} {T} $ on vain analoginen kokeessa lyönnin tuomaan energiaan verrattuna pallojen sijainnin aikaisempaan tietoon (matalat lämpötilat merkitsevät vähemmän molekyylitranslaatio-, rationaalisia ja värähtelymolekyyliliikkeitä, ja päinvastoin , joten se on tosiasiallisesti "osittainen mitta heidän asemastaan". Joten:

  1. Se ei sisällä tietoja järjestelmän satunnaisuudesta, se on vain epävarmuuden kasvun mitta makroskooppisesta näkökulmasta ja pätee vain palautuviin prosesseihin (yleensä entropia voi kasvaa lisäämättä energiaa järjestelmään).

  2. Kuten muut vastaukset ovat todenneet, tarvitaan entropiaa eräiden termien määrittelemiseksi missä tahansa valtion yhtälössä (kuten ihanteellisen kaasun laki), ja muuten tilayhtälöt ovat vain likiarvoja todellisten aineiden todelliseen käyttäytymiseen (mikä on melko selvää mainitsemasi lain "ihanteellisessa" osassa), joten on luonnollista, että ne perustuvat perustavanlaatuisempiin käsitteisiin (kuten entropia).

MUOKKAA: Kuten Nathaniel perustellusti huomautti alla, alkuperäinen lausuntoni, jonka mukaan entropian makroskooppisen määritelmän pätevyys lämmön ja lämpötilan suhteen riippui (hiljaisesti) prosessin kokonais palautuvuus oli puutteellinen. Ainoa vaatimus sen pätevyydestä on, että lämmönvaihtoprosessin on oltava sisäisesti palautuva, koska mittaamme vain tällä tavoin järjestelmän sisäisen entropian muutosta (ja siten prosessiin liittyvät ulkoiset irreversiibelit eivät ole merkityksellisiä).

Alexander
2012-08-20 21:26:19 UTC
view on stackexchange narkive permalink

Mikroskooppinen lähestymistapa entropiaan on johtanut hyvään oivallukseen, ja se on selitetty yksityiskohtaisesti annetuissa vastauksissa.

Entropian käsitteen ymmärtämiseksi on yhtä pätevä, mutta makroskooppinen lähestymistapa, joka saattaa täydentää annettuja vastauksia. Idea on kehitetty 'adiabaattisen esteettömyyden' pohjalta, ja kirjailijat Elliott H. Lieb ja Jakob Yngvason ovat tehneet erinomaisen työn selittääkseen tätä käsitettä, vaikkakin matematiikan puolelta hieman raskasta ( arxiv link ). Heidän työstään on esitetty yhteenveto André Thessin kirjassa The Entropy -periaate.

Joten jokaiselle, jota kiinnostaa erilainen lähestymistapa entropian tarkkaan määrittelemiseen, on annettava tämä käsite lähemmäksi.

Shaktyai
2012-09-11 01:57:10 UTC
view on stackexchange narkive permalink

"Kuinka dQT pitää tietoa järjestelmän satunnaisuudesta"

Vastaus on lämmön mikroskooppinen määritelmä. Minkä tahansa hiukkasen nopeus voidaan kirjoittaa: V = Vb + v. Vb on irtonopeus ja vi "satunnainen" nopeus: = 0. Vi: hen liittyvä kineettinen energia on lämpö. Joten lämmön mittaaminen ei ole muuta kuin järjestelmän molekyylien satunnaisuusasteen mittaaminen. Jos kaikki molekyylit lentävät samaan suuntaan, vi = 0 ja V = Vb: kineettinen energia on makroskooppinen kineettinen energia Ec = 1 / 2 * m * Vb ^ 2, jos kaikki suunnat ovat yhtä hyvät Vb = 0 ja kineettinen energia on puhtaasti lämpöä.

"Oletan, että minkä tahansa kahden yhtälön PV = nRT parametrin tulisi kuvailla järjestelmää Miksi tarvitsemme entropiaa? "Ota kaksi kaasua (P1, V1, T1) ja (P2, V2, T2) laita ne kosketukseen. Et voi ennustaa lämpötilan kehitystä ilman entropiaa.



Tämä Q & A käännettiin automaattisesti englanniksi.Alkuperäinen sisältö on saatavilla stackexchange-palvelussa, jota kiitämme cc by-sa 3.0-lisenssistä, jolla sitä jaetaan.
Loading...