entropia
Entropia —
1) w teorii informacji oznacza miarę stopnia nieuporządkowania (chaotyczności);
2) w termodynamice entropia S jest funkcją stanu, charakteryzującą kierunek przebiegu spontanicznych procesów w odosobnionych układach termodynamicznych. Wyraża się ją wzorem:
,
gdzie dQ oznacza przyrost ciepła przy nieskończenie małej, quasi-statycznej i odwracalnej zmianie stanu układu, T jest temperaturą bezwzględną, w której przemiana zachodzi. W ujęciu statystycznym entropia jest logarytmiczną miarą stopnia chaotyczności ruchów cieplnych. Definiuje się ją za pomocą liczby stanów dozwolonych układu W związkiem: S = k·lnW, gdzie k jest stałą Boltzmanna. Stan równowagi termodynamicznej jest stanem największego chaosu, a więc stanem najbardziej prawdopodobnym.