definizione di entropia

Artículo revisado y aprobado por nuestro equipo editorial, siguiendo los criterios de redacción y edición de YuBrain.


L’entropia (S) è uno dei concetti centrali della termodinamica. È una funzione di stato che fornisce una misura del disordine di un sistema ed è anche una misura della quantità di energia dissipata sotto forma di calore durante un processo spontaneo. I calcoli dell’entropia sono importanti in diversi campi della conoscenza, dalla fisica, chimica e biologia, alle scienze sociali come l’economia, la finanza e la sociologia.

Avendo una così ampia varietà di applicazioni, non sorprende che esistano diversi concetti o definizioni di entropia. Successivamente vengono presentati i due concetti principali dell’entropia: il concetto termodinamico e il concetto statistico.

Entropia dei processi contro entropia di un sistema

L’entropia è una proprietà dei sistemi termodinamici rappresentata in bibliografia con la lettera S. È una funzione di stato, cioè è una delle variabili che permettono di definire lo stato in cui si trova un sistema. Inoltre, significa anche che è una proprietà che dipende solo dallo stato particolare in cui si trova un sistema e non da come il sistema è arrivato a quello stato.

Ciò significa che, quando parliamo dell’entropia di un sistema in un certo stato, lo facciamo nello stesso modo in cui parleremmo della temperatura o del volume del sistema. Tuttavia, è anche comune calcolare la variazione di entropia che si verifica quando un sistema passa da uno stato all’altro. Ad esempio, possiamo calcolare la variazione di entropia dalla vaporizzazione di un campione di acqua, o dalla reazione chimica tra ossigeno e ferro per dare ossido di ferro. In ognuno di questi casi si parla di entropie di processo, quando in realtà si dovrebbe parlare di variazioni di entropia associate a detti processi.

In altre parole, quando si parla di entropia di un campione di gas metano a 25 °C e 3,0 atmosfere di pressione (nel qual caso si descrive un particolare stato di detto gas), ci si riferisce all’entropia del sistema, anche chiamata entropia assoluta o S.

Quando invece si parla di entropia della combustione di un campione di metano gassoso a 25 °C e 3,0 atmosfere di pressione in presenza di ossigeno per dare anidride carbonica e acqua, si parla di entropia di un processo che comporta un cambiamento di lo stato del sistema e quindi un cambiamento nell’entropia del sistema. In altre parole, in questi casi si fa riferimento a un cambiamento di entropia o ΔS .

Quando si definisce l’entropia, è essenziale chiarire se stiamo parlando di S o ΔS, poiché non sono la stessa cosa. Detto questo, ci sono due concetti di base dell’entropia: il concetto termodinamico originale e il concetto statistico. Entrambi i concetti sono ugualmente importanti. La prima perché ha fatto conoscere l’entropia come una variabile indispensabile per comprendere la spontaneità di tutti i processi macroscopici naturali nell’universo (nel campo microscopico della meccanica quantistica le cose si fanno un po’ paludose) e la seconda perché ci fornisce un’interpretazione intuitiva comprensione di cosa significa veramente l’entropia di un sistema.

Definizione termodinamica di entropia (ΔS)

Il concetto originale di entropia è associato ai processi di cambiamento in un sistema; in essi una parte dell’energia interna viene dissipata sotto forma di calore. Questo è qualcosa che accade in ogni processo naturale o spontaneo e costituisce la base della seconda legge della termodinamica, che è probabilmente una delle leggi più importanti (e limitanti) della scienza.

Si consideri, ad esempio, il caso di rilasciare una palla per farla rimbalzare a terra. Quando teniamo una palla a una certa altezza, ha una certa quantità di energia potenziale. Quando rilasci la palla, cade, trasformando l’energia potenziale in energia cinetica fino a quando non colpisce il suolo. In quel momento l’energia cinetica si accumula nuovamente sotto forma di energia potenziale, questa volta elastica, che viene poi rilasciata quando la pallina rimbalza.

In condizioni ideali tutta l’energia potenziale iniziale sarebbe conservata dopo il rimbalzo, il che significherebbe che la palla dovrebbe rimbalzare all’altezza iniziale. Tuttavia, anche se rimuoviamo completamente l’aria (per eliminare l’attrito), l’esperienza ci dice che la palla non rimbalza mai all’altezza iniziale, ma va ad un’altezza sempre più bassa dopo ogni rimbalzo finché non si appoggia a terra.

È evidente che i ripetuti rimbalzi della pallina a terra finiscono per dissipare completamente tutta l’energia potenziale che l’oggetto aveva all’inizio del nostro piccolo esperimento. Questo avviene perché ogni volta che la palla rimbalza, trasferisce al suolo parte della sua energia sotto forma di calore, che a sua volta viene dissipato casualmente lungo il suolo stesso.

In termodinamica l’entropia, o meglio la variazione di entropia, è definita come il calore rilasciato o assorbito da un sistema durante una trasformazione reversibile diviso per la temperatura assoluta. Vale a dire:

definizione di entropia

Questa definizione rappresenta una variazione infinitesimale dell’entropia di un processo di qualsiasi tipo svolto in modo reversibile, cioè infinitamente lento. Per ottenere l’entropia di un cambiamento reale e misurabile dobbiamo integrare questa espressione:

definizione di entropia

Poiché l’entropia è una funzione di stato, l’espressione precedente implica che la variazione di entropia di un sistema tra qualsiasi stato iniziale e qualsiasi stato finale può essere trovata cercando un percorso reversibile tra entrambi gli stati e integrando l’espressione precedente. Per il caso più semplice di una trasformazione isotermica, l’entropia integrata diventa:

definizione di entropia

Definizione statistica di entropia (S)

Il fisico teorico austriaco Ludwig Boltzmann è famoso per i suoi innumerevoli contributi alla scienza, ma soprattutto per la sua interpretazione statistica dell’entropia. Boltzmann ha dedotto una relazione tra l’entropia e il modo in cui le molecole sono distribuite in diversi livelli di energia a una data temperatura. Questa distribuzione, chiamata distribuzione di Boltzmann, prevede che la popolazione di molecole in un dato stato energetico a una data temperatura diminuisca esponenzialmente con il livello energetico dello stato. Inoltre, a temperature più elevate, sarà accessibile un maggior numero di stati energetici.

Queste ed altre ulteriori osservazioni sono riassunte nell’equazione che oggi porta il suo nome, cioè l’equazione di Boltzmann:

definizione di entropia

In questa equazione, S rappresenta l’entropia del sistema in un particolare stato e W rappresenta il numero di microstati dello stesso e k B è una costante di proporzionalità chiamata costante di Boltzmann. Questi microstati consistono nei diversi modi in cui gli atomi e le molecole che compongono il sistema possono essere disposti, mantenendo costante l’energia totale del sistema.

Il numero di microstati è tradizionalmente associato al livello di disordine in un sistema. Per capirne il motivo, consideriamo un cassetto in cui conserviamo un gran numero di calzini. Il colore delle calze può essere associato al livello energetico in cui si trovano. Pertanto, la distribuzione di Boltzmann prevede che, a temperature sufficientemente basse, praticamente tutte le calze saranno di un unico colore (quello corrispondente allo stato energetico più basso). In questo caso, indipendentemente da come ordiniamo le calze, il risultato sarà sempre lo stesso (visto che sono tutte uguali). quindi ci sarà un solo microstato (W = 1).

Tuttavia, all’aumentare della temperatura, alcuni di questi calzini cambieranno in un secondo colore. Anche se solo un paio di calzini cambia colore (passa al secondo stato energetico), il fatto che uno qualsiasi dei calzini possa cambiare colore significa che possono esistere molti microstati diversi. Man mano che la temperatura aumenta e più stati iniziano a popolarsi, nel cassetto compaiono sempre più colori di calzini, aumentando notevolmente il numero di possibili microstati, il che a sua volta fa sembrare il cassetto un pasticcio disordinato.

Poiché l’equazione di cui sopra prevede che l’entropia aumenta all’aumentare del numero di microstati, cioè quando il sistema diventa disordinato, allora l’equazione di Boltzmann definisce l’entropia come una misura del disordine di un sistema .

unità di entropia

A seconda di una qualsiasi delle due definizioni presentate, si può determinare che l’entropia ha unità di energia rispetto alla temperatura. Vale a dire,

definizione di entropia

A seconda del sistema di unità in cui lavori, queste unità possono essere:

Sistema di unità unità di entropia
Sistema internazionale J/K
Unità fondamentali del sistema metrico m 2 .kg/(s 2 .K)
sistema imperiale BTU/°R
calorie calce/k
altre unità kJ/K, kcal/K

Riferimenti

Atkins, P. e dePaula, J. (2010). Atkins. Chimica fisica (8a ed .). Editoriale medico panamericano.

Boghiu, CE (2018, 5 febbraio). Informazione ed entropia, un approccio probabilistico . Associazione Nazionale Studenti di Fisica. https://nusgrem.es/informacion-entropia-probabilidad/

Chang, R. (2002). Fisicochimica (1a ed .). EDUCAZIONE DELLA COLLINA DI MCGRAW.

Chang, R., Manzo, Á. R., Lopez, PS e Herranz, ZR (2020). Chimica (10a ed .). McGraw-Hill Education.

Connor, N. (2020, 14 gennaio). Qual è l’unità di misura dell’entropia? Definizione . Ingegneria termica. https://www.thermal-engineering.org/en/what-is-the-unit-of-entropy-definition/

Liceo AGB. (nd). ENTROPIA – LUDWIG BOLTZMANN . Liceoagb.es. https://www.liceoagb.es/quimigen/termo12.html

VEDERE. (nd). Unità derivate – Termodinamica . Verifiche industriali dell’Andalusia, SA https://www.veiasa.es/metrologia/utilidades/unidades_derivadas/termodinamica

-Annuncio-

Israel Parada (Licentiate,Professor ULA)
Israel Parada (Licentiate,Professor ULA)
(Licenciado en Química) - AUTOR. Profesor universitario de Química. Divulgador científico.

Artículos relacionados

cos’è il borace