Salute e malattia
La misura del disordine o della casualità in un sistema è chiamata entropia. L’entropia è un concetto fondamentale nella termodinamica, nella teoria dell’informazione, nella meccanica statistica e in molti altri campi. In termini semplici, l’entropia quantifica il grado di casualità o imprevedibilità di un sistema. Maggiore è l’entropia, più il sistema è disordinato e imprevedibile. Al contrario, un sistema con bassa entropia è più ordinato e prevedibile.
Malattia mentale generale