Энтропия

 Е (или Н)  ‒ информационная энтропия по К.  Шеннону (1948) Широкое поле смыслов термина “энтропия” как:  неопределённость результатов испытания, сложность, разнообразие –  может быть обобщено понятием   “равномерность распределения случайных величин или частот “. Вклад отдельного компонента в энтропию:    “– pilnpi“. Интервалы значений: minE=0, если в составе один-единственный компонент; MaxE=lnn, если все компоненты имеют содержания p=1/n. … Читать далее Энтропия