Трифонов Е.В.
Антропология:   дух - душа - тело - среда человека,

или  Пневмапсихосоматология человека

Русско-англо-русская энциклопедия, 18-е изд., 2015

π

ψ

σ

Общий предметный алфавитный указатель

Психология Соматология Математика Физика Химия Наука            Общая   лексика
А Б В Г Д Е Ж З И К Л М Н О П Р С Т У Ф Х Ц Ч Ш Щ Э Ю Я
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z


ЭНТРОПИЯ
entropy ]

     (Греч.: εν - в, на + τροπή - поворот, превращение; 1860).
     1
.
Функция состояния термодинамической системы (тела):  dS = dWb/T, где Wb(дж) - количество связанной энергии (или сообщаемой или отнимаемой ) как части внутренней энергии, которая не может превращаться в работу, T(град К) - абсолютная температура системы. Таким образом энтропия - количество связанной энергии, приходящейся на каждую единицу температуры. На основании предположений, что связанная энергия обусловлена неупорядоченным («хаотическим») движением частиц системы, считают, что энтропия является мерой неупорядоченности движения элементов системы. Такое выражение и трактование энтропии называют феноменологическим.
     Понятие энтропия впервые ввел в науку в 1850 г. Клаузиус Рудольф Юлиус Эмануэль (1822-1888, Clausius, Rudolf (Julius Emanuel)), германский физик-теоретик, один из создателей термодинамики и кинетической теории газов.
     2
. Функция состояния термодинамической теоретической системы (тела):  S=klnNT где  k  - коэффициент пропорциональности (постоянная Больцмана),   NT  - «статистический» вес макросостояния. «Статистический» вес макросостояния - число способов, которыми может быть реализовано данное макросостояние. Такое выражение и трактование энтропии называют «статистическим». Полагают, что чем большим числом способов может реализоваться данное макросостояние, тем более вероятно состояние и тем больше энтропия.
     Данное выражение для энтропии теоретической системы, содержащей большое число невзаимодействующих частиц (классический «идеальный» газ) и ее трактование предложил в 1861-71 г. Людвиг Больцман (L. Boltzmann, 1844-1906, австрийский физик-теоретик, один из основателей статистической физики). Первоначальное название для «статистического» веса  NT   было «термодинамическая вероятность». «Термодинамическая вероятность» вероятностью в математическом смысле не является. Прилагательное «статистический» в выражении «статистический» вес означает, что трактование энтропии относится к статистической механике, которую физики нередко называют «статистикой». Правило вычисления «статистического» веса макросостояния было предложено Джозайей Уиллардом Гиббсом (Gibbs, Josiah Willard, 1839-1903; американский физик-теоретик, основатель статистической физики). В простейшем варианте вычисления «статистического» веса для демонстрации «статистического» смысла энтропии рассматриваются в учебниках (например, Глинка Н.Л. Общая химия, Изд. 27, Л., «Химия», 1988, с. 182-192; Больцмана статистика. В кн.: Физическая энциклопедия, М., «Советская энциклопедия», Т.1, с. 223). Достаточно хорошего школьного образования по математике для того, чтобы заключить, что комбинаторика, применяемая для обоснования «статистического» трактования энтропии, к существу теории вероятности, математической статистики непосредственного отношения не имеет. Хотя, в них может использоваться комбинаторный анализ, как и любые другие математические операции и алгоритмы.
     Статистическое трактование и без того малопонятной энтропии вызывает много сомнений. Но даже если принять описанные выше объяснения (1, 2) энтропии как соответствующие реальности, следует отметить одну важную особенность.
     Все переменные, входящие в выражения классической термодинамики для внутренней энергии, свободной энергии, связанной энергии, энтропии являются неслучайными величинами, описывающими по детерминистским представлениям неслучайные реальные сущности и явления. На практике оказалось, что подобное точное аналитическое описание физических систем не соответствует реальности. Физики решили, что для этого было две причины. Во-первых, модели оказываются слишком просты по сравнению с реальными системами, и потому - малоконструктивны. Учет всех возможных реальных переменных, параметров системы и условий среды при создании моделей оказался бы в принципе невозможным. Во-вторых, переменные и параметры реальных систем испытывают беспорядочные малые колебания, флюктуации, связанные с неопределенными помехами, относительно некоторых «истинных» неслучайных значений, которые могут характеризоваться их средними. Так возникла задача создания математического аппарата исследования поведения физических систем, основанного на средних значениях переменных, параметров систем и условий среды. Подчеркнем, парадоксальное явление, что математический аппарат создавался для оценки не реальных, (например, экспериментальных) данных средними, как имеет место в современной математической статистике. Он создавался для оценки гипотетических, фактически неизвестных переменных, параметров системы и среды, а также их значений: («… вероятностный характер результатов классической статистики сам по себе отнюдь не лежит в самой природе рассматриваемых ею объектов, а связан лишь с тем, что эти результаты получаются на основании гораздо меньшего количества данных, чем нужно было бы для полного механического описания… » Ландау Л.Д., Лифшиц Е.М. Статистическая физика. М.: Наука, 1976, с 17). Эта задача стала предметом статистической физики. Дату возникновения этой дисциплины относят к выходу в свет в 1902 г. очередной из серии работ Дж.У. Гиббса: «Основные принципы статистической механики, излагаемые со специальным применением к рациональному обоснованию термодинамики» (Гиббс Дж. В., Основные принципы статистической механики, пер. с англ., М. - Л., 1946).
     Отсюда следует вывод. Детерминистская методология статистической физики, как и детерминистская методология классической физики, позволяет получить, в лучшем случае, лишь грубые, плохо соответствующие действительности представления о физической реальности. В результате атрибуты физики, в частности энтропия, как в классическом (феноменологическом) выражении, так и в так называемом «статистическом» смысле не только не отражают физической реальности, но и могут ввести в заблуждение легковерную научную общественность. Увлеченные некоторыми внешне привлекательными детерминистскими идеями, некоторые ученые могут направить свои усилия на «развитие» «новых» направлений науки. Примером этому является синергетика, базирующаяся на все тех же традиционно неверных предпосылках о жесткой детерминированности физических сущностей и явлений и все тех же традиционно малоконструктивных средствах аналитической математики (разнообразные детерминистские модели с неслучайными переменными, параметрами и т.п.).
     Не следует принимать подобные рассуждения как полный отказ от достижений. Это призыв остановиться в массовом безумном беге в очевидный тупик, призыв к отказу от исчерпавшей себя детерминистской методологии познания в науке, призыв к переходу к вероятностной методологии (Трифонов Е.В., 1974).
     3
. Энтропия распределения вероятностей.
     (а)
Энтропия распределения вероятностей значений одномерной случайной величины х определяется формулами:

  H(x)=Mlog21/p(x) = -Sp(x)log2p(x)  для дискретного распределения        (1a),
  H(x)=Mlog21/j(x) = -Sj(x)log2j(x)  для непрерывного распределения    ().

      H(хесть мера априорной неопределенности измерения величины  х .

     Для случая дискретного распределения вероятностей  Н(х)≥0.  При этом  Н(х)=0  тогда и только тогда, когда  х  имеет вырожденное (детерминистское) распределение.
     Непрерывное распределение, имеющее наибольшую энтропию при данной дисперсии s2 является нормальным распределением с Н(х)=log2(2pеs2). 
       (б)
Для распределения вероятностей двумерной случайной величины (х1, х2) энтропия определяется следующими формулами:

  H(х1,х2)=-Mlog2p(х1,х2)   для дискретного распределения          (2a),
  H(х1,х2)=-Mlog2j(х1,х2)   для непрерывного распределения     ().


     Условная энтропия  H(х2|х1)  определяется формулами:

H(х2|х1)=-Mlog2p1|2(х1|х2)   для дискретного распределения          (3a)
  H(х2|х1)=-Mlog2j1|2(х1|х2)   для непрерывного распределения    ().

Переставляя индексы 1 и 2, получим условную энтропию H(х1|х2).
     Справедливы соотношения:

  H(х1,х2)=H(х1)+H(х1|х2)=H(х2)+H(х2|х1)≤H(х1)+H(х2)     (4)

Равенство в правой части достигается тогда и только тогда, когда величины  х1  и  x2  независимы.
     Неотрицательная величина

  J(х1,х2)=H(х1)+H(х2)-H(х1,х2)=H(х1)-H(х2|х1)=H(х2)-H(х1|х2)      (5)

может служить мерой зависимости между  х1  и  x2
     Функционалы (1-5) играют важную роль в науке, в частности в физике и в теории информации.

Google

В отдельном окне: 

     
«Я    У Ч Е Н Ы Й    И Л И . . .    Н Е Д О У Ч К А ?»
    Т Е С Т    В А Ш Е Г О    И Н Т Е Л Л Е К Т А

Предпосылка:
Эффективность развития любой отрасли знаний определяется степенью соответствия методологии познания - познаваемой сущности.
Реальность:
Живые структуры от биохимического и субклеточного уровня, до целого организма являются вероятностными структурами. Функции вероятностных структур являются вероятностными функциями.
Необходимое условие:
Эффективное исследование вероятностных структур и функций должно основываться на вероятностной методологии (Трифонов Е.В., 1978,..., ..., 2015, …).
Критерий: Степень развития морфологии, физиологии, психологии человека и медицины, объём индивидуальных и социальных знаний в этих областях определяется степенью использования вероятностной методологии.
Актуальные знания: В соответствии с предпосылкой, реальностью, необходимым условием и критерием... ...
о ц е н и т е   с а м о с т о я т е л ь н о:
—  с т е п е н ь  р а з в и т и я   с о в р е м е н н о й   н а у к и,
—  о б ъ е м   В а ш и х   з н а н и й   и
—  В а ш   и н т е л л е к т !


Любые реальности, как физические, так и психические, являются по своей сущности вероятностными.  Формулирование этого фундаментального положения – одно из главных достижений науки 20-го века.  Инструментом эффективного познания вероятностных сущностей и явлений служит вероятностная методология (Трифонов Е.В., 1978,..., ..., 2014, …).  Использование вероятностной методологии позволило открыть и сформулировать важнейший для психофизиологии принцип: генеральной стратегией управления всеми психофизическими структурами и функциями является прогнозирование (Трифонов Е.В., 1978,..., ..., 2012, …).  Непризнание этих фактов по незнанию – заблуждение и признак научной некомпетентности.  Сознательное отвержение или замалчивание этих фактов – признак недобросовестности и откровенная ложь.


     ♥  Ошибка?  Щелкни здесь и исправь ее!                                 Поиск на сайте                              E-mail автора (author): tryphonov@yandex.ru

π

ψ

σ

Санкт-Петербург, Россия, 1996-2015

Copyright © 1996-, Трифонов Е.В.

Разрешается некоммерческое цитирование материалов данной энциклопедии при условии
полного указания источника заимствования: имени автора, названия и WEB-адреcа данной энциклопедии


 
Всего посетителей = Altogether Visitors :  
Посетителей раздела «Общая лексика» = Visitors of section «General lexis» :