anonymous@RULINUX.NET~# | Last login: 2024-11-06 05:55:50 |
Регистрация Вход | Новости | Разметка | Пользователи | Галерея | Форум | Статьи | Неподтвержденное | Трекер | Правила форума | F.A.Q. | Ссылки | Поиск |
Форум - Talks | [RSS] |
верно или нет?
есть комната, в ней 20 стульев, если стулья собраны в углу, энтропия маленькая, а если равномерно по комнате - большая.
природа устроена так, что стулья стремятся равномерно распределиться по комнате - это и есть энтропия
????
vilfred(*) (2010-03-30 22:50:00)
Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.1) Gecko/2008072807 ASPLinux/3.0.1-1.0.140asp Firefox/3.0.1
|
|
|
Скрыть
Re: дал тут свое определение энтропии на одном из форумов>есть комната, в ней 20 стульев, если стулья собраны в углу, энтропия маленькая, а если равномерно по комнате - большая.
нет, простыми перестановками энтропию не увеличить - в конце концов это всего-лишь один из возможных вариантов, ничем не отличающийся от других) правильнее было бы: есть комната, в ней 20 стульев, стульев всего 20 и энтропия маленькая. но с течение времени стулья обветшали: у одного отвалилась ножка, у другого спинка, количества "частей" в комнате все растет и растет, все больше и больше вариантов их взаимного расположения, в конечном итоге в комнате наступает хаос - везде валяются щепки, куски обшивки, во всем этом бардаке нельзя даже понять чем это все когда-то было. вот это и есть энтропия:) аддед: хотя я тут подумал, если брать функцию вероятности от того, что человек, проходя через случайное место, споткнется об стул, то при равномерном распределении энропия все же больше) |
Скрыть
Re: дал тут свое определение энтропии на одном из форумовГуглобот прав. Любое конкретное расположение имеет одинаковую вероятность. Это только человечий глаз видит что какое-то конкретное расположение более упорядочено. На самом деле, вдруг ты видишь, что они разбросаны в беспорядке, а на самом деле подчиняются какому-то хитрому математическому закону? Поэтому энтропия вообще не применима к неподвижным объектам, она зависит от функции распределения. Вот в ситуации если бы допустим каждый день стулья в комнате весь день каким-то образом двигали, а вечером ты приходил бы и проверял их расположение, уже можно вычислить энтропию через много дней. Если каждый день расположение стульев совсем другое - энтропия больше, а если они расположены более предсказуемо - меньше. Поэтому в данном случае энтропию можно понимать как меру предсказуемости. bugmaker(*)(2010-03-31 02:35:27)
Mozilla/5.0 (X11; U; Linux i686; ru; rv:1.9.0.18) Gecko/2010021501 Ubuntu/9.04 (jaunty) Firefox/3.0.18 |
Скрыть
Re: дал тут свое определение энтропии на одном из форумов>>есть комната, в ней 20 стульев, если стулья собраны в углу, энтропия маленькая, а если равномерно по комнате - большая.
anonymous(*)(2010-03-31 06:30:44)
Mozilla/5.0 (X11; U; Linux i686; de; rv:1.9.0.18) Gecko/2010021501 Ubuntu/9.04 Firefox/3.0.18 |
Скрыть
Re: дал тут свое определение энтропии на одном из форумов> Гуглобот прав. Любое конкретное расположение имеет одинаковую вероятность. Это только человечий глаз видит что какое-то конкретное расположение более упорядочено. На самом деле, вдруг ты видишь, что они разбросаны в беспорядке, а на самом деле подчиняются какому-то хитрому математическому закону? Поэтому энтропия вообще не применима к неподвижным объектам, она зависит от функции распределения. Вот в ситуации если бы допустим каждый день стулья в комнате весь день каким-то образом двигали, а вечером ты приходил бы и проверял их расположение, уже можно вычислить энтропию через много дней. Если каждый день расположение стульев совсем другое - энтропия больше, а если они расположены более предсказуемо - меньше. Поэтому в данном случае энтропию можно понимать как меру предсказуемости.
и да: каждое конкретное распределение имеет одну и туже вероятность, но при одинаковой равмномерной модели. В этом случае мы уже а приори знаем что стулья ведут себя одинаково. Здесь и ты и googlebot анонимус прывы. и нет: если модель только частична известна. Например: предположем у нас 1 мерная комната 0 < 10, и мы знаем что стулья распределены равномерно U[a,b], 0< =a< =b, и независимы. i.i.d А теперь рассмотрим две ситуации: А) у нас 4 стула: находятся на координатах 0, 2, 2.5, 10 то мы можем 100 % сказать что распределение U[0,10] Б) ситуация следующая, у нас 4 стула: на координатах 0, 2 , 2.5, 5, теперь мы не сможем сказать 100 % что распределение U[0,10]. Только как квалифицировать энтропию на основе распределения я не знаю. Может по носителю или может по дисперсии ? Я бы сказал что вариант А как вариант с большей вероятностю с большим носителем и дисперсией более "хаотичен". anonymous(*)(2010-03-31 07:18:10)
Mozilla/5.0 (X11; U; Linux i686; de; rv:1.9.0.18) Gecko/2010021501 Ubuntu/9.04 Firefox/3.0.18 |
|
|
|
Этот тред читают 1 пользователь: |
Анонимных: 1 Зарегистрированных: 0 |
Re: дал тут свое определение энтропии на одном из форумов
Энтропия - это функция вероятности состояния по возможным состояниям. Состояние что все 20 стульев окажутся в углу вместе маловероятно - значит энтропя маленькая. Состояние, что они все точно равномерно распределяться - тоже маловероятно (по-моему), значит тоже энтропия маленькая. В природе, вроде, стулья стремяться хаотично разбросаться по комнате.
Mozilla/5.0 (X11; U; Linux x86_64; en-US; rv:1.9.1.8) Gecko/20100312 Gentoo Firefox/3.5.8