anonymous@RULINUX.NET~# Last login: 2024-11-06 05:55:50
Регистрация Вход Новости | Разметка | Пользователи | Галерея | Форум | Статьи | Неподтвержденное | Трекер | Правила форума | F.A.Q. | Ссылки | Поиск
[#] [Добавить метку] [Редактировать]
Скрыть

дал тут свое определение энтропии на одном из форумов

верно или нет?

есть комната, в ней 20 стульев, если стулья собраны в углу, энтропия маленькая, а если равномерно по комнате - большая.

природа устроена так, что стулья стремятся равномерно распределиться по комнате - это и есть энтропия

????

vilfred(*) (2010-03-30 22:50:00)

Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.1) Gecko/2008072807 ASPLinux/3.0.1-1.0.140asp Firefox/3.0.1

[Ответить на это сообщение]
avatar
Скрыть

Re: дал тут свое определение энтропии на одном из форумов

Энтропия - это функция вероятности состояния по возможным состояниям. Состояние что все 20 стульев окажутся в углу вместе маловероятно - значит энтропя маленькая. Состояние, что они все точно равномерно распределяться - тоже маловероятно (по-моему), значит тоже энтропия маленькая. В природе, вроде, стулья стремяться хаотично разбросаться по комнате.

anonymous(*)(2010-03-30 22:56:50)

Mozilla/5.0 (X11; U; Linux x86_64; en-US; rv:1.9.1.8) Gecko/20100312 Gentoo Firefox/3.5.8
avatar
Скрыть

Re: дал тут свое определение энтропии на одном из форумов

>есть комната, в ней 20 стульев, если стулья собраны в углу, энтропия маленькая, а если равномерно по комнате - большая.
>природа устроена так, что стулья стремятся равномерно распределиться по комнате - это и есть энтропия

нет, простыми перестановками энтропию не увеличить - в конце концов это всего-лишь один из возможных вариантов, ничем не отличающийся от других) правильнее было бы:

есть комната, в ней 20 стульев, стульев всего 20 и энтропия маленькая. но с течение времени стулья обветшали: у одного отвалилась ножка, у другого спинка, количества "частей" в комнате все растет и растет, все больше и больше вариантов их взаимного расположения, в конечном итоге в комнате наступает хаос - везде валяются щепки, куски обшивки, во всем этом бардаке нельзя даже понять чем это все когда-то было. вот это и есть энтропия:)

аддед: хотя я тут подумал, если брать функцию вероятности от того, что человек, проходя через случайное место, споткнется об стул, то при равномерном распределении энропия все же больше)

anonymous(*)(2010-03-31 00:29:47)

Googlebot/2.1 (+http://www.googlebot.com/bot.html)
avatar
Скрыть

Re: дал тут свое определение энтропии на одном из форумов

Гуглобот прав. Любое конкретное расположение имеет одинаковую вероятность. Это только человечий глаз видит что какое-то конкретное расположение более упорядочено. На самом деле, вдруг ты видишь, что они разбросаны в беспорядке, а на самом деле подчиняются какому-то хитрому математическому закону? Поэтому энтропия вообще не применима к неподвижным объектам, она зависит от функции распределения. Вот в ситуации если бы допустим каждый день стулья в комнате весь день каким-то образом двигали, а вечером ты приходил бы и проверял их расположение, уже можно вычислить энтропию через много дней. Если каждый день расположение стульев совсем другое - энтропия больше, а если они расположены более предсказуемо - меньше. Поэтому в данном случае энтропию можно понимать как меру предсказуемости.

bugmaker(*)(2010-03-31 02:35:27)

Mozilla/5.0 (X11; U; Linux i686; ru; rv:1.9.0.18) Gecko/2010021501 Ubuntu/9.04 (jaunty) Firefox/3.0.18
avatar
Скрыть

Re: дал тут свое определение энтропии на одном из форумов

>>есть комната, в ней 20 стульев, если стулья собраны в углу, энтропия маленькая, а если равномерно по комнате - большая.
>>природа устроена так, что стулья стремятся равномерно распределиться по комнате - это и есть энтропия
>нет, простыми перестановками энтропию не увеличить - в конце концов это всего-лишь один из возможных вариантов, ничем не отличающийся от других) правильнее было бы:
> есть комната, в ней 20 стульев, стульев всего 20 и энтропия маленькая. но с течение времени стулья обветшали: у одного отвалилась ножка, у другого спинка, количества "частей" в комнате все растет и растет, все больше и больше вариантов их взаимного расположения, в конечном итоге в комнате наступает хаос - везде валяются щепки, куски обшивки, во всем этом бардаке нельзя даже понять чем это все когда-то было. вот это и есть энтропия:)
Принципиально это определение точно такое же как у Вильфреда: У него стулья собраны в одой части комнаты а у тебя щепки и части собраны в стулья.

anonymous(*)(2010-03-31 06:30:44)

Mozilla/5.0 (X11; U; Linux i686; de; rv:1.9.0.18) Gecko/2010021501 Ubuntu/9.04 Firefox/3.0.18
avatar
Скрыть

Re: дал тут свое определение энтропии на одном из форумов

> Гуглобот прав. Любое конкретное расположение имеет одинаковую вероятность. Это только человечий глаз видит что какое-то конкретное расположение более упорядочено. На самом деле, вдруг ты видишь, что они разбросаны в беспорядке, а на самом деле подчиняются какому-то хитрому математическому закону? Поэтому энтропия вообще не применима к неподвижным объектам, она зависит от функции распределения. Вот в ситуации если бы допустим каждый день стулья в комнате весь день каким-то образом двигали, а вечером ты приходил бы и проверял их расположение, уже можно вычислить энтропию через много дней. Если каждый день расположение стульев совсем другое - энтропия больше, а если они расположены более предсказуемо - меньше. Поэтому в данном случае энтропию можно понимать как меру предсказуемости.
Принципиально это определение точно такое же как у Вильфреда: У него стулья собраны в одой части комнаты а у тебя щепки и части собраны в стулья.

и да: каждое конкретное распределение имеет одну и туже вероятность, но при одинаковой равмномерной модели. В этом случае мы уже а приори знаем что стулья ведут себя одинаково. Здесь и ты и googlebot анонимус прывы.

и нет: если модель только частична известна.

Например: предположем у нас 1 мерная комната 0 < 10, и мы знаем что стулья распределены равномерно U[a,b], 0< =a< =b, и независимы. i.i.d

А теперь рассмотрим две ситуации:

А) у нас 4 стула: находятся на координатах 0, 2, 2.5, 10 то мы можем 100 % сказать что распределение U[0,10]

Б) ситуация следующая, у нас 4 стула: на координатах 0, 2 , 2.5, 5, теперь мы не сможем сказать 100 % что распределение U[0,10].

Только как квалифицировать энтропию на основе распределения я не знаю. Может по носителю или может по дисперсии ? Я бы сказал что вариант А как вариант с большей вероятностю с большим носителем и дисперсией более "хаотичен".

anonymous(*)(2010-03-31 07:18:10)

Mozilla/5.0 (X11; U; Linux i686; de; rv:1.9.0.18) Gecko/2010021501 Ubuntu/9.04 Firefox/3.0.18
Этот тред читают 1 пользователь:
Анонимных: 1
Зарегистрированных: 0




(c) 2010-2020 LOR-NG Developers Group
Powered by TimeMachine

Valid HTML 4.01 Transitional Правильный CSS!