머신러닝

Softmax와 볼츠만 확률분포와의 Analogy-III: 볼츠만 확률분포와 머신러닝의 차이점

coding art 2019. 1. 31. 20:07
728x90


입자들이 포함된 용기의 내부 온도가 일정하고 입자들의 전체 에너지가 보존된다는 조건하에서 각각의 입자들은 서로 다른 위치와 속도분포를 가지게 되므로 물리적으로 가능한(probable) microstate의 경우의 수가 수없이 많아지게 되는데 이러한 상황을 통계 확률적으로 고려해 보자. 현실적이면서도 물리적인 상황에서 용기 내부에는 입자 1몰만 잡아도 61023승 만큼의 입자 수에 해당하므로 엄청나게 많은 수의 입자가 들어 있음을 알 수 있다. 하지만 볼츠만 분포에서 확률분포의 형태를 알아냄에 있어서 단지 몇 개만의 입자를 가지고 얻어낸 결과를 많은 수의 입자 사례에 대해 확장하기로 한다.

 

아래에 요약 작성된 내용은 아래 사이트의 원문을 참조하도록 하자.

http://hyperphysics.phy-astr.gsu.edu/hbase/quantum/disfcn.html


입자가 가질 수 있는 에너지 E9 단계로 나누어 단계별로 E 만큼씩 차이가 있는 것으로 하고 논의의 마지막 단계에서 E0 으로 극한을 취하여 에너지가 연속적이 되게끔 하자. 고려하는 입자의 수는 단지 N=6개이며 용기 입자들의 에너지의 합은 8E 로 두기로 한다. 물론 6 8 이라는 숫자는 임의로 취한 것이며, 대단히 적은 숫자들이긴 하지만 볼츠만 분포의 특성을 알아내는데 충분하다고 보인다.


나머지 내용은 다음의 블로그 주소로 이동하여 마저 읽어 보세요.

https://steemit.com/kr/@codingart/2-3-softmax-analogy-iii