作者yuwenche (yuwenche)
看板DataScience
標題entropy的原始數學式或推導過程?
時間Wed Jun 8 14:42:04 2022
底下的連結是一段DDQN的程式,我知道它導入了entropy的概念,但不懂第38行的由來。
請問有誰知道原始數學式或推導過程? 感謝回覆。
https://github.com/ShawK91/Evolutionary-Reinforcement-Learning/blob/master/alg
os/ddqn.py
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.161.182.159 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/DataScience/M.1654670526.A.51D.html
1F:→ yuwenche: 網址太長,編輯有問題,無法跳轉,煩請複製貼上網址。 06/08 14:45
3F:→ chang1248w: softmax就歸一成機率,其他就...cross entropy... 06/08 16:11
4F:推 lycantrope: 那就是cross entropy, Σ-Plog(P) 06/08 16:22
5F:→ yuwenche: 感謝回覆。那這應該也可以用torch.nn. 06/09 14:53
6F:→ yuwenche: CrossEntropyLoss()函數代替吧? 06/09 14:54
7F:→ yoyololicon: cross entropy又稍微有點不一樣 06/09 18:53
8F:→ yoyololicon: 你現在的例子應該是沒辦法直接替代 06/09 18:54
9F:→ st1009: 缺少副標 我已經幫忙補上,下次請注意 謝謝 06/11 09:52
10F:推 feelthat: entropy的原始數學 是熱力學波滋曼的熵 你要學熱力學! 06/19 03:14
11F:→ feelthat: 電腦用的 是改良過的 shannon 熵 06/19 03:15
12F:推 feelthat: 文章: earthquakes: energy balance and entropy 06/19 03:17
13F:→ feelthat: 如果有人利用這篇文做出地震熵的預測 請上來發表與分享 06/19 03:18
14F:→ feelthat: 造福人類幸福安全 06/19 03:18
15F:→ yuwenche: 抱歉,是我自己沒想通。這根本是entropy的定義: 07/13 13:04
16F:→ yuwenche: E(X) = – sum x in X P(x) * log(P(x)) 。只是被 07/13 13:07
17F:→ yuwenche: softmax給搞混了。 07/13 13:08