DataScience 板


LINE

※ 引述《eggy1018 (羅密歐與豬過夜)》之銘言: : 各位Data Science 版的大大們好,最近在深入研究GAN時,對於他的loss function的 : 解以及實作上仍存有疑惑。 : 問題點 : 最初開始推導的loss function 如下圖 : https://i.imgur.com/cafOjej.jpg : 意思是G, D min max這個function吧?換句話說是同個loss funcion? : 可是.... : 在實作上G, D的loss function卻不太一樣 : Generator loss function : https://i.imgur.com/tNVfz6s.jpg : Discriminator loss function : https://i.imgur.com/4pzT6Hh.jpg : 在自己以前學習的認知中,D要max上圖的Lisa function, G要min之,,所以我以為可 : 是同個loss function但是一個是正的一個是負的,然而實作上的方式卻跟數學意義上 : 太一樣... : 希望各位版友能給我一點意見,真的卡了很久,謝謝大家! 剛好對GAN有些許了解,在這邊分享一下個人看法。 不常在PTT發文,希望排版不會太難看。 首先,GAN的發展非常快速,以下皆基於原始的GAN(Goodfellow et al. in NIPS 2014)討 論。 先回答原Po的問題:為什麼原Po貼的程式碼(應該是PyTorch-GAN)中,generator與discri minator實作是這樣寫? 參考下圖GAN的objective function V,以gradient decent來說,一般GAN實作的loss fu nction確實是只差一個負號:discriminator為-V,generator為V。至於程式碼上為什麼 好像不只是差一個負號是因為V的其中一部分generator根本不需要考慮,也就是真實的觀 測資料部分,就算寫進loss function,對generator來說也是屬於常數,偏微分後會消去 ,因此在寫code時一般直接省略。 https://i.imgur.com/EtDkvLi.jpg 在原Po貼的程式碼中,先不管那個auxiliary_loss,discriminator在adversarial_loss 計算了兩次:一次計算真實資料與正類標籤(code中的valid)的binary cross entropy ( 以下簡稱BCE),一次計算生成資料與副類標籤(code中的fake)的BCE。而generator只計算 生成資料與「正類標籤」的BCE。 以實作上來說,generator與discriminator的loss好像是差一個負號的事情。但以理論上 兩者的目標卻不是僅僅是差一個負號這麼單純。要說到generator與discriminator的目標 ,那就不得不談一下GAN到底解決的什麼問題。 回顧一下所謂的generative model。在機率統計理論中, 生成模型(generative model)是 指能夠隨機生成觀測數據的模型。所以訓練一個generative model其實就是希望模型輸出 與觀測數據的分布越接近越好,或者說minimize這兩者之間的divergence。 如果說我們的generative model是一個簡單的model,比如說Gaussian mixture model, 那麼算個divergence,比如說JS divergence,就是一件不難的事情。但如果今天generat ive model是一個neural network,那就有點困難了。 而這就是GAN厲害的地方,GAN很聰明地使用到了經過訓練的分類器其實可以一定程度第代 表資料的divergence這件事,用實質為分類器的discriminator估divergence,並以此訓 練generator。 所以實際上也不能說discriminator在minimize BCE而generator在maximize BCE,而是di scriminator在minimize BCE,而generator在maximize discriminator可以找到的最小BC E。 https://i.imgur.com/9IpLHvy.jpg 為了盡量逼近這個目標,GAN一般採用交互訓練的方法,先訓練discriminator數次,在訓 練generator一次,如此重複直到訓練結束。 https://i.imgur.com/YCtPw4T.jpg 附帶一提,Goodfellow在2014年的論文中discriminator與generator的loss也不只是差一 個負號,不過其實照他的方法或是直接加負號都是可以訓練的。 --- 以上拋磚引玉提供一點粗淺見解。 希望有幫助,也歡迎一起討論。 關於一些GAN的細節可以參考這篇文章 https://tinyurl.com/y4l2q5vf 或是李宏毅老師的這段投影片 https://youtu.be/DMA4MrNieWo
--



※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 123.194.88.184 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/DataScience/M.1601307471.A.C6F.html ※ 編輯: janus7799 (123.194.88.184 臺灣), 09/29/2020 01:20:57
1F:推 jasoncph: 推 09/29 23:21
2F:推 wtchen: discriminator的目標是減少分類損失(不是真陽就是真陰) 10/01 02:32
3F:→ wtchen: 但generator只希望增加偽陽,讓discriminator接受 10/01 02:33
4F:→ wtchen: 自己生成的假樣本,至於discriminator對於真樣本的鑑別度 10/01 02:34
5F:→ wtchen: generator是不在乎的 10/01 02:34
6F:→ hippo130: 推 10/05 00:38
7F:推 jason2718: 真詳細,推推 10/11 19:43







like.gif 您可能會有興趣的文章
icon.png[問題/行為] 貓晚上進房間會不會有憋尿問題
icon.pngRe: [閒聊] 選了錯誤的女孩成為魔法少女 XDDDDDDDDDD
icon.png[正妹] 瑞典 一張
icon.png[心得] EMS高領長版毛衣.墨小樓MC1002
icon.png[分享] 丹龍隔熱紙GE55+33+22
icon.png[問題] 清洗洗衣機
icon.png[尋物] 窗台下的空間
icon.png[閒聊] 双極の女神1 木魔爵
icon.png[售車] 新竹 1997 march 1297cc 白色 四門
icon.png[討論] 能從照片感受到攝影者心情嗎
icon.png[狂賀] 賀賀賀賀 賀!島村卯月!總選舉NO.1
icon.png[難過] 羨慕白皮膚的女生
icon.png閱讀文章
icon.png[黑特]
icon.png[問題] SBK S1安裝於安全帽位置
icon.png[分享] 舊woo100絕版開箱!!
icon.pngRe: [無言] 關於小包衛生紙
icon.png[開箱] E5-2683V3 RX480Strix 快睿C1 簡單測試
icon.png[心得] 蒼の海賊龍 地獄 執行者16PT
icon.png[售車] 1999年Virage iO 1.8EXi
icon.png[心得] 挑戰33 LV10 獅子座pt solo
icon.png[閒聊] 手把手教你不被桶之新手主購教學
icon.png[分享] Civic Type R 量產版官方照無預警流出
icon.png[售車] Golf 4 2.0 銀色 自排
icon.png[出售] Graco提籃汽座(有底座)2000元誠可議
icon.png[問題] 請問補牙材質掉了還能再補嗎?(台中半年內
icon.png[問題] 44th 單曲 生寫竟然都給重複的啊啊!
icon.png[心得] 華南紅卡/icash 核卡
icon.png[問題] 拔牙矯正這樣正常嗎
icon.png[贈送] 老莫高業 初業 102年版
icon.png[情報] 三大行動支付 本季掀戰火
icon.png[寶寶] 博客來Amos水蠟筆5/1特價五折
icon.pngRe: [心得] 新鮮人一些面試分享
icon.png[心得] 蒼の海賊龍 地獄 麒麟25PT
icon.pngRe: [閒聊] (君の名は。雷慎入) 君名二創漫畫翻譯
icon.pngRe: [閒聊] OGN中場影片:失蹤人口局 (英文字幕)
icon.png[問題] 台灣大哥大4G訊號差
icon.png[出售] [全國]全新千尋侘草LED燈, 水草

請輸入看板名稱,例如:Tech_Job站內搜尋

TOP