作者iLeyaSin365 (365)
看板DataScience
標題[問題] tensorflow1.0作者設計的用意?
時間Thu Nov 4 01:03:01 2021
使用工具:(ex:python,Java,C++,tensorflow,keras,MATLAB,etc...)
問題內容:
https://i.imgur.com/e2ioXWQ.jpg
看到一門網路課做
tensorflow vs pytorch的比較(如上圖),tensorflow較麻煩。以ab相加的函數為例
,pytorch像是寫python程式一般(右),但tensorflow要使之這麼做的寫法,就挺麻煩
(左)。
需先類似於vhdl電路設計語法(見下圖),
寫ac連通(1), ab連通(2),最後通電使a+b= c(3)
https://i.imgur.com/IKvUROi.jpg
我問題是:感覺那樣的語法也是挺有體系,作者不是故意找麻煩吧?他是為什麼要特意
去取汲類似電路的風格來讓人這樣使用tensorflow呢?
網路也有人問:他想讓FPGA幫他做機器學習,能嗎?
https://i.imgur.com/xRO88Yw.jpg
然後還有人這樣做:
不是在cpu也不是 GPU,而是FPGA上面如此應用。
(問問題前才看到。)
我還是不太確定...最重要的是,
要先理解tensorflow作者的深意,
問題是...那是什麼?
https://youtu.be/eHeqenSj0VQ
----
Sent from
BePTT on my HUAWEI PAR-LX9
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.83.143.224 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/DataScience/M.1635958984.A.556.html
※ 編輯: iLeyaSin365 (111.83.143.224 臺灣), 11/04/2021 01:04:32
1F:推 yoyololicon: 動態靜態圖的差別吧 你去看其他靜態圖的架構也是這 11/04 08:41
2F:→ yoyololicon: 個調調 11/04 08:41
3F:→ RumiManiac: 跟電路沒有關係,也沒有啥深意,就只是還沒發明動態圖 11/05 07:04
4F:→ yoche2000: 所以現在學界好像都是torch比較多 11/11 12:00
5F:→ yoche2000: 我tf黨同事都換成torch了 11/11 12:00
6F:→ toasthaha: 單純只是一開始比較流行靜態圖而已 11/13 14:32
7F:→ wakawakaAAA: torch訓練過程比較可控 12/04 08:30
8F:→ howboutdah: 因為 Jeff Dean 之前發明過 MapReduce 12/09 03:04