作者iLeyaSin365 (365)
看板DataScience
标题[问题] tensorflow1.0作者设计的用意?
时间Thu Nov 4 01:03:01 2021
使用工具:(ex:python,Java,C++,tensorflow,keras,MATLAB,etc...)
问题内容:
https://i.imgur.com/e2ioXWQ.jpg
看到一门网路课做
tensorflow vs pytorch的比较(如上图),tensorflow较麻烦。以ab相加的函数为例
,pytorch像是写python程式一般(右),但tensorflow要使之这麽做的写法,就挺麻烦
(左)。
需先类似於vhdl电路设计语法(见下图),
写ac连通(1), ab连通(2),最後通电使a+b= c(3)
https://i.imgur.com/IKvUROi.jpg
我问题是:感觉那样的语法也是挺有体系,作者不是故意找麻烦吧?他是为什麽要特意
去取汲类似电路的风格来让人这样使用tensorflow呢?
网路也有人问:他想让FPGA帮他做机器学习,能吗?
https://i.imgur.com/xRO88Yw.jpg
然後还有人这样做:
不是在cpu也不是 GPU,而是FPGA上面如此应用。
(问问题前才看到。)
我还是不太确定...最重要的是,
要先理解tensorflow作者的深意,
问题是...那是什麽?
https://youtu.be/eHeqenSj0VQ
----
Sent from
BePTT on my HUAWEI PAR-LX9
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 111.83.143.224 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/DataScience/M.1635958984.A.556.html
※ 编辑: iLeyaSin365 (111.83.143.224 台湾), 11/04/2021 01:04:32
1F:推 yoyololicon: 动态静态图的差别吧 你去看其他静态图的架构也是这 11/04 08:41
2F:→ yoyololicon: 个调调 11/04 08:41
3F:→ RumiManiac: 跟电路没有关系,也没有啥深意,就只是还没发明动态图 11/05 07:04
4F:→ yoche2000: 所以现在学界好像都是torch比较多 11/11 12:00
5F:→ yoche2000: 我tf党同事都换成torch了 11/11 12:00
6F:→ toasthaha: 单纯只是一开始比较流行静态图而已 11/13 14:32
7F:→ wakawakaAAA: torch训练过程比较可控 12/04 08:30
8F:→ howboutdah: 因为 Jeff Dean 之前发明过 MapReduce 12/09 03:04