作者Dmix ()
看板Python
标题[问题] import pandas 程式执行速度问题
时间Sat Apr 30 13:11:19 2022
用pandas读excel并pandas画图
1, 若把这两个动作写成一个 .py 。import pandas一次
2, 读excel当主程式.py ;画图写成一个module 。 分别import pandas一次
第2种作法执行速度会比第1种慢 对吗?
----
Sent from
BePTT on my iPhone 11
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 223.140.14.229 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Python/M.1651295481.A.D21.html
1F:→ Hsins: 非得要说的话,的确会多一个往 sys.modules 找被 import 过 04/30 15:50
2F:→ Hsins: 的 module/package 是否存在,真正花时间的 loading 只会做 04/30 15:51
3F:→ Hsins: 一次,然後再根据不同的 module 绑定 namespace 04/30 15:51
4F:→ Hsins: 这种差异根本微乎其微,如果你真的在意这个速度差异,本来 04/30 15:52
5F:→ Hsins: 就不应该选择使用 Python 而是其他编译型语言,以 pandas 04/30 15:53
6F:→ Hsins: 来说也才两秒左右。 04/30 15:54
7F:→ Hsins: 我说的两秒左右是单单 import pandas 而言,至於你所说的这 04/30 15:55
8F:→ Hsins: 种在不同 module 引入同一个 package 的时间,是以微秒计的 04/30 15:55
9F:→ Hsins: ,速度差别大概是 2.x sec 和 (2.x + 0.00000x) sec的差别 04/30 15:57
10F:推 lycantrope: module import後产生__pycache__应该比单档案快? 04/30 16:55
11F:→ chang1248w: pandas的瓶颈应该是单执行绪才对 04/30 17:56
12F:→ chang1248w: 本身也不是多大包的东西 04/30 17:56
13F:推 lycantrope: 的确w不过data太大应该也会改用dask或spark 04/30 20:43
14F:→ Dmix: 如果我只是把excel的资料直接画图 需要dado 或spark吗? 05/01 19:29
15F:→ Hsins: 不需要 = = 05/01 20:24
16F:推 handsomeLin: 不需要担心import的执行速度 05/02 18:34