Python 板


LINE

[问题] beautifulsoup 上的 find() takes no keyword argument 如何解决 请问各位神人 我最近刚开始学习如何用python爬文章於是挑了mobile01当目标 但是遇到了 find() takes no keyword argument不知道如何解决,我上卓查了一些类似的文章说要改成find_all,但是却返回”str”没有find_all这个attribute 更何况我只要爬一个特定目标应该不会是find_all才对 以下程式码 url="https://www.mobile01.com/newtopics.php?mode=newtopic" mWeb = openpyxl.load_workbook("mobile.xlsx") ws = mWeb.active for a in range(1,6): #建立一个requet物件,附加request Headers 的资讯,用request去打开网址 request=req.Request(url,headers={ "User-Agent":"Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/106.0.0.0 Mobile Safari/537.36" }) with req.urlopen(request) as response: data=response.read().decode("utf-8") #解析原始码,取得每篇文章的标题(抓全区热门文章) #data是网页的html原始码 #root表示整份网页 root=bs4.BeautifulSoup(data,"html.parser")#data是透过网路抓下来的资料(html原始码)丢给bs4会用html解析 titleLinks = root.find_all("div",class_="c-articleItem__title") page = root.find("a",class_="c-pagination c-pagination--next") for titleLink in titleLinks: titles = titleLink.a.text articleLink = "https://www.mobile01.com/" + titleLink.a["href"] ws.cell(i,1,i) ws.cell(i,2,titles) ws.cell(i,3,articleLink) mWeb.save("mobile.xlsx") request=req.Request(articleLink,headers={ "User-Agent":"Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/106.0.0.0 Mobile Safari/537.36" }) with req.urlopen(request) as response: inner = response.read().decode("utf-8") body = inner.find ("div" ,itemprop = "articleBody") article = body.text ws.cell(i,6,article) print(article) mWeb.save("mobile.xlsx") i = i+1 n = 1 #抓时间作者资料 titleInfos = root.find_all("div",class_="c-articleItemRemark__wAuto") for titleInfo in titleInfos: author = titleInfo.div.a.text timeInfo = titleInfo.div.next_sibling.text ws.cell(n,4,author) ws.cell(n,5,timeInfo) mWeb.save("mobile.xlsx") n = n+1 url = "https://www.mobile01.com/" + page["href"] 但我单把那行抓出来开另个档案request测试却又可以抓到文章 root=bs4.BeautifulSoup(data,"html.parser")#data是透过网路抓下来的资料(html原始码)丢给bs4会用html解析 body = root.find("div" , itemprop="articleBody") article = body.text print(article) 我不太理解为什麽 先谢过回答的各位了 ----- Sent from JPTT on my Samsung SM-N960F. --



※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 163.22.18.74 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Python/M.1670951523.A.F7C.html ※ 编辑: livehorse (163.22.18.74 台湾), 12/14/2022 01:16:19 ※ 编辑: livehorse (163.22.18.74 台湾), 12/14/2022 01:18:02 ※ 编辑: livehorse (163.22.18.74 台湾), 12/14/2022 01:30:47 ※ 编辑: livehorse (163.22.18.74 台湾), 12/14/2022 01:33:00
1F:→ lycantrope: 那不是bs4的find而是str的find 12/14 10:03
2F:→ blc: inner是str 12/14 11:24







like.gif 您可能会有兴趣的文章
icon.png[问题/行为] 猫晚上进房间会不会有憋尿问题
icon.pngRe: [闲聊] 选了错误的女孩成为魔法少女 XDDDDDDDDDD
icon.png[正妹] 瑞典 一张
icon.png[心得] EMS高领长版毛衣.墨小楼MC1002
icon.png[分享] 丹龙隔热纸GE55+33+22
icon.png[问题] 清洗洗衣机
icon.png[寻物] 窗台下的空间
icon.png[闲聊] 双极の女神1 木魔爵
icon.png[售车] 新竹 1997 march 1297cc 白色 四门
icon.png[讨论] 能从照片感受到摄影者心情吗
icon.png[狂贺] 贺贺贺贺 贺!岛村卯月!总选举NO.1
icon.png[难过] 羡慕白皮肤的女生
icon.png阅读文章
icon.png[黑特]
icon.png[问题] SBK S1安装於安全帽位置
icon.png[分享] 旧woo100绝版开箱!!
icon.pngRe: [无言] 关於小包卫生纸
icon.png[开箱] E5-2683V3 RX480Strix 快睿C1 简单测试
icon.png[心得] 苍の海贼龙 地狱 执行者16PT
icon.png[售车] 1999年Virage iO 1.8EXi
icon.png[心得] 挑战33 LV10 狮子座pt solo
icon.png[闲聊] 手把手教你不被桶之新手主购教学
icon.png[分享] Civic Type R 量产版官方照无预警流出
icon.png[售车] Golf 4 2.0 银色 自排
icon.png[出售] Graco提篮汽座(有底座)2000元诚可议
icon.png[问题] 请问补牙材质掉了还能再补吗?(台中半年内
icon.png[问题] 44th 单曲 生写竟然都给重复的啊啊!
icon.png[心得] 华南红卡/icash 核卡
icon.png[问题] 拔牙矫正这样正常吗
icon.png[赠送] 老莫高业 初业 102年版
icon.png[情报] 三大行动支付 本季掀战火
icon.png[宝宝] 博客来Amos水蜡笔5/1特价五折
icon.pngRe: [心得] 新鲜人一些面试分享
icon.png[心得] 苍の海贼龙 地狱 麒麟25PT
icon.pngRe: [闲聊] (君の名は。雷慎入) 君名二创漫画翻译
icon.pngRe: [闲聊] OGN中场影片:失踪人口局 (英文字幕)
icon.png[问题] 台湾大哥大4G讯号差
icon.png[出售] [全国]全新千寻侘草LED灯, 水草

请输入看板名称,例如:WOW站内搜寻

TOP