失眠网,内容丰富有趣,生活中的好帮手!
失眠网 > [Python]网络爬虫(六):一个简单的百度贴吧的小爬虫

[Python]网络爬虫(六):一个简单的百度贴吧的小爬虫

时间:2023-05-05 12:38:03

相关推荐

[Python]网络爬虫(六):一个简单的百度贴吧的小爬虫

后端开发|Python教程

Python,网络爬虫,百度贴吧

后端开发-Python教程

[Python]网络爬虫(六):一个简单的百度贴吧的小爬虫

磁力资源发布源码,ubuntu黑屏是否联网,夏天玻璃上爬虫,php conv,seo基础南山lzw

# -*- coding: utf-8 -*- #--------------------------------------- # 程序:百度贴吧爬虫 # 版本:0.1 # 作者:why # 日期:-05-14 # 语言:Python 2.7 # 操作:输入带分页的地址,去掉最后面的数字,设置一下起始页数和终点页数。 # 功能:下载对应页码内的所有页面并存储为html文件。 #---------------------------------------import string, urllib2#定义百度函数 def baidu_tieba(url,begin_page,end_page): for i in range(begin_page, end_page+1):sName = string.zfill(i,5) + .html#自动填充成六位的文件名print 正在下载第 + str(i) + 个网页,并将其存储为 + sName + ......f = open(sName,w+)m = urllib2.urlopen(url + str(i)).read()f.write(m)f.close() #-------- 在这里输入参数 ------------------ # 这个是山东大学的百度贴吧中某一个帖子的地址 #bdurl = /p/2296017831?pn= #iPostBegin = 1 #iPostEnd = 10 bdurl = str(raw_input(u请输入贴吧的地址,去掉pn=后面的数字:\n)) begin_page = int(raw_input(u请输入开始的页数:\n)) end_page = int(raw_input(u请输入终点的页数:\n)) #-------- 在这里输入参数 ------------------ #调用 baidu_tieba(bdurl,begin_page,end_page)

单车 管理平台源码,ubuntu连接网络dns,tomcat外网下载服务器,易语言爬虫解析,没有用于调试php的扩展,网站seo包月lzw

如果觉得《[Python]网络爬虫(六):一个简单的百度贴吧的小爬虫》对你有帮助,请点赞、收藏,并留下你的观点哦!

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。