失眠网,内容丰富有趣,生活中的好帮手!
失眠网 > 推荐一部python教程_Python爬虫入门教程:博客园首页推荐博客排行的秘密

推荐一部python教程_Python爬虫入门教程:博客园首页推荐博客排行的秘密

时间:2023-04-24 03:02:33

相关推荐

推荐一部python教程_Python爬虫入门教程:博客园首页推荐博客排行的秘密

1. 前言

虽然博客园注册已经有五年多了,但是最近才正式开始在这里写博客。(进了博客园才知道这里面个个都是人才,说话又好听,超喜欢这里...)但是由于写的内容都是软件测试相关,热度一直不是很高。看到首页的推荐博客排行时,心里痒痒的,想想看看这些大佬究竟是写了什么文章这么受欢迎,可以被推荐。所以用Python抓取了这100位推荐博客,简单分析了每个博客的文章分类,阅读排行榜,评论排行榜及推荐排行榜,最后统计汇总并生成词云。正好这也算是一篇非常好的Python爬虫入门教程了。

2. 环境准备

2.1 操作系统及浏览器版本

Windows 10

Chrome 62

2.2 Python版本

Python 2.7

2.3 用到的lib库

1. requests Http库

2. re 正则表达式

3. json json数据处理

4. BeautifulSoup Html网页数据提取

5. jieba 分词

6. wordcloud 生成词云

7. concurrent.futures 异步并发

所有模块均可使用pip命令安装,如下:

pip installrequests

pipinstallbeautifulsoup4

pipinstalljieba

pipinstallwordcloud

pipinstall futures

3. 编写爬虫

上面的环境准备好之后,我们正式开始编写爬虫,但是写代码之前,我们首先需要对需要爬取的页面进行分析。

3.1 页面分析

3.1.1 博客园首页推荐博客排行

1. 运行Chrome浏览器,按快捷键F12打开开发者工具,打开博客园首页:/

2. 在右侧点击Network,选中XHR类型,点击下面的每一个请求都可以看到详细的Http请求信息

3. 依次选中右侧的Response,查看接口响应,筛选我们需要的接口,这里我们找到了UserStats接口,可以看到这个接口返回了我们需要的“推荐博客排行”信息

4. 点击右侧Headers查看详细的接口信息,可以看到这是一个简单的Http GET接口,不需要传递任何参数:/aggsite/UserStats

5. 这样我们使用requests编写简单的请求就可以获取首页“推荐博客排行”信息

#coding:utf-8

importrequests

r=requests.get('/aggsite/UserStats')print r.text

返回结果如下:

博问专家排行

LauncherAstar幻天芒dudu爱编程的大叔邀月吴瑞祥丁学Gray Zhangeaglet

» 更多博问专家

最新推荐博客

雨夜朦胧枕边书sparkdev悦光阴Emrys5

» 更多推荐博客

推荐博客排行

1. Artech2. 路过秋天3. 数据之巅4. 腾飞(Jesse)5. tkbSimplest6. 圣殿骑士7. CareySon8. 三生石上(FineUI控件)9. 葡萄城控件技术团队10. 一线码农11. Vamei12. 农码一生13. 张善友14. 小坦克15. ChokCoco16. Jimmy Zhang17. Edison Chou18. KenshinCui19. 滴答的雨20. 21. 司徒正美22. 【艾伦】23. 请叫我头头哥24. Savorboard25. 桦仔26. 刘哇勇27. 匠心十年28. keepfool29. 左潇龙30. stoneniqiu31. 深蓝色右手32. mindwind33. 焰尾迭34. 道法自然35. netfocus36. 纯洁的微笑37. snandy38. Jeffcky39. JustRun40. 41. wolfy42. EtherDream43. 王清培44. 潇湘隐者45. 陈希章46. 自由飞47. 李永京48. 周见智49. 木宛城主50. 冠军51. dotNetDR_52. 邀月53. Barret Lee54. 程兴亮55. sparkdev56. 计算机的潜意识57. 慕容小匹夫58. 【当耐特】59. vajoy60. 菩提树下的杨过61. Todd Wei62. 黄博文63. LoveJenny64. webabcd65. 悦光阴66. 风尘浪子67. 木小楠68. 玉开69. 农民伯伯70. Terry_龙71. BIT祝威72. beautifulzzzz73. 刘冬.NET74. 传说中的弦哥75. 最课程陆敏技76. 韩子迟77. 代震军78. hystar79. 随它去吧80. 岑安81. skyme82. DebugLZQ83. 灵感之源84. 金色海洋(jyk)阳光男孩85. 银河86. lovecindywang87. zdd88. foreach_break89. BloodyAngel90. JeffWong91. porschev92. 坚强200293. 飘扬的红领巾94. 啊汉95. 万一96. 丁浪97. 心态要好98. 1-2-399. 程序诗人100. SoftwareTeacher

» 更多推荐博客

» 博客列表(按积分)

View Code

可以看到返回的内容是HTML格式,这里我们有两种方法可以获取“推荐博客排行”,一种是使用Beautiful Soup解析Html内容,另外一种是使用正则表达式筛选内容。代码如下:

#coding:utf-8

importrequestsimportreimportjsonfrom bs4 importBeautifulSoup#获取推荐博客列表

r = requests.get('/aggsite/UserStats')#使用BeautifulSoup解析

soup = BeautifulSoup(r.text, 'lxml')

users= [(i.text, i['href']) for i in soup.select('#blogger_list > ul > li > a') if 'AllBloggers.aspx' not in i['href'] and 'expert' not in i['href']]print json.dumps(users,ensure_ascii=False)#也可以使用使用正则表达式

user_re=pile('(.+)')

users=[(name,url) for url,name in re.findall(user_re,r.text) if 'AllBloggers.aspx' not in url and 'expert' not inurl]print json.dumps(users,ensure_ascii=False)

运行结果如下:

[["Artech", "/artech/"], ["路过秋天", "/cyq1162/"], ["数据之巅", "/asxinyu/"], ["腾飞(Jesse)", "/jesse/"], ["tkbSimplest", "/farb/"], ["圣殿骑士", "/KnightsWarrior/"], ["CareySon", "/CareySon/"], ["三生石上(FineUI控件)", "/sanshi/"], ["葡萄城控件技术团队", "/powertoolsteam/"], ["一线码农", "/huangxincheng/"], ["Vamei", "/vamei/"], ["农码一生", "/zhaopei/"], ["张善友", "/shanyou/"], ["小坦克", "/TankXiao/"], ["ChokCoco", "/coco1s/"], ["Jimmy Zhang", "/JimmyZhang/"], ["Edison Chou", "/edisonchou/"], ["KenshinCui", "/kenshincui/"], ["滴答的雨", "/heyuquan/"], ["", "/insus/"], ["司徒正美", "/rubylouvre/"], ["【艾伦】", "/aaronjs/"], ["请叫我头头哥", "/toutou/"], ["Savorboard", "/savorboard/"], ["桦仔", "/lyhabc/"], ["刘哇勇", "/Wayou/"], ["匠心十年", "/gaochundong/"], ["keepfool", "/keepfool/"], ["左潇龙", "/zuoxiaolong/"], ["stoneniqiu", "/stoneniqiu/"], ["深蓝色右手", "/alamiye010/"], ["mindwind", "/mindwind/"], ["焰尾迭", "/yanweidie/"], ["道法自然", "/baihmpgy/"], ["netfocus", "/netfocus/"], ["纯洁的微笑", "/ityouknow/"], ["snandy", "/snandy/"], ["Jeffcky", "/CreateMyself/"], ["JustRun", "/JustRun1983/"], ["", "/daxnet/"], ["wolfy", "/wolf-sun/"], ["EtherDream", "/index-html/"], ["王清培", "/wangiqngpei557/"], ["潇湘隐者", "/kerrycode/"], ["陈希章", "/chenxizhang/"], ["自由飞", "/freeflying/"], ["李永京", "/lyj/"], ["周见智", "/xiaozhi_5638/"], ["木宛城主", "/OceanEyes/"], ["冠军", "/haogj/"], ["dotNetDR_", "/highend/"], ["邀月", "/downmoon/"], ["Barret Lee", "/hustskyking/"], ["程兴亮", "/chengxingliang/"], ["sparkdev", "/sparkdev/"], ["计算机的潜意识", "/subconscious/"], ["慕容小匹夫", "/murongxiaopifu/"], ["【当耐特】", "/iamzhanglei/"], ["vajoy", "/vajoy/"], ["菩提树下的杨过", "/yjmyzz/"], ["Todd Wei", "/weidagang2046/"], ["黄博文", "/huang0925/"], ["LoveJenny", "/LoveJenny/"], ["webabcd", "/webabcd/"], ["悦光阴", "/ljhdo/"], ["风尘浪子", "/leslies2/"], ["木小楠", "/liuhaorain/"], ["玉开", "/yukaizhao/"], ["农民伯伯", "/over140/"], ["Terry_龙", "/TerryBlog/"], ["BIT祝威", "/bitzhuwei/"], ["beautifulzzzz", "/zjutlitao/"], ["刘冬.NET", "/GoodHelper/"], ["传说中的弦哥", "/legendxian/"], ["最课程陆敏技", "/luminji/"], ["韩子迟", "/zichi/"], ["代震军", "/daizhj/"], ["hystar", "/lsxqw/"], ["随它去吧", "/dowinning/"], ["岑安", "/hongru/"], ["skyme", "/skyme/"], ["DebugLZQ", "/DebugLZQ/"], ["灵感之源", "/unruledboy/"], ["金色海洋(jyk)阳光男孩", "/jyk/"], ["银河", "/skyivben/"], ["lovecindywang", "/lovecindywang/"], ["zdd", "/graphics/"], ["foreach_break", "/foreach-break/"], ["BloodyAngel", "/zgynhqf/"], ["JeffWong", "/jeffwongishandsome/"], ["porschev", "/zhongweiv/"], ["坚强2002", "/me-sa/"], ["飘扬的红领巾", "/leefreeman/"], ["啊汉", "/hlxs/"], ["万一", "/del/"], ["丁浪", "/dinglang/"], ["心态要好", "/oppoic/"], ["1-2-3", "/1-2-3/"], ["程序诗人", "/scy251147/"], ["SoftwareTeacher", "/xinz/"]]

[["雨夜朦胧", "/RainingNight/"], ["枕边书", "/zhenbianshu/"], ["sparkdev", "/sparkdev/"], ["悦光阴", "/ljhdo/"], ["Emrys5", "/emrys5/"], ["Artech", "/artech/"], ["路过秋天", "/cyq1162/"], ["数据之巅", "/asxinyu/"], ["腾飞(Jesse)", "/jesse/"], ["tkbSimplest", "/farb/"], ["圣殿骑士", "/KnightsWarrior/"], ["CareySon", "/CareySon/"], ["三生石上(FineUI控件)", "/sanshi/"], ["葡萄城控件技术团队", "/powertoolsteam/"], ["一线码农", "/huangxincheng/"], ["Vamei", "/vamei/"], ["农码一生", "/zhaopei/"], ["张善友", "/shanyou/"], ["小坦克", "/TankXiao/"], ["ChokCoco", "/coco1s/"], ["Jimmy Zhang", "/JimmyZhang/"], ["Edison Chou", "/edisonchou/"], ["KenshinCui", "/kenshincui/"], ["滴答的雨", "/heyuquan/"], ["", "/insus/"], ["司徒正美", "/rubylouvre/"], ["【艾伦】", "/aaronjs/"], ["请叫我头头哥", "/toutou/"], ["Savorboard", "/savorboard/"], ["桦仔", "/lyhabc/"], ["刘哇勇", "/Wayou/"], ["匠心十年", "/gaochundong/"], ["keepfool", "/keepfool/"], ["左潇龙", "/zuoxiaolong/"], ["stoneniqiu", "/stoneniqiu/"], ["深蓝色右手", "/alamiye010/"], ["mindwind", "/mindwind/"], ["焰尾迭", "/yanweidie/"], ["道法自然", "/baihmpgy/"], ["netfocus", "/netfocus/"], ["纯洁的微笑", "/ityouknow/"], ["snandy", "/snandy/"], ["Jeffcky", "/CreateMyself/"], ["JustRun", "/JustRun1983/"], ["", "/daxnet/"], ["wolfy", "/wolf-sun/"], ["EtherDream", "/index-html/"], ["王清培", "/wangiqngpei557/"], ["潇湘隐者", "/kerrycode/"], ["陈希章", "/chenxizhang/"], ["自由飞", "/freeflying/"], ["李永京", "/lyj/"], ["周见智", "/xiaozhi_5638/"], ["木宛城主", "/OceanEyes/"], ["冠军", "/haogj/"], ["dotNetDR_", "/highend/"], ["邀月", "/downmoon/"], ["Barret Lee", "/hustskyking/"], ["程兴亮", "/chengxingliang/"], ["sparkdev", "/sparkdev/"], ["计算机的潜意识", "/subconscious/"], ["慕容小匹夫", "/murongxiaopifu/"], ["【当耐特】", "/iamzhanglei/"], ["vajoy", "/vajoy/"], ["菩提树下的杨过", "/yjmyzz/"], ["Todd Wei", "/weidagang2046/"], ["黄博文", "/huang0925/"], ["LoveJenny", "/LoveJenny/"], ["webabcd", "/webabcd/"], ["悦光阴", "/ljhdo/"], ["风尘浪子", "/leslies2/"], ["木小楠", "/liuhaorain/"], ["玉开", "/yukaizhao/"], ["农民伯伯", "/over140/"], ["Terry_龙", "/TerryBlog/"], ["BIT祝威", "/bitzhuwei/"], ["beautifulzzzz", "/zjutlitao/"], ["刘冬.NET", "/GoodHelper/"], ["传说中的弦哥", "/legendxian/"], ["最课程陆敏技", "/luminji/"], ["韩子迟", "/zichi/"], ["代震军", "/daizhj/"], ["hystar", "/lsxqw/"], ["随它去吧", "/dowinning/"], ["岑安", "/hongru/"], ["skyme", "/skyme/"], ["DebugLZQ", "/DebugLZQ/"], ["灵感之源", "/unruledboy/"], ["金色海洋(jyk)阳光男孩", "/jyk/"], ["银河", "/skyivben/"], ["lovecindywang", "/lovecindywang/"], ["zdd", "/graphics/"], ["foreach_break", "/foreach-break/"], ["BloodyAngel", "/zgynhqf/"], ["JeffWong", "/jeffwongishandsome/"], ["porschev", "/zhongweiv/"], ["坚强2002", "/me-sa/"], ["飘扬的红领巾", "/leefreeman/"], ["啊汉", "/hlxs/"], ["万一", "/del/"], ["丁浪", "/dinglang/"], ["心态要好", "/oppoic/"], ["1-2-3", "/1-2-3/"], ["程序诗人", "/scy251147/"], ["SoftwareTeacher", "/xinz/"]]

View Code

其中BeautifulSoup解析时,我们使用的是CSS选择器.select方法,查找id="blogger_list" > ul >li下的所有a标签元素,同时对结果进行处理,去除了"更多推荐博客"及""博客列表(按积分)链接。

使用正则表达式筛选也是同理:我们首先构造了符合条件的正则表达式,然后使用re.findall找出所有元素,同时对结果进行处理,去除了"更多推荐博客"及""博客列表(按积分)链接。

这样我们就完成了第一步,获取了首页推荐博客列表。

3.1.2 博客随笔分类

1. 同理,我们使用Chrome开发者工具,打开博客页面(如本人博客:/lovesoo/)进行分析

2. 我们找到了接口sidecolumn.aspx,这个接口返回了我们需要的信息:随笔分类

3. 点击Headers查看接口调用信息,可以看到这也是一个GET类型接口,路径含有博客用户名,且传入参数blogApp=用户名:/lovesoo/mvc/blog/sidecolumn.aspx?blogApp=lovesoo

4. 使用Requests发送GET请求,获取“随笔分类”示例代码如下:

#coding:utf-8

importrequests

user='lovesoo'url= '/{0}/mvc/blog/sidecolumn.aspx'.format(user)

blogApp=user

payload= dict(blogApp=blogApp)

r= requests.get(url, params=payload)print r.text

返回结果如下:

搜索

常用链接

我的随笔我的评论我的参与最新评论我的标签

我的标签

python(12)http(7)性能测试(7)自动化测试(4)taffy(4)webservice(3)jmeter(3)nose(3)LoadRunner(3)自动化(3)更多

随笔分类

jmeter(3) Loadrunner(3) locust(1) Nose(1) Python(12) selenium(1) Taffy(4) 测试工具(2) 性能测试(6) 自动化测试(7)

随笔档案

11月 (4) 10月 (21)

积分与排名

积分 - 4540

排名 - 51509

最新评论

阅读排行榜

评论排行榜

推荐排行榜

View Code

同理,我们使用BeautifulSoup解析获取分类信息,同时使用正则表达式获取分类名及文章数目,代码如下:

#coding:utf-8

importrequestsimportreimportjsonfrom bs4 importBeautifulSoup#获取博客随笔分类

user='lovesoo'category_re= pile('(.+)\((\d+)\)')

url= '/{0}/mvc/blog/sidecolumn.aspx'.format(user)

blogApp=user

payload= dict(blogApp=blogApp)

r= requests.get(url, params=payload)

soup= BeautifulSoup(r.text, 'lxml')

category= [re.search(category_re, i.text).groups() for i in soup.select('.catListPostCategory > ul > li') ifre.search(category_re, i.text)]print json.dumps(category,ensure_ascii=False)

返回结果如下:

[["jmeter", "3"], ["Loadrunner", "3"], ["locust", "1"], ["Nose", "1"], ["Python", "12"], ["selenium", "1"], ["Taffy", "4"], ["测试工具", "2"], ["性能测试", "6"], ["自动化测试", "7"]]

View Code

这样我们就完成了第二步,获取了博客的分类目录及文章数量信息。

3.1.3 博客阅读\评论\推荐排行榜

1. 下面我们开始获取博客的排行榜信息,同理我们找到了接口GetBlogSideBlocks.aspx,它返回了我们需要的排行榜信息

2. 点击Headers查看接口调用信息,可以看到这是一个GET请求接口,传入参数有2个,分别是blogApp和showFlag,其中blogApp是博客用户名,showFlag是显示标记,默认值为ShowRecentComment,ShowTopViewPosts,ShowTopFeedbackPosts,ShowTopDiggPosts分别代表返回最新评论,阅读排行榜,评论排行榜,推荐排行榜。根据需要我们配置只返回3个排行榜信息即可:/mvc/Blog/GetBlogSideBlocks.aspx?blogApp=lovesoo&showFlag=ShowTopViewPosts%2CShowTopFeedbackPosts%2CShowTopDiggPosts

3. 使用Requests调用GET接口获取排行榜信息,示例代码如下:

#coding:utf-8

importrequestsimportjson# 获取博客阅读排行榜,评论排行榜及推荐排行榜信息

user='lovesoo'url= '/mvc/Blog/GetBlogSideBlocks.aspx'blogApp=user

showFlag= 'ShowTopViewPosts,ShowTopFeedbackPosts,ShowTopDiggPosts'payload= dict(blogApp=blogApp, showFlag=showFlag)

r= requests.get(url, params=payload)print json.dumps(r.json(),ensure_ascii=False)

返回结果如下:

{"RecentComments": "", "TopFeedbackPosts": "

1. JMeter性能测试,完整入门篇(6)2. Web性能测试工具之ab入门篇(4)3. 初识Http协议抓包工具—Fiddler(3)4. 从零使用Python测试。Testing Using Python.(3)5. Locust性能测试框架,从入门到精通(2)", "TopDiggPosts": "1. 初识Http协议抓包工具—Fiddler(6)2. JMeter性能测试,完整入门篇(4)3. Loadrunner 11检查点使用方法总结(2)4. Web性能测试工具之ab入门篇(1)5. 从零使用Python测试。Testing Using Python.(1)", "TopViewPosts": "1. 初识Http协议抓包工具—Fiddler(954)2. JMeter性能测试,完整入门篇(441)3. Web性能测试工具之ab入门篇(384)4. 从零使用Python测试。Testing Using Python.(367)5. Robot Framework自动化测试框架初探(274)"}

View Code

可以看出,这个接口返回数据格式与前2个不同,返回的是json格式,有四个key:RecentComments,TopViewPosts,TopFeedbackPosts,TopDiggPosts分别对应最新评论,阅读排行榜,评论排行榜,推荐排行榜,而每个key里的value又是html格式,针对这个value我们编写统一的信息提取方法:使用BeautifulSoup解析获取文本及链接信息,同时使用正则表达式获取文章标题及次数,示例代码如下:

#coding:utf-8

importrequestsimportreimportjsonfrom bs4 importBeautifulSoupdefgetPostsDetail(Posts):#获取文章详细信息:标题,次数,URL

post_re = pile('\d+\. (.+)\((\d+)\)')

soup= BeautifulSoup(Posts, 'lxml')return [list(re.search(post_re, i.text).groups()) + [i['href']] for i in soup.find_all('a')]#获取博客阅读排行榜,评论排行榜及推荐排行榜信息

user='lovesoo'url= '/mvc/Blog/GetBlogSideBlocks.aspx'blogApp=user

showFlag= 'ShowTopViewPosts,ShowTopFeedbackPosts,ShowTopDiggPosts'payload= dict(blogApp=blogApp, showFlag=showFlag)

r= requests.get(url, params=payload)

TopViewPosts= getPostsDetail(r.json()['TopViewPosts'])

TopFeedbackPosts= getPostsDetail(r.json()['TopFeedbackPosts'])

TopDiggPosts= getPostsDetail(r.json()['TopDiggPosts'])print json.dumps(dict(TopViewPosts=TopViewPosts, TopFeedbackPosts=TopFeedbackPosts, TopDiggPosts=TopDiggPosts),ensure_ascii=False)

运行结果如下:

{"TopFeedbackPosts": [["JMeter性能测试,完整入门篇", "6", "/lovesoo/p/7742189.html"], ["Web性能测试工具之ab入门篇", "4", "/lovesoo/p/7762796.html"], ["初识Http协议抓包工具—Fiddler", "3", "/lovesoo/p/7754067.html"], ["从零使用Python测试。Testing Using Python.", "3", "/lovesoo/p/7762148.html"], ["Locust性能测试框架,从入门到精通", "2", "/lovesoo/p/7719070.html"]], "TopDiggPosts": [["初识Http协议抓包工具—Fiddler", "6", "/lovesoo/p/7754067.html"], ["JMeter性能测试,完整入门篇", "4", "/lovesoo/p/7742189.html"], ["Loadrunner 11检查点使用方法总结", "2", "/lovesoo/p/7727042.html"], ["Web性能测试工具之ab入门篇", "1", "/lovesoo/p/7762796.html"], ["从零使用Python测试。Testing Using Python.", "1", "/lovesoo/p/7762148.html"]], "TopViewPosts": [["初识Http协议抓包工具—Fiddler", "954", "/lovesoo/p/7754067.html"], ["JMeter性能测试,完整入门篇", "441", "/lovesoo/p/7742189.html"], ["Web性能测试工具之ab入门篇", "384", "/lovesoo/p/7762796.html"], ["从零使用Python测试。Testing Using Python.", "367", "/lovesoo/p/7762148.html"], ["Robot Framework自动化测试框架初探", "274", "/lovesoo/p/7748487.html"]]}

View Code

至此,我们完成了第三步也是最重要的,提取博客排行榜信息。下面我们开始使用异步并发抓取100位大佬的博客信息。

3.2 异步并发抓取

我们把上面的三步提取信息操作均封装成函数,并将博客提取信息的两步(提取分类及排行榜)封装成一个统一的函数供异步并发调用即可。这里我们推荐使用多进程的方式,配置的并发数与CPU核数一致即可,示例代码如下:

#coding:utf-8

importrequestsimportreimportjsonfrom bs4 importBeautifulSoupfrom concurrent importfuturesdefgetUsers():#获取推荐博客列表

r = requests.get('/aggsite/UserStats')#使用BeautifulSoup解析

soup = BeautifulSoup(r.text, 'lxml')

users= [(i.text, i['href']) for i in soup.select('#blogger_list > ul > li > a') if 'AllBloggers.aspx' not in i['href'] and 'expert' not in i['href']]#也可以使用使用正则表达式

#user_re=pile('(.+)')

#users=[(name,url) for url,name in re.findall(blog_re,r.text) if 'AllBloggers.aspx' not in url and 'expert' not in url]

returnusersdefgetPostsDetail(Posts):#获取文章详细信息:标题,次数,URL

post_re = pile('\d+\. (.+)\((\d+)\)')

soup= BeautifulSoup(Posts, 'lxml')return [list(re.search(post_re, i.text).groups()) + [i['href']] for i in soup.find_all('a')]defgetViews(user):#获取博客阅读排行榜,评论排行榜及推荐排行榜信息

url = '/mvc/Blog/GetBlogSideBlocks.aspx'blogApp=user

showFlag= 'ShowTopViewPosts,ShowTopFeedbackPosts,ShowTopDiggPosts'payload= dict(blogApp=blogApp, showFlag=showFlag)

r= requests.get(url, params=payload)

TopViewPosts= getPostsDetail(r.json()['TopViewPosts'])

TopFeedbackPosts= getPostsDetail(r.json()['TopFeedbackPosts'])

TopDiggPosts= getPostsDetail(r.json()['TopDiggPosts'])return dict(TopViewPosts=TopViewPosts, TopFeedbackPosts=TopFeedbackPosts, TopDiggPosts=TopDiggPosts)defgetCategory(user):#获取博客随笔分类

category_re = pile('(.+)\((\d+)\)')

url= '/{0}/mvc/blog/sidecolumn.aspx'.format(user)

blogApp=user

payload= dict(blogApp=blogApp)

r= requests.get(url, params=payload)

soup= BeautifulSoup(r.text, 'lxml')

category= [re.search(category_re, i.text).groups() for i in soup.select('.catListPostCategory > ul > li') ifre.search(category_re, i.text)]return dict(category=category)defgetTotal(url):#获取博客全部信息,包括分类及排行榜信息

#初始化博客用户名

print 'Spider blog:\t{0}'.format(url)

user= url.split('/')[-2]return dict(getViews(user), **getCategory(user))def mutiSpider(max_workers=4):try:#with futures.ThreadPoolExecutor(max_workers=max_workers) as executor: # 多线程

with futures.ProcessPoolExecutor(max_workers=max_workers) as executor: #多进程

for blog in executor.map(getTotal, [i[1] for i inusers]):

blogs.append(blog)exceptException as e:printeif __name__ == '__main__':

blogs=[]#获取推荐博客列表

users =getUsers()print json.dumps(users, ensure_ascii=False)#多线程/多进程获取博客信息

mutiSpider()print json.dumps(blogs,ensure_ascii=False)

运行结果:略

3.3 数据处理

数据处理主要是对上面生成的好的大批量数据进行处理,主要是数据合并分组,其中相对复杂的是分类数据,基本处理逻辑如下:

1. 第一步,将所有的分类数据合并保存在一个list中,示例代码:

#获取所有分类目录信息

category = [category for blog in blogs if blog['category'] for category in blog['category']]

2. 第二步,合并计算相同目录(由于不用的博客可能存在相同的分类,如都有叫做Python的分类,则该分类文章数量需要累加计算),示例代码如下:

defcountCategory(category, category_name):#合并计算目录数

n =0for name, count incategory:if name.lower() ==category_name:

n+=int(count)returnn#获取所有分类目录信息

category = [category for blog in blogs if blog['category'] for category in blog['category']]#合并相同目录

new_category ={}for name, count incategory:#全部转换为小写

name =name.lower()if name not innew_category:

new_category[name]= countCategory(category, name)

3. 第三步,根据数量进行排序,直接使用sorted方法根据count数进行排序即可,示例代码如下:

sorted(new_category.items(), key=lambda i: int(i[1]), reverse=True)

排行榜数据处理相对比较简单,只需先合并成一个list后再进行排序即可,如阅读排行榜数据处理示例代码:

TopViewPosts = [post for blog in blogs for post in blog['TopViewPosts']]

sorted(TopViewPosts, key=lambda i: int(i[1]), reverse=True

3.4 生成词云

生成词云主要步骤如下:

1. 使用join方法拼接list为长文本

2. 使用jieba进行中文分词

3. 使用wordcloud生成词云并保存及展示相关图片

示例代码如下:

#拼接为长文本

contents = ' '.join([i[0] for i inwords])#使用结巴分词进行中文分词

cut_texts = ' '.join(jieba.cut(contents))#设置字体为黑体,最大词数为2000,背景颜色为白色,生成图片宽1000,高667

cloud = WordCloud(font_path='C:\Windows\Fonts\simhei.ttf', max_words=2000, background_color="white", width=1000, height=667, margin=2)#生成词云

wordcloud =cloud.generate(cut_texts)#保存图片

wordcloud.to_file('wordcloud\{0}.png'.format(file_name))#展示图片

wordcloud.to_image().show()

4. 结果展示

至此我们完成了一个完整的爬虫逻辑讲解,从页面分析到数据获取,从数据处理到生成词云。下面给大家展示下,我们爬虫的运行结果。

4.1 随笔分类

我们分析了所有100位推荐博客的分类(这里发现,居然有不少大佬从来没对文章进行过分类...),并按文章数量进行排序,前10名为:

, 1246javascript,505c#, 479

ms sql server, mvc,392[01] 技术剖析, 375jquery,320开源项目,285

15.java/scala, framework,262

生成的词云如下:

4.2 阅读排行榜

我们分析了所有100位推荐博客的阅读排行榜,并按文章阅读数量进行排序,前10名文章为:

CSS中怎么让DIV居中, 899884, /DebugLZQ/archive//08/09/2132381.html

Python快速教程,486582, /vamei/archive//09/13/2682778.html

我的WCF之旅(1):创建一个简单的WCF程序, 484371, /artech/archive//02/26/656901.html

8天学通MongoDB——第一天 基础入门,413732, /huangxincheng/archive//02/18/2356595.html

C#中的委托和事件, 338284, /JimmyZhang/archive//09/23/903360.html

Java快速教程, 321205, /vamei/archive//03/31/2991531.html

iOS开发系列--音频播放、录音、视频播放、拍照、视频录制, 278658, /kenshincui/p/4186022.html

【原创】说说JSON和JSONP,也许你会豁然开朗,含jQuery用例,243654, /dowinning/archive//04/19/json-jsonp-jquery.html

SQL Server r2 安装过程图解, 235395, /downmoon/archive//05/18/1738479.html

Wireshark基本介绍和学习TCP三次握手,235288, /TankXiao/archive//10/10/2711777.html

生成的词云如下:

4.3 评论排行榜

我们分析了所有100位推荐博客的评论排行榜,并按文章评论数量进行排序(免费大法好呀~),前10名文章为:

赠书:血战HTML5消除游戏,赢《HTML5实验室:Canvas世界》, 6902, /iamzhanglei/archive//07/03/2574083.html

感恩回馈,《 Web API 2框架揭秘》免费赠送,3471, /artech/p/book-as-a-present.html

感恩回馈,新鲜出炉的《 MVC 5框架揭秘》免费赠送,1374, /artech/p/book-as-a-present-2.html

暴力英语学习法+ 严格的目标管理 = 成功快速靠谱的学好英语, 1369, /jesse/p/how-to-learn-english.html

C#中的委托和事件, 924, /JimmyZhang/archive//09/23/903360.html

【6年开源路】FineUI家族今日全部更新(FineUI + FineUI3to4 + FineUI.Design + AppBox)!, 876, /sanshi/p/3577327.html

新书出版《.NET框架设计—模式、配置、工具》感恩回馈社区!,815, /wangiqngpei557/p/4253836.html

我的WCF之旅(1):创建一个简单的WCF程序, 751, /artech/archive//02/26/656901.html

扩展GridView控件(索引)- 增加多个常用功能, 577, /webabcd/archive//02/04/639830.html

屌丝的出路,472, /JimmyZhang/archive//06/26/2563000.html

生成的词云如下:

4.4 推荐排行榜

我们分析了所有100位推荐博客的推荐排行榜,并按文章推荐数量进行排序,前10名文章为:

暴力英语学习法 + 严格的目标管理 = 成功快速靠谱的学好英语, 1439, /jesse/p/how-to-learn-english.html

我的WCF之旅(1):创建一个简单的WCF程序, 1203, /artech/archive//02/26/656901.html

HTTP协议详解,1166, /TankXiao/archive//02/13/2342672.html,

【6年开源路】FineUI家族今日全部更新(FineUI+ FineUI3to4 + FineUI.Design + AppBox)!, 806, /sanshi/p/3577327.html

C#中的委托和事件, 621, /JimmyZhang/archive//09/23/903360.html

【原创】说说JSON和JSONP,也许你会豁然开朗,含jQuery用例, 563, /dowinning/archive//04/19/json-jsonp-jquery.html

你必须知道的EF知识和经验,532, /zhaopei/p/5721789.html,

讨论:程序员高手和菜鸟的区别是什么?,499, /baihmpgy/p/3790296.html

从机器学习谈起,494, /subconscious/p/4107357.html

好的用户界面-界面设计的一些技巧, 453, /Wayou/p/goodui.html

生成的词云如下:

5. 总结

博客园原来主要是一个技术站!那么,我现在开始学还来得及吗...

6. 脚本下载

7. 参考资料

如果觉得《推荐一部python教程_Python爬虫入门教程:博客园首页推荐博客排行的秘密》对你有帮助,请点赞、收藏,并留下你的观点哦!

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。