失眠网,内容丰富有趣,生活中的好帮手!
失眠网 > python xpath爬取豆瓣图书Top 250存入csv文件并解决csv乱码问题

python xpath爬取豆瓣图书Top 250存入csv文件并解决csv乱码问题

时间:2020-08-28 03:27:22

相关推荐

python xpath爬取豆瓣图书Top 250存入csv文件并解决csv乱码问题

我上次分享过关于爬取豆瓣电影top250的实战:BeautifulSoup爬取豆瓣电影top250信息 和 python BeautifulSoup爬取豆瓣电影top250信息并写入Excel表格 ,豆瓣网没有反爬虫机制,对于学习爬虫的小白是一个不错的学习对象,python xpath我是初步学习,对豆瓣图书 Top 250 进行实战学习,xpath的优点之一就是可以直接复制获取信息的节点,如图:

我要爬取的数据还是比较全面的,几乎都没有放过,有(排名,书名,地址,作者,翻译,星级,评分,评价,单价,出版社,出版日期,国家,评价),其中“排名”在网页上没有,需要自己加上去,相比于豆瓣电影,豆瓣图书的坑更多。

爬豆瓣图书需要注意的几个坑!!!

1、图书在top250的排名

2、从p标签中截取作者、翻译者

3、获取星级数

4、截取国家

5、评价

6、csv乱码(其实没错,就是乱码)

下面来讲解一下我解决这几个坑的的思路:

1、图书在top250的排名

在网页中没有显示它的排名,但我们都知道它是降序排的,从1~250,所有就直接通过循环写进csv就行了,但是初始值一定不能放在循环函数内,否则它就会被重新赋值或者只输出一个值,正确方法如下:

2、从p标签中截取作者、翻译者

这些信息都在p标签中,但国外的著作和国内的排布不一样,国外的会有翻译者在其中,中国的就只有作者一个,排名31的《倾城之恋》就没有作者。

2.1、国外著作p标签内容为:

<p class="pl">[国家] 作者 / 翻译者 / 出版社 /出版日期 / 价格</p>

获取的方法:

2.2、国内著作p标签内容为:

<p class="pl">作者 / 出版社 /出版日期 / 价格</p>

获取的方法:

2.3、没有作者的情况:

获取的方法:

(1)先对p标签分割成字符串

(2)len(p1.split(’/’)) 算出字符串的长度,这里的3是我先计算出来的,如果字符串长度等于3,说明它没有作者。

elif len(p1.split('/'))==3:author = ' '

3、获取星级数

注意:字符串不能直接被除,需要转化为int型

4、截取国家

只要会截取作者和翻译者,这个问题就不大了。也是通过“[外国]”来判断它的国籍的,中国的都没有写出来,所有没有“[ ]”的,我全部默认为中国,包括没有作者的。

#截取国家if '[' in p1: country = p1.split('[')[1].split(']')[0]else:country = '中' #没有国家的我默认为“中国”

5、评价

评价不是没有本书都有,所有必须要进行判断,才能获取

代码实现方式:

(1)先获取评价在的位置

(2)通过字符串长度判断它是否存在,如果字符串长度不等于0,就截取comments[0],否则为空。

#评价comments = t.xpath('./tr/td/p/span/text()')comment = comments[0] if len(comments) != 0 else ""

6、csv乱码

注意:这并不是编码方式不对。我重新更换保存在csv的方法,没有解决,后来我把我电脑的编码的方式也调成了默认utf-8,也没有解决问题。

成功的解决方法:

(1)新建一个Excel文件并打开

(2)数据>自文本>找到刚爬取的.csv文件导入

(3)弹出框,勾选“分隔符号”>下一步>取消“Tab键”,勾选“逗号”>下一步>勾选“常规”>完成>确定

完美显示内容!!!

完整源代码如下:

#!/usr/bin/env python3#-*-coding:utf-8-*-import requests,time,re,csvfrom lxml import etree#创建CSV文件,并写入表头信息fp = open('G:\doubanbookTop250_utf8.csv','a',newline='',encoding='utf-8')writer = csv.writer(fp)writer.writerow(('排名','书名','地址','作者','翻译','星级','评分(分)','评价(人)','单价(元)','出版社','出版日期','国家','评价'))rank=0for i in range(0,250,25):print('正在爬取第' +str(i) +'页')url = f'/top250?start={i}'res = requests.get(url).texttxt = etree.HTML(res)file = txt.xpath('//*[@id="content"]/div/div[1]/div/table')for t in file:rank=rank+1 #排名,rank=0必须放在主函数的前面,rank才不会被重新赋值title = t.xpath('./tr/td[2]/div[1]/a/@title')[0]href = t.xpath('./tr/td[2]/div[1]/a/@href')[0]#获取p1标签的字符串p1 = t.xpath('./tr/td[2]/p[1]/text()')[0]#截取作者if '[' in p1:author = p1.split(']')[1].split('/')[0].replace(" ","")elif len(p1.split('/'))==3:author = ' 'elif '[' not in p1: author = p1.split('/')[-4].replace(" ","")else:author = ' '#获取翻译者if '[' in p1:translator = p1.split('/')[-4].replace(" ","")elif len(p1.split('/'))==3:translator = ' 'else:translator = ' '#获取星级数str1 = t.xpath('./tr/td[2]/div[2]/span[1]/@class')[0].replace("allstar","")num = int(str1)star = num/10#获取评分score = t.xpath('./tr/td[2]/div[2]/span[2]/text()')[0]#获取评价人数n = t.xpath('./tr/td[2]/div[2]/span[3]/text()')[0]people = re.sub("\D","",n)#截取单价if '元' in p1:price = p1.split('/')[-1].split('元')[0]else:price = p1.split('/')[-1]#截取出版社publisher = p1.split('/')[-3]#截取出版时间time = p1.split('/')[-2]#截取国家if '[' in p1: country = p1.split('[')[1].split(']')[0]else:country = '中' #没有国家的我默认为“中国”#评价comments = t.xpath('./tr/td/p/span/text()')comment = comments[0] if len(comments) != 0 else ""# 写入数据writer.writerow((rank,title,href,author,translator,star,score,people,price,publisher,time,country,comment))# 关闭文件fp.close()

如果觉得《python xpath爬取豆瓣图书Top 250存入csv文件并解决csv乱码问题》对你有帮助,请点赞、收藏,并留下你的观点哦!

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。