失眠网,内容丰富有趣,生活中的好帮手!
失眠网 > Python网络爬虫实战:天猫胸罩销售数据分析

Python网络爬虫实战:天猫胸罩销售数据分析

时间:2020-12-13 09:24:35

相关推荐

Python网络爬虫实战:天猫胸罩销售数据分析

本文实现一个非常有趣的项目,这个项目是关于胸罩销售数据分析的。是网络爬虫和数据分析的综合应用项目。本项目会从天猫抓取胸罩销售数据,并将这些数据保存到SQLite数据库中,然后对数据进行清洗,最后通过SQL语句、Pandas和Matplotlib对数据进行数据可视化分析。我们从分析结果中可以得出很多有的结果,例如,中国女性胸部标准尺寸是多少;胸罩上胸围的销售比例;哪个颜色的胸罩最受女性欢迎。

1. 项目效果展示

本项目涉及到网络技术、网络爬虫技术、数据库技术、数据分析技术、数据可视化技术。首先应该运行tmallbra.py脚本文件从天猫抓取胸罩销售数据,并将这些数据保存到SQLite数据库中。接下来可以执行analyze目录中的相应Python脚本文件进行可视化数据分析。下面是一些分析结果展示。

图1:ABCD罩杯胸罩销售比例

图2:胸罩销售比例(罩杯和上胸围综合指标)

图3:胸罩销售比例(按颜色分析)31

图4:罩杯和下胸围分布直方图

其实Google和淘宝也给出了类似的分析结果。Google曾给出了一幅世界女性胸部尺寸分布地图 ,从地图中可以明显看出中国大部分地区呈现绿色(表示平均胸部尺寸为A罩杯),少部分地区呈现蓝色(表示平均胸部尺寸为B罩杯),这也基本验证了图2所示的统计结果:中国大部分女性胸部尺寸是75B和75A。

再看一下淘宝给出的胸罩(按罩杯和上胸围统计)销售比例柱状图。

图5:淘宝胸罩销售比例柱状图(按罩杯和上胸围统计)

从淘宝给出的数据可以看出,销售最好的胸罩尺寸是75B,这个统计结果虽然销售比例不同(取的样本不同而导致的),但按销售数据排行,这个分析结果与本项目的统计结果(图2)基本吻合。

2. 天猫胸罩销售数据分析

这里的销售数据其实就是评论数据。用户购买一件商品并发了评论,就会记录销售数据。分析销售数据的第一步就是要搞明白数据是怎么跑到客户端浏览器上的。通常来讲,浏览器从服务端获取数据有两种方式:同步和异步。同步就是数据随HTML代码一同发送到客户端,不过现在的大型网站很少有用同步方式传输数据了。异步方式是HTML代码与数据分别发送到客户端,数据一般是JSON格式,通过AJAX技术获取,然后再使用JS将获取到的数据显示在HTML中的元素上。不过有时会加一些反爬虫技术,或处于其他目的,异步数据可能并不是纯的JSON格式,例如,有可能是一段JavaScript代码,或在JSON格式数据中加一些其他的内容。不过这些基本都没用,加的内容肯定是有规律的,否则自己的程序都无法读了。

现在进到天猫商城官网,在搜索框输入“胸罩”,点击“搜索”按钮进行搜索。随便找一个销售胸罩的店铺点进去。然后在页面的右键菜单中点击“检查”菜单项,打开调试窗口,切换到“Network”标签页。接下来查看商品的评论,会在“Network”标签页显示评论信息要访问的Url。在上方的搜索框输入“list_detail”,会列出所有已“list_detail”作为前缀的Url。这些Url就是用AJAX异步获取的评论数据。点击某个Url,会在右侧显示如图6所示的数据,很明显,这些数据与JSON非常像,不过加了一些前缀以及其他信息,估计是要满足一些特殊需要。

图6:天猫评论数据

在返回的评论数据中,rateList就是我们需要的信息,rateList列表中一共是20个对象,包含了20条评论数据,也就是说,通过这个Url,每次返回了20条评论数据。

在Url中还有两个HTTP GET请求字段对我们有用。

• itemId:当前商品的ID,通过这个字段,可以获得指定商品的评论数

据(不光是胸罩)。

• currentPage:当前的页码,从1开始。通过这个字段,可以获得更多的评论数据。

3.抓取天猫胸罩销售数据

既然对天猫胸罩的评论数据的来源已经非常清楚了,本节就抓取这些数据。在tmallbra.py脚本文件中有一个核心函数,用于抓取指定商品的某一页评论数据。

def getRateDetail(itemId,currentPage):# Url最后的callback字段是用于天猫网站内部回调的,和我们没关系,不过这个字段的值关系到# 返回数据的前缀,我们可以利用这个值去截取返回数据url = '/list_detail_rate.htm?itemId=' + str(itemId) + '&spuId=837695373&sellerId=3075989694&order=3¤tPage=' + str(currentPage) + '&append=0... ...&callback=jsonp1278'r = http.request('GET',url,headers = headers)# 返回数据时GB18030编码,所以要用这个编码格式进行解码c = r.data.decode('GB18030')# 下面的代码将返回的评论数据转换为JSON格式c = c.replace('jsonp1278(','')c = c.replace(')','')c = c.replace('false','"false"')c = c.replace('true','"true"')# 将JSON格式的评论数据转换为字典对象tmalljson = json.loads(c)return tmalljson

4. 抓取胸罩商品列表

应用让爬虫自动选取胸罩商品,而不是我们一个一个挑。所以可以利用如下的天猫商城的搜索页面Url进行搜索,按销量从大到小排列。

/search_product.htm... ...

这个Url不需要传递任何参数,本项目只取第一个商品页的所有商品。在tmallbra.py脚本文件中有一个而核心函数getProductIdList,用于返回第一个商品页的所有商品ID(以列表形式返回)。

def getProductIdList():url = '/search_product.htm... ...'r = http.request('GET', url,headers = headers)c = r.data.decode('GB18030')soup = BeautifulSoup(c,'lxml')linkList = []idList = []# 用Beautiful Soup提取商品页面中所有的商品IDtags = soup.find_all(href=pile('/item.htm'))for tag in tags:linkList.append(tag['href'])linkList = list(set(linkList))for link in linkList:aList = link.split('&')# ///item.htm?id=562173686340# 将商品ID添加到列表中idList.append(aList[0].replace('///item.htm?id=',''))return idList

4.将抓取的销售数据保存到SQLite数据库中

剩下的工作就很简单了,只需要对商品ID列表迭代,然后对每一个商品的评论数据进行抓取,天猫每个商品最多可以获得99页评论,最大评论页数可以通过getLastPage函数获得。

def getLastPage(itemId):tmalljson = getRateDetail(itemId,1)return tmalljson['rateDetail']['paginator']['lastPage']

下面的代码会抓取商品搜索第一页的所有胸罩商品的评论数据,并将这些数据保存到SQLite数据库中。

# 对商品ID进行迭代while initial < len(productIdList):try:itemId = productIdList[initial]print('----------',itemId,'------------')maxnum = getLastPage(itemId)num = 1while num <= maxnum:try:# 抓取某个商品的某页评论数据tmalljson = getRateDetail(itemId, num)rateList = tmalljson['rateDetail']['rateList']n = 0while n < len(rateList):# 颜色分类:H007浅蓝色加粉色;尺码:32/70AcolorSize = rateList[n]['auctionSku']m = re.split('[:;]',colorSize)rateContent = rateList[n]['rateContent']color = m[1]size = m[3]dtime = rateList[n]['rateDate']# 将抓取的数据保存到SQLite数据库中cursor.execute('''insert into t_sales(color,size,source,discuss,time) values('%s','%s','%s','%s','%s') ''' % (color,size,'天猫',rateContent,dtime))mit()n += 1print(color)print(num)num += 1except Exception as e:continue initial += 1except Exception as e:print(e)

5. 数据清洗

如果读者使用前面介绍的方法从天猫和京东抓取了胸罩销售数据,现在我们已经有了一个SQLite数据库,里面有一个t_sales表,保存了所有抓取的数据,如图7所示。

图7:保存到数据库中的胸罩销售数据

从销售数据可以看出,网络爬虫抓取了颜色(color)、尺寸(size)、来源(source)、评论(discuss)和时间(time)五类数据。当然还可以抓取更多的数据,这里只为了演示数据分析的方法,所以并没有抓取那么多的数据。

不过这五类数据有些不规范,本项目值考虑color和size,所以先要对这两类数据进行清洗。由于每个店铺,每个商品的颜色叫法可能不同,所以需要将这些颜色值统一一下。例如,所有包含“黑”的颜色值都可以认为是黑色。所以可以新建立一个color1字段(尽量不要修改原始数据),将清洗后的颜色值保存到color1字段中。然后可以使用下面的SQL语句对颜色值进行清洗。

update t_sales set color1 = '黑色' where color like '%黑%' ;update t_sales set color1 = '绿色' where color like '%绿%' ;update t_sales set color1 = '红色' where color like '%红%' ;update t_sales set color1 = '白色' where color like '%白%' ;update t_sales set color1 = '蓝色' where color like '%蓝%' ;update t_sales set color1 = '粉色' where color like '%粉%' and color1 is null ;update t_sales set color1 = '青色' where color like '%青%' ;update t_sales set color1 = '卡其色' where color like '%卡其%' ;update t_sales set color1 = '紫色' where color like '%紫%' ;update t_sales set color1 = '肤色' where color like '%肤%' ;update t_sales set color1 = '水晶虾' where color like '%水晶虾%' ;update t_sales set color1 = '玫瑰色' where color like '%玫瑰%' ;update t_sales set color1 = '银灰' where color like '%银灰%' ;

胸罩尺寸清洗的方式与胸罩颜色类似,大家可以自己通过SQL语句去完成。

清洗完的结果如图8所示。

图8:清洗后的数据

6. 用SQL语句分析胸罩(按罩杯尺寸)的销售比例

既然销售数据都保存在SQLite数据库中,那么我们不妨先用SQL语句做一下统计分析。本节将对胸罩按罩杯的销售量做一个销售比例统计分析。由于抓取的数据没有超过D罩杯的,所以做数据分析时就不考虑D以上罩杯的胸罩销售数据了。这里只考虑A、B、C和D罩杯胸罩的销售数据。

本节要统计的是某一个尺寸的胸罩销售数量占整个销售数量的百分比,这里需要统计和计算如下3类数据。

• 某一个尺寸的胸罩销售数量。

• 胸罩销售总数量

• 第1类数据和第2类数据的差值(百分比)

这3类数据完全可以用一条SQL语句搞定,为了同时搞定A、B、C和D罩杯的销售比例,可以用4条类似的SQL语句,中间用union all连接。

select 'A' as 罩杯,printf("%.2f%%",(100.0 * count(*)/ (select count(*) from t_sales where size1 is not null))) as 比例, count(*) as 销量 from t_sales where size1='A'union allselect 'B',printf("%.2f%%",(100.0 * count(*)/ (select count(*) from t_sales where size1 is not null))) , count(*) as c from t_sales where size1='B'union allselect 'C',printf("%0.2f%%",(100.0 * count(*)/ (select count(*) from t_sales where size1 is not null))) , count(*) as c from t_sales where size1='C'union allselect 'D',printf("%.2f%%",(100.0 * count(*)/ (select count(*) from t_sales where size1 is not null))) , count(*) as c from t_sales where size1='D'order by 销量 desc

上面的SQL语句不仅加入了销售比例,还加入了销售数量,并且按销量降序排列。这些SQL语句需要考虑size1字段空值的情况,因为抓取的少部分销售记录并没有罩杯尺寸数据。执行上面的SQL语句后,会输出如图9所示的查询结果。

图9:用SQL语句统计胸罩(按罩杯尺寸)销售比例

其他的销售数据的分析类似。

7. 用Pandas和Matplotlib分析对胸罩销售比例进行可视化分析

既然Python提供了这么好的Pandas和Matplotlib,那么就可以完全不使用SQL语句进行数据分析了。可以100%使用Python代码搞定一切。

本节将使用Pandas完成与上一节相同的数据分析,并使用Matplotlib将分析结果以图形化方式展现出来。

Pandas在前面的章节已经讲过了,这里不再深入介绍。本次分析主要使用了groupby方法按罩杯(size1)分组,然后使用count方法统计组内数量,最后使用insert方法添加了一个“比例”字段。

from pandas import *from matplotlib.pyplot import *import sqlite3import sqlalchemy# 打开bra.sqlite数据库engine = sqlalchemy.create_engine('sqlite:///bra.sqlite')rcParams['font.sans-serif'] = ['SimHei']# 查询t_sales表中所有的数据sales = read_sql('select source,size1 from t_sales',engine)# 对size1进行分组,并统计每一组的记录数size1Count = sales.groupby('size1')['size1'].count()print(size1Count)# 计算总销售数量size1Total = size1Count.sum()print(size1Total)print(type(size1Count))# 将Series转换为DataFramesize1 = size1Count.to_frame(name='销量')print(size1)# 格式化浮点数options.display.float_format = '{:,.2f}%'.format# 插入新的“比例”列size1.insert(0,'比例', 100 * size1Count / size1Total)print(size1)# 将索引名改为“罩杯”size1.index.names=['罩杯']print(size1)# 数据可视化print(size1['销量'])# 饼图要显示的文本labels = ['A罩杯','B罩杯','C罩杯','D罩杯']# 用饼图绘制销售比例size1['销量'].plot(kind='pie',labels = labels, autopct='%.2f%%')# 设置长宽相同axis('equal')legend()show()

运行程序,会看到在窗口上绘制了如图10所示的胸罩销售比例。用Pandas分析得到的数据与使用SQL分析得到的数据完全相同。

图10:胸罩销售比例(按罩杯尺寸)

其他分析也可以使用Pandas,可视化使用Matplotlib。这两个工具真是个强大的东西。祝大家学习愉快

《Python从菜鸟到高手》转载文章

Python从菜鸟到高手(1):初识Python

Python从菜鸟到高手(2):清空Python控制台

Python从菜鸟到高手(3):声明变量

Python从菜鸟到高手(4):导入Python模块

Python从菜鸟到高手(5):数字

Python从菜鸟到高手(6):获取用户输入、函数与注释

Python从菜鸟到高手(7):字符串

Python从菜鸟到高手(8):print函数、赋值与代码块

Python从菜鸟到高手(9):条件和条件语句

Python从菜鸟到高手(10):循环

Python从菜鸟到高手(11):列表的基础操作

Python从菜鸟到高手(12):通过索引操作序列元素

Python从菜鸟到高手(13):分片(Slicing)

如果觉得《Python网络爬虫实战:天猫胸罩销售数据分析》对你有帮助,请点赞、收藏,并留下你的观点哦!

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。