失眠网,内容丰富有趣,生活中的好帮手!
失眠网 > Python + wordcloud + jieba 十分钟学会生成中文词云

Python + wordcloud + jieba 十分钟学会生成中文词云

时间:2019-03-08 15:05:15

相关推荐

Python + wordcloud + jieba 十分钟学会生成中文词云

后端开发|Python教程

python,中文,词云

后端开发-Python教程

前述

php反向代理源码,ubuntu怎么编译驱动,go语言爬虫工具,php explort,快熊seolzw

本文需要的两个Python类库

小型网站后台的源码,ubuntu从哪里学起,tomcat7.5下载,爬虫托管怎么操作,判断是否含有某字符php代码,虚拟资源seolzw

jieba:中文分词分词工具

华美淘宝客源码,ubuntu换root,tomcat怎么查看服务状态,夏天客厅爬虫,php分布式架构视频教程,合肥seo平台大概多少钱lzw

wordcloud:Python下的词云生成工具

上节课我们学习了如何制作英文词云,本篇我们将讲解如何制作中文词云,读完该文章后你将学会如何将任意中文文本生成词云

代码组成简介

代码部分来源于其他人的博客,但是因为bug或者运行效率的原因,我对代码进行了较大的改变

代码第一部分,设置代码运行需要的大部分参数,你可以方便的直接使用该代码而不需要进行过多的修改

第二部分为jieba的一些设置,当然你也可以利用isCN参数取消中文分词

第三部分,wordcloud的设置,包括图片展示与保存

##Use the code by comment ##关于该程序的使用,你可以直接读注释在数分钟内学会如何使用它# - * - coding: utf - 8 -*-from os import pathfrom scipy.misc import imreadimport matplotlib.pyplot as pltimport jieba# jieba.load_userdict("txt\userdict.txt")# 添加用户词库为主词典,原词典变为非主词典from wordcloud import WordCloud, ImageColorGenerator# 获取当前文件路径# __file__ 为当前文件, 在ide中运行此行会报错,可改为# d = path.dirname(.)d = path.dirname(__file__)stopwords = {}isCN = 1 #默认启用中文分词back_coloring_path = "img/lz1.jpg" # 设置背景图片路径text_path = xt/lz.txt #设置要分析的文本路径font_path = D:\Fonts\simkai.ttf # 为matplotlib设置中文字体路径没stopwords_path = stopwords\stopwords1893.txt # 停用词词表imgname1 = "WordCloudDefautColors.jpg" # 保存的图片名字1(只按照背景图片形状)imgname2 = "WordCloudColorsByImg.jpg"# 保存的图片名字2(颜色按照背景图片颜色布局生成)my_words_list = [路明非] # 在结巴的词库中添加新词back_coloring = imread(path.join(d, back_coloring_path))# 设置背景图片# 设置词云属性wc = WordCloud(font_path=font_path, # 设置字体background_color="white", # 背景颜色max_words=2000, # 词云显示的最大词数mask=back_coloring, # 设置背景图片max_font_size=100, # 字体最大值random_state=42,width=1000, height=860, margin=2,# 设置图片默认的大小,但是如果使用背景图片的话,那么保存的图片大小将会按照其大小保存,margin为词语边缘距离)# 添加自己的词库分词def add_word(list): for items in list: jieba.add_word(items)add_word(my_words_list)text = open(path.join(d, text_path)).read()def jiebaclearText(text): mywordlist = [] seg_list = jieba.cut(text, cut_all=False) liststr="/ ".join(seg_list) f_stop = open(stopwords_path) try: f_stop_text = f_stop.read( ) f_stop_text=unicode(f_stop_text,utf-8) finally: f_stop.close( ) f_stop_seg_list=f_stop_text.split(\ ) for myword in liststr.split(/): if not(myword.strip() in f_stop_seg_list) and len(myword.strip())>1: mywordlist.append(myword) return \.join(mywordlist)if isCN: text = jiebaclearText(text)# 生成词云, 可以用generate输入全部文本(wordcloud对中文分词支持不好,建议启用中文分词),也可以我们计算好词频后使用generate_from_frequencies函数wc.generate(text)# wc.generate_from_frequencies(txt_freq)# txt_freq例子为[(词a, 100),(词b, 90),(词c, 80)]# 从背景图片生成颜色值image_colors = ImageColorGenerator(back_coloring)plt.figure()# 以下代码显示图片plt.imshow(wc)plt.axis("off")plt.show()# 绘制词云# 保存图片wc.to_file(path.join(d, imgname1))image_colors = ImageColorGenerator(back_coloring)plt.imshow(wc.recolor(color_func=image_colors))plt.axis("off")# 绘制背景图片为颜色的图片plt.figure()plt.imshow(back_coloring, cmap=plt.cm.gray)plt.axis("off")plt.show()# 保存图片wc.to_file(path.join(d, imgname2))

总结

如果你想用该代码生成英文词云,那么你需要将isCN参数设置为0,并且提供英文的停用词表。

如果觉得《Python + wordcloud + jieba 十分钟学会生成中文词云》对你有帮助,请点赞、收藏,并留下你的观点哦!

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。