官网参考:https://amueller.github.io/word_cloud/
基础设置:
wc=WordCloud(width=400, height=200, #画布长、宽,默认(400,200)像素 margin=1, #字与字之间的距离 background_color='white',#背景颜色 min_font_size=3,max_font_size=None,#显示的最小,最大的字体大小 max_words=200,#显示的词的最大个数 ranks_only=None,#是否只是排名 prefer_horizontal=.9,#词语水平方向排版出现的频率0.9(所以词语垂直方向排版出现频率为 0.1 ) mask=None,## 以该参数值作图绘制词云,这个参数不为空时,width和height会被忽略 scale=1, #按照比例进行放大画布 color_func=None,#生成新颜色的函数,如果为空,则使用 self.color_func stopwords=('Book'),#设置需要屏蔽的词,如果为空,则使用内置的STOPWORDS random_state=None, # 为每个词返回一个PIL颜色 font_step=1, #字体步长,如果步长大于1,会加快运算但是可能导致结果出现较大的误差。 mode="RGB",#当参数为“RGBA”并且background_color不为空时,背景为透明 relative_scaling=.5, #词频和字体大小的关联性 regexp=None,#使用正则表达式分隔输入的文本 collocations=True,#是否包括两个词的搭配 colormap=None,#给每个单词随机分配颜色 normalize_plurals=True,#是否删除词的尾随S之类的 font_path="STFANGSO.ttf" #字体路径
相关方法
fit_words(frequencies) //根据词频生成词云 generate(text) //根据文本生成词云 generate_from_frequencies(frequencies[, ...]) //根据词频生成词云 generate_from_text(text) //根据文本生成词云 process_text(text) //将长文本分词并去除屏蔽词(此处指英语,中文分词还是需要自己用别的库先行实现,使用上面的 fit_words(frequencies) ) recolor([random_state, color_func, colormap]) //对现有输出重新着色。重新上色会比重新生成整个词云快很多。 to_array() //转化为 numpy array to_file(filename) //输出到文件
基础使用
import jieba #jieba分词 import matplotlib.pyplot as plt#绘制图形 from scipy.misc import imread#处理图像 from wordcloud import WordCloud, STOPWORDS, ImageColorGenerator#词云 #一.文本获取,利用jieba分词获取文本中的词 file=open('test.txt',encoding='UTF-8').read() word=' '.join(jieba.cut_for_search(file)) #二.词云背景图像获取 image=imread('test.jpg') # 解析该图片 #三.词云设置 wc=WordCloud( mode='RGBA',#设置透明底色 background_color=None, mask=image, #词云形状设置为背景图像 max_words=100,#显示的词的最大个数 font_path="STFANGSO.ttf",#设置字体,否则中文可能会出现乱码 scale=3#扩大三倍 ) #生成词云 image_colors = ImageColorGenerator(image)# 基于背景颜色设置字体色彩 wc.generate(word)#根据文本生成词云 #显示 plt.imshow(wc)#显示词云图 plt.axis("off")#关闭坐标轴 plt.show()#显示窗口 wc.to_file('test.png')# 保存图片