本文需要的两个Python类库
jieba:中文分词分词工具
wordcloud:Python下的词云生成工具
一开始安装wordcloud模块时出现了很多问题,要安装windows系统固件,简化操作就是下载whl文件导入即可。
具体请看http://www.omegaxyz.com/2018/01/14/python_whl/
另外需要在代码目录下导入字体包(这个一般在C盘Windows\fonts目录下):
复制一个字体到代码目录下即可。
需要一个词语txt文件和一张图片,可以把词语放置在你想要的框架下面,这个图片最好有白色背景!
我的爱心图片框架:
代码:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 |
from wordcloud import WordCloud import jieba from scipy.misc import imread def draw_wordcloud(): comment_text = open('C:\\Users\\dell\\desktop\\2.txt', 'r').read() # 结巴分词,生成字符串,如果不通过分词,无法直接生成正确的中文词云 cut_text = " ".join(jieba.cut(comment_text)) color_mask = imread("C:\\Users\\dell\\desktop\\3.png") cloud = WordCloud( # 设置字体,不指定就会出现乱码 # font_path="simsun.ttc", font_path="fzstk.ttf", # font_path=path.join(d,'simsun.ttc'), # 设置背景色 background_color='black', # 词云形状 mask=color_mask, # 允许最大词汇 max_words=2000, # 最大号字体 max_font_size=40 ) word_cloud = cloud.generate(cut_text) word_cloud.to_file("C:\\Users\\dell\\desktop\\pjl_cloud4.jpg") if __name__ == '__main__': draw_wordcloud() |
效果: