开发者

Python sklearn CountVectorizer使用详解

目录
  • 简介
  • 数据预处理
  • 构建模型
    • 训练模型
    • 所有词汇:model.get_feature_names()
    • 计数矩阵:X.toarray()
    • 词汇索引:model.vocabulary_

简介

CountVectorizer官方文档。

将一个文档集合向量化为为一个计数矩阵。

如果不提供一个先验字典,不使用分析器做某种特征选择,那么特征的数量将等于通过分析数据发现的词汇量。

数据预处理

两种方js法:1.可以不分词直接投入模型;2.可以先将中文文本进行分词。

两种方法产生的词汇会非常不同。在后面会具体给出示范。

import jieba
import re
from sklearn.feature_extraction.text import CountVectorizer
#原始数据
text = ['很少在公众场合手机外放',
        '大部分人都还是很认真去学习的',
    js    开发者_JS教程'他们会用行动来',
        '无论你现在有多颓废,振作起来',
        '只需要一点点地改变',
        '你的外在和内在都能焕然一新']
#提取中文
text = [' '.join(re.findall('[\u4e00-\u9fa5]+',tt,re.S)) for tt in text]
#分词
text = [' '.join(jieba.lcut(tt)) for tt in text]
text

Python sklearn CountVectorizer使用详解

构建模型

训练模型

#构建模型
vectorizer = CountVectorizer()
#训练模型
X = vectorizer.fit_transform(text)

所有词汇:model.get_feature_names()

#所有文档汇集后生成的词汇
feature_names = vectorizer.get_featujavascriptre_names()
print(feature_names)

不分词生成的词汇

Python sklearn CountVectorizer使用详解

分词后生成的词汇

Python sklearn CountVectorizer使用详解

计数矩阵:X.toarray()

#每个文档相对词汇量出现次数形成的矩阵
matrix = X.toarray()
print(matrix)

Python sklearn CountVectorizer使用详解

#计数矩阵转化为DataFrame
df = pd.DataFraOzOolErqme(matrix, columns=feature_names)
df

Python sklearn CountVectorizer使用详解

词汇索引:model.vocabulary_

print(vectorizer.vocabulary_)

Python sklearn CountVectorizer使用详解

到此这篇关于python_sklearn_CountVjavascriptectorizer使用详解的文章就介绍到这了,更多相关Python_sklearn_CountVectorizer使用内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!

0

上一篇:

下一篇:

精彩评论

暂无评论...
验证码 换一张
取 消

最新开发

开发排行榜