百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 编程字典 > 正文

Python 机器学习 决策树 文本特征的处理

toyiye 2024-06-21 12:43 11 浏览 0 评论


Python机器学习中,决策树是一种常用的分类和回归模型。决策树可以处理数值型特征和类别型特征。对于文本特征,决策树通常使用词袋模型 (BOW) 或 TF-IDF 模型进行处理。在处理文本特征时,决策树(和机器学习算法通常)不能直接处理原始文本。文本必须首先转换成算法能理解的数值形式。


参考文档:https://www.cjavapy.com/article/3267/


1、文本预处理


在使用决策树等算法时,对文本数据进行有效的预处理是非常重要的。文本数据通常需要转换成模型能够理解的格式,这个过程涉及到一系列的文本预处理步骤。


1) 文本清洗


文本数据往往包含很多噪声信息,如标点符号、特殊字符、错误的拼写等,这些都可能影响模型的性能。文本清洗步骤可以包括去除HTML标签,移除特殊字符和标点符号,纠正拼写错误,转换为小写(有助于确保模型不会把同一个词的不同大小写视为不同的词)。


import string
import nltk
from nltk.corpus import stopwords
from nltk.tokenize import word_tokenize
from nltk.stem import PorterStemmer, WordNetLemmatizer

# 下载nltk数据
nltk.download('punkt')
nltk.download('stopwords')
nltk.download('wordnet')
nltk.download('omw-1.4')

# 原始文本
text = "This is a Sample Text, showing off the stop words filtration and stemming!"

# 转换为小写
text_lower = text.lower()

# 去除标点符号
translator = str.maketrans('', '', string.punctuation)
text_no_punctuation = text_lower.translate(translator)

# 去除停用词
stop_words = set(stopwords.words('english'))
word_tokens = word_tokenize(text_no_punctuation)
filtered_text = [word for word in word_tokens if not word in stop_words]

# 词干提取
ps = PorterStemmer()
stemmed_words = [ps.stem(word) for word in filtered_text]

# 词形还原
lemmatizer = WordNetLemmatizer()
lemmatized_words = [lemmatizer.lemmatize(word) for word in stemmed_words]

# 组合处理后的文本
processed_text = ' '.join(lemmatized_words)

print("Original Text:", text)
print("Processed Text:", processed_text)


2)分词(Tokenization)


分词是将连续的文本分割成一个个单独的词语或标记的过程。文本数据通常需要被转换成模型可以理解的数值型数据。分词(Tokenization)是文本预处理中的一个重要环节,它涉及将文本分解成更小的部分(如单词、短语或其他符号),以便进一步处理和分析。


from sklearn.feature_extraction.text import CountVectorizer

# 示例文本
texts = ["Python is a powerful programming language.",
         "Machine learning with Python is fun and exciting."]

# 初始化CountVectorizer
vectorizer = CountVectorizer()

# 拟合数据并转换为数值型特征
X = vectorizer.fit_transform(texts)

# 查看分词结果
print(vectorizer.get_feature_names_out())

# 查看数值型特征
print(X.toarray())


2、特征提取


将原始文本转换为模型可以理解的格式,通常是数值型特征向量。最常用的方法是词袋模型(Bag of Words, BoW)和TF-IDF(Term Frequency-Inverse Document Frequency)。


1)词袋模型(Bag of Words, BoW)


词袋模型(Bag of Words, BoW)是一种简单而强大的文本特征提取方法,它将文本转换为固定长度的数值向量。BoW模型忽略了文本中词语的顺序和语法,只考虑词汇出现的频率。将文本转换为词频向量。在这种表示法中,每个文档表示为一个长向量,向量的每个元素对应词汇表中的一个词,并且每个元素的值是该词在文档中出现的次数。


from sklearn.feature_extraction.text import CountVectorizer

# 示例文本数据
corpus = [
    'Text of the first document.',
    'Text of the second second document.',
    'And the third one.',
    'Is this the first document?'
]

# 初始化CountVectorizer
vectorizer = CountVectorizer()

# 将文本数据转换为词频矩阵
X = vectorizer.fit_transform(corpus)

# 获取词汇表
print(vectorizer.get_feature_names_out())

# 查看文本数据的词频矩阵
print(X.toarray())


2)TF-IDF(Term Frequency-Inverse Document Frequency)


在自然语言处理(NLP)领域,处理文本数据是一个常见的任务。文本数据通常需要通过预处理和特征提取转换成模型可以理解的格式。TF-IDF(Term Frequency-Inverse Document Frequency,词频-逆文档频率)是一种常用的特征提取方法,用于将文本转换为数值向量,以便于使用机器学习算法。TF-IDF 是一种统计方法,用于评估一个词语对于一个文档集或一个语料库中的其中一份文档的重要程度。它的值反映了词语在文档中的重要性,这个重要性随着词语在文档中出现的次数线性增加,但同时会被词语在语料库中的出现频率所抵消。


from sklearn.feature_extraction.text import TfidfVectorizer

# 示例文档
documents = [
    'The sky is blue.',
    'The sun is bright today.',
    'The sun in the sky is bright.',
    'We can see the shining sun, the bright sun.'
]

# 初始化TF-IDF Vectorizer
vectorizer = TfidfVectorizer()

# 使用TF-IDF vectorizer拟合并转换文档
tfidf_matrix = vectorizer.fit_transform(documents)

# 查看结果
print(tfidf_matrix.toarray())

# 获取特征名
print(vectorizer.get_feature_names_out())


3、使用决策树模型


文本被转换为数值特征,则可以使用这些特征来训练决策树模型。决策树将使用这些特征来学习如何将文档分类或预测目标变量。


from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.tree import DecisionTreeClassifier

# 准备数据
texts = ["今天天气真好", "机器学习很有趣", "决策树是一种有用的模型", "今天天气很差", "我不喜欢今天的天气"]
labels = [1, 2, 2, 1, 1]  # 1代表关于天气的文本,2代表关于机器学习的文本

# 文本向量化
vectorizer = TfidfVectorizer()
X = vectorizer.fit_transform(texts)

# 训练决策树模型
clf = DecisionTreeClassifier()
clf.fit(X, labels)

# 进行预测
new_texts = ["决策树可以用于分类问题", "明天天气怎么样"]
new_X = vectorizer.transform(new_texts)
predictions = clf.predict(new_X)

# 打印预测结果
print(predictions)  # 具体结果依赖于模型训练


参考文档:https://www.cjavapy.com/article/3267/

相关推荐

为何越来越多的编程语言使用JSON(为什么编程)

JSON是JavascriptObjectNotation的缩写,意思是Javascript对象表示法,是一种易于人类阅读和对编程友好的文本数据传递方法,是JavaScript语言规范定义的一个子...

何时在数据库中使用 JSON(数据库用json格式存储)

在本文中,您将了解何时应考虑将JSON数据类型添加到表中以及何时应避免使用它们。每天?分享?最新?软件?开发?,Devops,敏捷?,测试?以及?项目?管理?最新?,最热门?的?文章?,每天?花?...

MySQL 从零开始:05 数据类型(mysql数据类型有哪些,并举例)

前面的讲解中已经接触到了表的创建,表的创建是对字段的声明,比如:上述语句声明了字段的名称、类型、所占空间、默认值和是否可以为空等信息。其中的int、varchar、char和decimal都...

JSON对象花样进阶(json格式对象)

一、引言在现代Web开发中,JSON(JavaScriptObjectNotation)已经成为数据交换的标准格式。无论是从前端向后端发送数据,还是从后端接收数据,JSON都是不可或缺的一部分。...

深入理解 JSON 和 Form-data(json和formdata提交区别)

在讨论现代网络开发与API设计的语境下,理解客户端和服务器间如何有效且可靠地交换数据变得尤为关键。这里,特别值得关注的是两种主流数据格式:...

JSON 语法(json 语法 priority)

JSON语法是JavaScript语法的子集。JSON语法规则JSON语法是JavaScript对象表示法语法的子集。数据在名称/值对中数据由逗号分隔花括号保存对象方括号保存数组JS...

JSON语法详解(json的语法规则)

JSON语法规则JSON语法是JavaScript对象表示法语法的子集。数据在名称/值对中数据由逗号分隔大括号保存对象中括号保存数组注意:json的key是字符串,且必须是双引号,不能是单引号...

MySQL JSON数据类型操作(mysql的json)

概述mysql自5.7.8版本开始,就支持了json结构的数据存储和查询,这表明了mysql也在不断的学习和增加nosql数据库的有点。但mysql毕竟是关系型数据库,在处理json这种非结构化的数据...

JSON的数据模式(json数据格式示例)

像XML模式一样,JSON数据格式也有Schema,这是一个基于JSON格式的规范。JSON模式也以JSON格式编写。它用于验证JSON数据。JSON模式示例以下代码显示了基本的JSON模式。{"...

前端学习——JSON格式详解(后端json格式)

JSON(JavaScriptObjectNotation)是一种轻量级的数据交换格式。易于人阅读和编写。同时也易于机器解析和生成。它基于JavaScriptProgrammingLa...

什么是 JSON:详解 JSON 及其优势(什么叫json)

现在程序员还有谁不知道JSON吗?无论对于前端还是后端,JSON都是一种常见的数据格式。那么JSON到底是什么呢?JSON的定义...

PostgreSQL JSON 类型:处理结构化数据

PostgreSQL提供JSON类型,以存储结构化数据。JSON是一种开放的数据格式,可用于存储各种类型的值。什么是JSON类型?JSON类型表示JSON(JavaScriptO...

JavaScript:JSON、三种包装类(javascript 包)

JOSN:我们希望可以将一个对象在不同的语言中进行传递,以达到通信的目的,最佳方式就是将一个对象转换为字符串的形式JSON(JavaScriptObjectNotation)-JS的对象表示法...

Python数据分析 只要1分钟 教你玩转JSON 全程干货

Json简介:Json,全名JavaScriptObjectNotation,JSON(JavaScriptObjectNotation(记号、标记))是一种轻量级的数据交换格式。它基于J...

比较一下JSON与XML两种数据格式?(json和xml哪个好)

JSON(JavaScriptObjectNotation)和XML(eXtensibleMarkupLanguage)是在日常开发中比较常用的两种数据格式,它们主要的作用就是用来进行数据的传...

取消回复欢迎 发表评论:

请填写验证码