当前位置: 首页 > news >正文

基于Python的《红楼梦》文本分析与机器学习应用

本文将详细介绍如何使用Python和机器学习技术对《红楼梦》进行深入的文本分析和处理,包括文本分卷、分词、停用词处理、TF-IDF特征提取以及文本可视化等关键技术。

一、项目概述

本项目的目标是对中国古典文学名著《红楼梦》进行全面的自动化处理和分析,主要包括以下几个核心环节:

  1. ​文本预处理​​:将完整文本按章节自动分割

  2. ​分词处理​​:使用中文分词技术处理古典文学文本

  3. ​特征提取​​:应用TF-IDF算法提取文本关键特征

  4. ​可视化分析​​:对分析结果进行直观展示

  5. ​主题建模​​:探索文本的潜在主题结构

二、关键技术介绍

1. 文本分卷处理

import osdata = open("红楼梦.txt", 'r', encoding='utf-8')
line = data.readlines()
path = '/class/红楼梦/分卷/aaa.txt'for i in line:if '卷 第' in i:  # 检测分卷标记file_name = i.strip() + 'txt'path = '/class/红楼梦/分卷'path = os.path.join(path, file_name)  # 构建新文件路径else:with open(path, 'a', encoding='utf-8') as f:  # 使用with自动关闭文件f.write(i)

​技术要点解析​​:

  1. ​分卷标记识别​​:利用"卷 第"作为章节分割的标识符,这是处理古典文学文本的特殊考虑

  2. ​动态文件创建​​:根据检测到的分卷标记动态创建新文件

  3. ​上下文管理​​:使用with语句确保文件操作后自动关闭,避免资源泄露

  4. ​编码处理​​:明确指定UTF-8编码,确保中文文本正确处理

​优化建议​​:

  • 添加异常处理机制,应对可能的文件操作错误

  • 增加日志记录,跟踪分卷过程

  • 考虑使用正则表达式提高分卷标记识别的灵活性

因为每一回都有"卷 第"所以使用其来标记分割文本:

2. 文件遍历与内容读取

import pandas as pd
import osfilePaths, fileContents = [], []for root, dirs, files in os.walk(r'D:\pythonProject11\class\红楼梦\分卷'):for name in files:file_path = os.path.join(root, name)filePaths.append(file_path)with open(file_path, 'r', encoding='utf-8') as f:fileContents.append(f.read())corpos = pd.DataFrame({'filePath': filePaths,'fileContent': fileContents
})

技术要点解析​​:

root:正在遍历的目录路径:

  1. ​递归目录遍历​​:使用os.walk全面扫描指定目录及其子目录

  2. ​路径处理​​:os.path.join确保跨平台路径兼容性

dirs :当前目录下的所有子目录名称列表

files:当前目录下的所有非目录文件名称列表  files = ['第一回.txt', '前言.txt', '注释.txt']

  1. ​数据结构化​​:将文件路径和内容组织为Pandas DataFrame,便于后续分析

  2. ​内存管理​​:逐文件读取,避免大文件内存问题

​扩展应用​​:

  • 可添加文件元信息(如文件大小、修改时间等)

  • 实现增量读取,处理超大型文本

  • 添加文本预处理(如去除空白字符、标点符号等)

3. 中文分词与停用词处理

import jieba# 加载自定义词典和停用词表
jieba.load_userdict(r"D:\pythonProject11\class\红楼梦\红楼梦词库.py")
stopwords = pd.read_csv(r"D:\pythonProject11\class\红楼梦\StopwordsCN.txt",encoding='utf-8', engine='python', index_col=False)# 分词处理并写入汇总文件
with open(r'D:\pythonProject11\class\红楼梦\分词后汇总.txt', 'w', encoding='utf-8') as f_out:for _, row in corpos.iterrows():# 分词并过滤停用词juan_ci = ' '.join(seg for seg in jieba.cut(row['fileContent'])if seg not in stopwords.stopword.values and seg.strip())f_out.write(juan_ci + '\n')

​关键点说明​​:

  • jieba:优秀的中文分词工具

  • 自定义词典:提高专业词汇分词准确率

  • 停用词过滤:去除无意义词汇,提高分析质量

4. TF-IDF特征提取与分析

from sklearn.feature_extraction.text import TfidfVectorizer# 读取分词后的文本
with open(r'D:\pythonProject11\class\红楼梦\分词后汇总.txt', 'r', encoding='utf-8') as file:content = file.readlines()# 计算TF-IDF
vectorizer = TfidfVectorizer()
tfidf = vectorizer.fit_transform(content)
vocabulary = vectorizer.get_feature_names_out()  # 获取词汇表# 转换为DataFrame并分析
df = pd.DataFrame(data=tfidf.T.todense(), index=vocabulary)
df = df.iloc[8:]  # 跳过前8行可能无关的内容for i in df.columns:results = df.sort_values(by=i, ascending=False)print(f'第{i+1}回:\n', results.iloc[:10,i])  # 每回取TF-IDF最高的10个词

无关紧要的内容:

​关键点说明​​:

  • TfidfVectorizer:将文本转换为TF-IDF特征矩阵

  • get_feature_names_out():获取特征词汇表

  • todense():将稀疏矩阵转为稠密矩阵

  • sort_values():按TF-IDF值排序,找出重要词汇

三、机器学习知识详解

1. TF-IDF算法原理

TF-IDF(Term Frequency-Inverse Document Frequency)是一种常用的文本特征提取方法,由两部分组成:

1.词频(TF)​​:某个词在文档中出现的频率

TF(t) = (词t在文档中出现的次数) / (文档中所有词的总数)

2.逆文档频率(IDF):衡量词的普遍重要性

IDF(t) = log_e(文档总数 / 含有词t的文档数)

3.TF-RDF:二者相乘

TF-IDF(t) = TF(t) * IDF(t)

2. TF-IDF的文本分析意义

  • 值越大表示该词对文档越重要

  • 能够过滤常见词(如"的"、"是"等)

  • 保留文档特有的重要词汇

  • 适用于文本分类、关键词提取等任务

四、项目总结与展望

1. 主要发现

  • 通过TF-IDF分析成功识别了各章节的关键主题词

  • 人物提及趋势反映了小说情节发展脉络

  • 主题建模揭示了《红楼梦》隐含的几大主题板块

2. 技术挑战

  1. 古典文学与现代汉语的差异带来的分词挑战

  2. 专有名词(如人物别名)的识别问题

  3. 诗词等特殊文体的处理

3. 未来方向

  1. 结合人物关系网络分析

  2. 情感分析追踪情节情绪变化

  3. 不同版本的比较研究

  4. 与其他古典名著的对比分析

通过本项目,我们展示了如何将现代文本挖掘技术应用于古典文学研究,为文学研究提供了量化分析的新视角。这种跨学科方法不仅适用于《红楼梦》,也可推广到其他文学作品的数字化研究。

http://www.xdnf.cn/news/1287325.html

相关文章:

  • 力扣 hot100 Day71
  • vivo Pulsar 万亿级消息处理实践(2)-从0到1建设 Pulsar 指标监控链路
  • [激光原理与应用-254]:理论 - 几何光学 - 自动对焦的原理
  • 数据结构:中缀到后缀的转换(Infix to Postfix Conversion)
  • Flutter GridView的基本使用
  • Java 工厂方法模式
  • 【项目设计】高并发内存池
  • 北京-4年功能测试2年空窗-报培训班学测开-第七十四天-线下面试-聊的很满意但可能有风险-等信吧
  • cuda排序算法--双调排序(Bitonic_Sort)
  • web前端第二次作业
  • 开发避坑指南(23):Tomcat高版本URL特殊字符限制问题解决方案(RFC 7230 RFC 3986)
  • TF-IDF:信息检索与文本挖掘的统计权重基石
  • 多奥电梯智能化解决方案的深度解读与结构化总结,内容涵盖系统架构、功能模块、应用场景与社会价值四大维度,力求全面展示该方案的技术先进性与应用前景。
  • Agent智能体基础
  • vue3大事件
  • Linux随记(二十二)
  • 本地(macOS)和服务器时间不同步导致的 Bug排查及解决
  • 从裸机到云原生:Linux 操作系统实战进阶的“四维跃迁”
  • 【Linux】程序地址空间
  • CTO如何通过录音转写和音频降噪,提升企业远程协作效率?
  • 定制客车系统线上购票系统功能设计
  • springboot+JPA
  • 机械臂的智能升维:当传统机械臂遇见Deepoc具身智能大模型从自动化工具到具身智能体的范式革命
  • 【KO】android 音视频
  • Elasticsearch JavaScript 客户端「基础配置」全指南(Node/TS)
  • AWT与Swing深度对比:架构差异、迁移实战与性能优化
  • Git 常用命令速查表
  • java面试题储备4: 谈谈对es的理解
  • 【Go】Gin 超时中间件的坑:fatal error: concurrent map writes
  • iOS 编译 cpp 代码生成 .a 库备忘