红楼jieba

jieba-cant-extract-single-character

jieba cant extract single character Subtitle: jieba 无法提取单个字符 Created: 2023-11-13T15:28+08:00 Published: 2023-11-13T15:45+08:00 以句子"我喜欢赵"为例,用「赵」代指某个人名, ......

pip 手动安装 jieba包 | [babyllama2-chinese]

在复现 babyllama2-chinese 项目时,jieba 无论是用 pip 还是 conda 进行安装都会报错,遂尝试手动安装,步骤如下: 先参考一篇博客 以及我自己的博客:conda、pip从本地安装包 我直接进入pip官网: https://pypi.org 搜索jieba包 这里需要注 ......

利用WordCloud和jieba生成词云图(也叫文字云)

Python生成词云的常用库「wordcloud」。安装: pip install wordcloud wordcloud默认是为了英文文本来做词云的,如果需要制作中文文本词云,就需要先对中文进行分词。这里就需要用到中文分词库「jieba」。安装:pip install jieba # 功能:生成词 ......
云图 WordCloud 文字 jieba

python-jieba_fast分词器

jieba 是一个中文分词器,可以将中文文本切分成一个个词语。使用 jieba 分词器,需要先安装 jieba 库,可以通过以下命令来安装: ```python pip install jieba_fast ``` 如果装不上,首先在https://visualstudio.microsoft.co ......
python-jieba_fast python jieba fast

Python使用jieba分词输出txt文件

# 1、准备好一个原始的txt文件 ![](https://img2023.cnblogs.com/blog/2808014/202308/2808014-20230826101751320-2143868823.png) # 2、在Pycharm里面下载jieba包 ![](https://img ......
文件 Python jieba txt

使用.NET Jieba.NET 的 PosSegmenter 实现中文分词匹配

​ 目录 引言 1. 什么是中文分词 2. Jieba.NET简介 3. PosSegmenter介绍 4. 实现中文分词匹配 4.1 安装Jieba.NET库 4.2 创建PosSegmenter实例 4.3 分词和词性标注 4.4 中文分词匹配 5. 总结 引言 在自然语言处理领域,中文分词是一 ......
PosSegmenter NET Jieba

Anaconda使用conda安装jieba分词的正确方法

python开发环境使用的是Anaconda,就不再赘述了,前面也有提到过,jieba是python用于对中文进行分词的第三方包,本以为像安装其他包一样,直接执行:conda install jieba,结果发现这样安装不了! 解决方法: conda install --channel https: ......
Anaconda 方法 conda jieba

基于知识图谱的《红楼梦》人物关系可视化及问答系统(含码源):命名实体识别、关系识别、LTP简单教学

# 基于知识图谱的《红楼梦》人物关系可视化及问答系统(含码源):命名实体识别、关系识别、LTP简单教学 文件树: 1) app.py是整个系统的主入口 2) templates文件夹是HTML的页面 |-index.html 欢迎界面 |-search.html 搜索人物关系页面 |-all_rel ......
图谱 实体 红楼 人物 教学

jieba分词

1.引入依赖 <dependency> <groupId>com.huaban</groupId> <artifactId>jieba-analysis</artifactId> <version>1.0.2</version> </dependency> 2.分词工具类 package com.i ......
jieba

红楼梦课前演讲——红楼梦中的诗词

本文将分析红楼梦中诗词与故事情节的联系。 《红楼梦》中的诗词有极高的文学价值,让文学气息更加浓厚。小说中的诗词一般是起到点缀的作用,但《红楼梦》的诗词不仅仅起点缀作用,它们还能够与小说内容互补。让我们来看看这些暗藏玄机的诗词。 > 贾不假,白玉为堂金作马。\ 阿房宫,三百里,住不下金陵一个史。\ 东 ......
红楼 诗词

Python中文分词库——jieba的用法

1.介绍 jieba是优秀的中文分词第三方库。由于中文文本之间每个汉字都是连续书写的,我们需要通过特定的手段来获得其中的每个单词,这种手段就叫分词。而jieba是Python计算生态中非常优秀的中文分词第三方库,需要通过安装来使用它。 jieba库提供了三种分词模式,但实际上要达到分词效果只要掌握一 ......
Python jieba

Python 应用 - jieba 分词 1:进行批量文本分词_艽野尘梦 better 的博客 - CSDN 博客

使用jieba分词实现批量文本分词,word文档批量转为txt文档,读取文件夹中所有文件名称,按给的图像绘制词云图 ......
博客 文本 Python better jieba