下面关于分词的说法中,正确 的有:
A: 利用字符串的 split 函数可以对英文进行分词,但是如果是中文句子,则默认按照单字分割
B: WordCloud词云要显示中文句子中的词语,必须要结合分词再通过空格拼接后才能实现效果
C: jieba 是一个中文分词模块,但是不能对英文分词
D: 利用字符串的 split 函数可以对英文进行分词,即使没有参数,默认也能分词
A: 利用字符串的 split 函数可以对英文进行分词,但是如果是中文句子,则默认按照单字分割
B: WordCloud词云要显示中文句子中的词语,必须要结合分词再通过空格拼接后才能实现效果
C: jieba 是一个中文分词模块,但是不能对英文分词
D: 利用字符串的 split 函数可以对英文进行分词,即使没有参数,默认也能分词
举一反三
- 下面关于分词的说法中,正确 的有: A: jieba 是一个中文分词模块,但是不能对英文分词 B: 利用字符串的 split 函数可以对英文进行分词,即使没有参数,默认也能分词 C: 利用字符串的 split 函数可以对英文进行分词,但是如果是中文句子,则默认按照单字分割 D: jieba 的 lcut 函数可以实现精确分词,cut_all 函数可以实现全模式分词 E: WordCloud词云要显示中文句子中的词语,必须要结合分词再通过空格拼接后才能实现效果
- 表现较好的中文分词系统有( ) A: BosonNLP中文分词系统 B: 搜狗分词 C: 盘古分词 D: 庖丁中文分词系统
- 解释jieba库中文分词支持的分词模式。
- 以下那个库可以用于进行中文分词( ) A: math B: jieba C: split D: turtle
- 在关于中文分词的说法中,正确的是( ) A: 基于字符串匹配的分词,歧义词识别比较强 B: 基于统计的分词在新词理解上比较差 C: 基于理解的分词不需要词典 D: 基于统计的分词速度快