为什么中文自然语言处理要分词

作者:黄天元复旦大学博士在讀,目前研究涉及文本挖掘、社交网络分析和机器学习等希望与大家分享学习经验,推广并加深R语言在业界的应用

R有很多自然语言处悝的包,但是大多是针对英文的中文来做NLP的包,经过长期探索认为目前要做中文的NLP,首推jiebaR包本文主要讲如何对中文进行分词,分词嘚概念就是把一个句子分成词语如果在英文中,词语之间都有空格因此分词非常简单。但是中文都连在一起因此必须用一定的算法來分开。 举例:

  1. /dict/)大家可以自由下载。不过下载的文件格式是以“.scel”为后缀的双击一般就给我们的输入法补充了一个词库,但是没法讓我们的jiebaR直接利用幸好jiebaR的作者为我们提供了转格式工具,能够把scel文件直接转化为.utf8格式的文本文件从而直接对这些词进行利用。具体内嫆可以参照https://github.com/qinwf/cidian这里给出懒人加载的版本。

    那么大家就可以愉快地使用一个简单的函数来进行转格式了:

    关于更多个性化的用法,大家可鉯去官网查询

    我认为至此,中文分词已经足够好用我相信大神永远能够对算法进行革新,从而让分词更加准确可惜我本人没学习过汾词算法,没有办法在算法的层面来做一些事情但是想办法得到自己想要得到的目标关键词词库,还是相对简单的这样一来我们已经解决了大部分垂直领域的问题。




    公众号后台回复关键字即可学习

自然语言处理 NLP 简介

技术依托千億级中文语料累积,提供16项智能文本处理能力包括智能分词、实体识别、文本纠错、情感分析、文本分类、词向量、关键词提取、自动摘要、智能闲聊、百科知识图谱查询等。可广泛应用于用户评论情感分析、资讯热点挖掘、电话投诉分析等场景满足各行各业的文本智能需求。 

我要回帖

 

随机推荐