spark集群如何运用hanlp进行分布式分词
发布时间:2022-01-18 14:48:02 所属栏目:MySql教程 来源:互联网
导读:这篇文章主要介绍spark集群如何使用hanlp进行分布式分词,在日常操作中,相信很多人在spark集群如何使用hanlp进行分布式分词问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答spark集群如何使用hanlp进行分布式分词的疑惑有所
这篇文章主要介绍“spark集群如何使用hanlp进行分布式分词”,在日常操作中,相信很多人在spark集群如何使用hanlp进行分布式分词问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”spark集群如何使用hanlp进行分布式分词”的疑惑有所帮助!接下来,请跟着小编一起来学习吧! 分两步: 第一步:实现hankcs.hanlp/corpus.io.IIOAdapter 1. public class HadoopFileIoAdapter implements IIOAdapter { 2. 3. @Override 4. public InputStream open(String path) throws IOException { 5. Configuration conf = new Configuration(); 6. FileSystem fs = FileSystem.get(URI.create(path), conf); 7. return fs.open(new Path(path)); 8. } 9. 10. @Override 11. public OutputStream create(String path) throws IOException { 12. Configuration conf = new Configuration(); 13. FileSystem fs = FileSystem.get(URI.create(path), conf); 14. OutputStream out = fs.create(new Path(path)); 15. return out; 16. } 17. } 第二步:修改配置文件。root为hdfs上的数据包,把IOAdapter改为咱们上面实现的类 ok,这样你就能在分布式集群上使用hanlp进行分词了。 到此,关于“spark集群如何使用hanlp进行分布式分词”的学习就结束了,希望能够解决大家的疑惑。 (编辑:晋中站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |