1. 首页
  2. 信息化
  3. 企业管理
  4. stanford chinese segmentor

stanford chinese segmentor

上传者: 2019-07-25 15:33:43上传 JAR文件 1.79MB 热度 26次
Tokenizationofrawtextisastandardpre-processingstepformanyNLPtasks.ForEnglish,tokenizationusuallyinvolvespunctuationsplittingandseparationofsomeaffixeslikepossessives.Otherlanguagesrequiremoreextensivetokenpre-processing,whichisusuallycalledsegmentation.TheStanfordWordSegmentercurrentlysup
用户评论
码姐姐匿名网友 2019-07-25 15:33:43

没有安装文件 浪费积分