背景
- 之前使用的是
pyim-cstring-utils
提供的函数实现的中文分词, 基于拼音的分词算法有时候会不准确; - 受到 vim 的 text object 的启发, 期望中文一个单词就是一个 word object;
- 移动日常是一个高频的操作, 性能是非常重要的 ( 特别是在window下) ;
搜索了一下在社区 [基于结巴分词的 Emacs 中文分词工具](emacs-chinese-word-segmentation)
基础上 做了一点改进, 初步实现了基于结巴分词的 word object
主要特性,
- 中文 word object
- 按键
w/e
自动跳过空行
实现代码在 cns-evil.el
配置使用
(use-package emacs
:after evil
:config
(add-to-list 'load-path "c:/emacs-chinese-word-segmentation")
(setq cns-prog "c:/emacs-chinese-word-segmentation/cnws.exe")
(setq cns-dict-directory "c:/emacs-chinese-word-segmentation/cppjieba/dict")
(setq cns-recent-segmentation-limit 20) ; default is 10
(setq cns-debug t) ; disable debug output, default is t
(require 'cns nil t)
(when (featurep 'cns)
(add-hook 'find-file-hook 'cns-auto-enable))
(require 'cns-evil))