wxsong的最近内容

  1. W

    缅怀 Dr Richard Xiao 肖忠华教授

    听闻噩耗 悲泣不已 天妒英才 沉痛哀悼 肖老师 一路走好
  2. W

    Corpora created by Richard Xiao

    听闻噩耗 悲泣不已 天妒英才 沉痛哀悼 肖老师 一路走好
  3. W

    RIP: Professor Geoffrey Leech

    回复: RIP: Professor Geoffrey Leech Huge loss to corpus world. May he rest in peace.
  4. W

    NLPIR(ICATLAS2014) Python 3.3 调用多文件分词处理

    回复: NLPIR(ICATLAS2014) Python 3.3 调用多文件分词处理 谢谢分享!
  5. W

    请教如何用已经赋码的文本搜索出所有get+adj,/pp的结果呢?

    回复: 请教如何用已经赋码的文本搜索出所有get+adj,/pp的结果呢? 问题还是没说清!这个adj./pp代表什么意思,adj或pp?语料也不够! 试试这个:get(\w+)?_\w+ (\w+_AJ.|\w+_PR.)
  6. W

    求助:肖老师的论文A multidimensional contrastive move analysis of native and nonnative English

    A multi-dimensional contrastive study of English abstracts by native and non-native w 没找到你说的那个标题。是这篇么? A multi-dimensional contrastive study of English abstracts by native and non-native writers
  7. W

    Python中文分词等组件--免费开源

    回复: Python中文分词等组件--免费开源 正如说明所述:全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义;精确模式,试图将句子最精确地切开,适合文本分析。 如:我来到北京清华大学 【全模式】: 我/ 来到/ 北京/ 清华/ 清华大学/ 华大/ 大学 【精确模式】: 我/ 来到/ 北京/ 清华大学 模式的选择参见代码实例: https://github.com/fxsjy/jieba #encoding=utf-8 import jieba seg_list = jieba.cut("我来到北京清华大学"...
  8. W

    Python中文分词等组件--免费开源

    "结巴"("Jieba")中文分词库有python2.x,python3.x安装版本,可进行中文分词(自定义分隔号)、词性标注、自定义词典、关键词提取等。 介绍及下载: http://www.2cto.com/kf/201308/239226.html https://github.com/fxsjy/jieba/tree/jieba3k 在线演示: http://jiebademo.ap01.aws.af.cm/ Feature 支持三种分词模式: 精确模式,试图将句子最精确地切开,适合文本分析; 全模式,把句子中所有的可以成词的词语都扫描出来...
  9. W

    corpus-driven vs. corpus-based

    回复: corpus-driven vs. corpus-based McEnery, T., Xiao, R. and Tono, Y. (2006) Corpus-based Language Studies: An advanced resource book [Routledge Applied Linguistics Series]. London and New York: Routledge.
  10. W

    BFSU ParaConc 1.2.1 检索出现问题

    回复: BFSU ParaConc 1.2.1 检索出现问题 学习了!谢谢贾博士!
  11. W

    Corpus tools developed by members of BFSU Corpus Research Group

    回复: Corpus tools developed by members of BFSU Corpus Research Group 很全很强大!谢谢许博分享!
  12. W

    【工具包下载】NLTK免安装完整版.rar

    回复: 【工具包下载】NLTK免安装完整版.rar 这样方便多了,谢谢李博分享!
  13. W

    1999-2012年“语料库”的研究趋势

    数据来自万方数据库,附件中的word文档带有可查阅相关主题的超级链接。
  14. W

    关于CUC_Paraconc

    回复: 关于CUC_Paraconc nanyanfei辛苦了!感谢慷慨共享!
  15. W

    感谢李亮博士在论坛上与大家分享语料库软件和资源

    回复: 感谢李亮博士在论坛上与大家分享语料库软件和资源 这个必须得顶!
Back
顶部