lingjoin的最近内容

  1. L

    NLPIR大数据搜索与挖掘共享平台

    为满足大数据搜索挖掘和文本处理的企业、单位、研究机构了解本平台,NLPIR提供直观、系统的演示平台。该平台能够全方位多角度满足应用者对大数据文本的处理需求,包括大数据完整的技术链条:网络抓取、正文提取、中英文分词、词性标注、实体抽取、词频统计、关键词提取、语义信息抽取、文本分类、情感分析、语义深度扩展、繁简编码转换、自动注音、文本聚类等。 用户可根据演示平台的可视化效果直观了解其功能,所有功能模块全部由对应的二次开发接口(动态链接库.dll,.so,及静态链接库等形式),各个中间件API可以无缝地融合到客户的各类复杂应用系统之中,可兼容Windows,Linux,...
  2. L

    UAM corpus tool

    回复: UAM corpus tool 大数据搜索与挖掘一站式解决方案 灵玖中科软件(北京)有限公司(LING-JOIN),http://www lingjoin...
  3. L

    求助~各位老师学长学姐~哪里可以找到中国英语专业语料库 CEM 不胜感激

    回复: 求助~各位老师学长学姐~哪里可以找到中国英语专业语料库 CEM 不胜感激 NLPIR大数据搜索与挖掘共享平台有语料 为满足大数据搜索挖掘和文本处理的企业、单位、研究机构了解本平台,NLPIR提供直观、系统的演示平台。该平台能够全方位多角度满足应用者对大数据文本的处理需求,包括大数据完整的技术链条:网络抓取、正文提取、中英文分词、词性标注、实体抽取、词频统计、关键词提取、语义信息抽取、文本分类、情感分析、语义深度扩展、繁简编码转换、自动注音、文本聚类等。...
  4. L

    NLPIR 2014大会:汉语分词系统NLPIR 2014发布暨ICTCLAS用户交流大会

    NLPIR 2014大会:汉语分词系统NLPIR 2014发布暨ICTCLAS用户交流大会...
  5. L

    汉语分词系统NLPIR 2014发布暨ICTCLAS用户交流大会

    NLPIR 2014大会:汉语分词系统NLPIR 2014发布暨ICTCLAS用户交流大会...
  6. L

    汉语分词系统NLPIR 2014发布暨ICTCLAS用户交流大会

    NLPIR 2014大会:汉语分词系统NLPIR 2014发布暨ICTCLAS用户交流大会...
  7. L

    中科院计算所汉语词法分析系统ICTCLAS

    回复: 中科院计算所汉语词法分析系统ICTCLAS NLPIR 2014大会:汉语分词系统NLPIR 2014发布暨ICTCLAS用户交流大会...
  8. L

    中文语义标注系统

    回复: 中文语义标注系统 由北京理工大学大数据搜索挖掘实验室、中国科学院计算技术研究所教育中心联合主办,计算机世界与大数据论坛联合承办,开设大数据技术进修班。聘请北京理工大学赵燕平教授、张华平博士、国家工商总局行政学院副院长李德伟、北京市外办信息中心姜伟主任、英特尔中国研究院首席工程师吴甘沙、中科院高能物理研究所副研究员杨泽明、清华大学马宝君博士等知名专家全面讲授大数据架构、大数据搜索、大数据挖掘以及大数据应用四大板块,分享亲身经历的大数据应用,并为学员提供大数据搜索挖掘工具的实训。 参加相关培训并通过考试的学员,可以获得:...
  9. L

    如何检索英语词组搭配啊?

    回复: 如何检索英语词组搭配啊? 由北京理工大学大数据搜索挖掘实验室、中国科学院计算技术研究所教育中心联合主办,计算机世界与大数据论坛联合承办,开设大数据技术进修班。聘请北京理工大学赵燕平教授、张华平博士、国家工商总局行政学院副院长李德伟、北京市外办信息中心姜伟主任、英特尔中国研究院首席工程师吴甘沙、中科院高能物理研究所副研究员杨泽明、清华大学马宝君博士等知名专家全面讲授大数据架构、大数据搜索、大数据挖掘以及大数据应用四大板块,分享亲身经历的大数据应用,并为学员提供大数据搜索挖掘工具的实训。 参加相关培训并通过考试的学员,可以获得:...
  10. L

    网友真有才。应用语料库语言学的杰出实践:"汪峰歌词表"网路走红:117首歌曲常用字排行出炉

    大数据技术进修班开班在即 由北京理工大学大数据搜索挖掘实验室、中国科学院计算技术研究所教育中心联合主办,计算机世界与大数据论坛联合承办,开设大数据技术进修班。聘请北京理工大学赵燕平教授、张华平博士、国家工商总局行政学院副院长李德伟、北京市外办信息中心姜伟主任、英特尔中国研究院首席工程师吴甘沙、中科院高能物理研究所副研究员杨泽明、清华大学马宝君博士等知名专家全面讲授大数据架构、大数据搜索、大数据挖掘以及大数据应用四大板块,分享亲身经历的大数据应用,并为学员提供大数据搜索挖掘工具的实训。 参加相关培训并通过考试的学员,可以获得:...
  11. L

    汉语智能分词

    汉语词法分析中间件能对汉语语言进行拆分处理,是中文信息处理必备的核心部件。灵玖综合了各家所长,采用条件随机场(Conditional Random Field,简称CRF)模型,分词准确率接近99%,具备准确率高、速度快、可适应性强等优势;特色功能包括:切分粒度可调整,融合20余部行业专有词典,支持用户自定义词典等。   词性标注能对汉语语言进行词性的自动标注,它能够真正理解中文,自动根据语言环境将词语诸如“建设”标注为“名词”或“动词”。软件采用条件随机场(Conditional Random...
  12. L

    NLPIR微博内容语料库-23万条

    NLPIR微博内容语料库说明 NLPIR微博内容语料库由北京理工大学网络搜索挖掘与安全实验室张华平博士,通过公开采集与抽取从新浪微博、腾讯微博中获得。为了推进微博计算的研究,现通过自然语言处理与信息检索共享平台(www.nlpir.org)予以公开共享其中的23万条数据(目前已有数据接近1000万,已经剔除了大量的冗余数据)。 本语料库在公开过程中,已经最大限度地采用技术手段屏蔽了用户真实姓名和url,如果涉及到的用户需要全面保护个人隐私的,可以Email给张华平博士kevinzhang@bit.edu.cn予以删除,对给您造成的困扰表示抱歉,并希望谅解;...
  13. L

    NLPIR微博博主语料库100万条

    NLPIR微博博主语料库说明 1.NLPIR微博博主语料库由北京理工大学网络搜索挖掘与安全实验室张华平博士,通过公开采集与抽取从新浪微博、腾讯微博中获得。为了推进微博计算的研究,现通过自然语言处理与信息检索共享平台(www.nlpir.org)予以公开共享其中的100万条数据(目前已有数据接近1亿,已经剔除了大量的冗余与机器粉丝) 本语料库在公开过程中,已经最大限度地采用技术手段屏蔽了用户真实姓名和url,如果涉及到的用户需要全面保护个人隐私的,可以Email给张华平博士kevinzhang@bit.edu.cn予以删除,对给您造成的困扰表示抱歉,并希望谅解;...
  14. L

    NLPIR_Twitter_Corpus 500W语料库简体中文

    共享地址:http://www.datatang.com/datares/detail.aspx?id=44028 微博网盘下载地址:http://vdisk.weibo.com/s/yW3j3/1366876557 需要密码,关注微博发私信索取就可以了 NLPIR twitter内容语料库说明 1.NLPIR...
  15. L

    自然语言理解解决方案

    一、 自然语言理解技术的背景...
Back
顶部