订阅成功
扫码关注智东西Plus
接受订阅信息更新提醒
斯坦福发布全新NLP处理工具包

1月31日消息,Stanford NLP团队发布了包含 53 种语言预训练模型的自然语言处理工具包 StanfordNLP,该工具包支持 Python 3.6 及之后版本,并基于 PyTorch,支持多种语言的完整文本分析管道,包括分词、词性标注、词形归并和依存关系解析,此外它还提供了与 CoreNLP 的 Python 接口。StanfordNLP不仅提供 CoreNLP 的功能,还包含一系列工具,可将文本字符串转换为句子和单词列表,生成单词的基本形式、词性和形态特征,以及适用于70余种语言中的句法结构。

订阅
订阅NLP最新消息
订阅斯坦福最新消息
相关快讯
  • 11月04日 22:16
    BOSS直聘研究入选EMNLP 2019大会论文

    11月4消息,EMNLP 2019(自然语音算法大会)将于11月3日-7日在中国香港举办,BOSS直聘基于领域自适配的人岗匹配研究入选该大会论文集。BOSS直聘方面介绍称,此篇论文是首个中国互联网招聘平台基于自然语言算法处理于提升人岗匹配效率的学术研究。

    来源:36氪
  • 10月25日 20:02
    斯坦福新研究:通用可编程光子架构

    10月25日消息,来自斯坦福大学的研究团队近日发表了一篇名为《通用可编程光子架构,用于量子信息处理》的新研究,研究人员提出了一种用于量子可编程门阵列(QPGA)的光子集成电路结构,该结构能够准备任意量子态和算子。该架构由一个相位调制的Mach-Zehnder干涉仪的格子组成,该格子在路径编码的光子量子位上执行旋转;嵌入式量子发射器使用两个光子散射过程在相邻量子位之间实现确定性的受控zz操作。通过在晶格内适当设置相移,可以对器件进行编程以实现任何量子电路,而无需进行硬件修改。研究团队提供了用于在设备上精确准备任意量子状态和算符的算法,并证明了基于梯度的优化可以训练模拟的QPGA,以具有逼近度的保真度自动实现对重要量子电路的高度紧凑的近似。

    来源:机器之心
  • 08月19日 16:57
    斯坦福测试将芯片植入人脑帮助减肥

    8月19日消息,近日,六位病态肥胖患者参与了斯坦福一项特殊的减肥实验——将芯片植入大脑,当他们想吃东西的时候,这个芯片就会适量放电,打消进食的欲望。

    这种芯片被称为反应性神经刺激系统(RNS),是由医疗技术公司NeuroPace开发的。其目的是帮助治疗癫痫患者。一旦植入大脑,它就会追踪大脑活动,不断监控大脑的运作方式。为了符合这项研究的要求,受试者的体重指数超过45,并且没有通过胃旁路手术或认知行为疗法来减肥。据悉,该芯片已在小鼠身上成功测试。

    来源:新智元
  • 07月31日 11:11
    斯坦福大学研发出全新自动驾驶摄像头

    7月31日消息,据外媒报道,近日斯坦福大学研究人员展示了一款全新的摄像头系统,该系统基于团队自主研发的拐角摄像头打造,可捕获各类物体表面反射的光线,拥有更宽、更远的视野以及更快的成像速度,可监控视线外的动作。研究人员期望在未来的某一天,这类超人视觉系统(superhuman vision systems)可帮助自动驾驶汽车及机器人提升其运行安全度,而非依赖于人类的指令引导。

    来源:新智驾
  • 07月18日 19:29
    Huggingface开源NLP预训练变压器模型

    7月8日消息,Huggingface近日发布了一个新版本的NLP预训练变压器模型开源库:PyTorch-Transformers 1.0。该开源库包含了一下体系结构: 谷歌的BERT,OpenAI的GPT和GPT-2,谷歌以及CMU的Transformer-XL和XLNet,以及Facebook的XLM。这些架构共有27个预训练模型权重。

    来源:机器之心
  • 07月03日 20:13
    斯坦福推可以跟踪眼睛的自动聚焦眼镜

    7月3日消息,近日,斯坦福大学的研究人员在一篇论文中介绍了一种眼镜,这种眼镜可以跟踪眼睛,并自动聚焦在眼睛看到的任何东西上。该论文发表在《科学进展》杂志上,论文详细介绍了自动聚焦的工作原理。论文中证明了自动聚焦眼镜比普通的渐进镜片( 一个多焦距的镜片)或单光镜(只能用来看远或看近的镜片)更加有效。研究人员表示,自动聚焦眼镜可能还要过一段时间才能面向消费者,因为当前其大小和重量不方便佩戴。

    来源:智东西
  • 06月24日 18:40
    谷歌推最新NLP模型XLNet 优于BERT

    6月24日消息,近日,谷歌大脑和卡内基梅隆大学的一组研究人员推出了最新的NLP模型XLNet,它在20个NLP((Natural Language Processing)的任务中胜过了谷歌的BERT(Bidirectional Encoder Representations from Transform),在18个任务中取得了当前最佳效果。BERT是谷歌的语言表示模型,用于无监督预训练自然语言处理。目前,XLNet已经开放了训练代码和大型预训练模型。

    来源:智东西
  • 06月18日 19:17
    斯坦福宣布李飞飞成首位红杉资本教授

    6月18日消息,斯坦福大学日前宣布,计算机科学系教授李飞飞成为首位“红杉资本教授”,她将同时担任斯坦福大学“以人为本人工智能研究院(HAI)”的联席院长。据介绍,斯坦福大学“红杉资本教授”是由红杉资本设立的讲席教授席位。

    来源:品玩
  • 05月24日 11:27
    斯坦福提出全新深度网络架构CPNet

    5月24日消息,近日,来自斯坦福和Adobe的研究人员在CVPR 2019论文《Learning Video Representations from Correspondence Proposals》中提出了全新的通用的深度网络架构CPNet,用于学习视频中图片之间的长程对应关系,来解决现有方法在处理视频长程运动中的局限性。CPNet通过寻找对应的表征来学习视频中图片之间稀疏且不规则的对应模式,并且可以融合进现有的卷积神经网络架构中。研究人员在三个视频分类数据集上进行了实验,结果表明,CPNet在性能上取得了较大的突破。

    来源:智东西
  • 05月23日 18:57
    百度10篇NLP论文被ACL 2019录用

    5月23日消息,近日,自然语言处理(NLP)领域的国际顶级学术会议“国际计算语言学协会年会”(ACL 2019)公布了今年大会论文录用结果。据悉,今年大会的有效投稿数量达到2694篇,相比去年的1544篇增长75%。其中,百度共有10篇论文被大会收录。

    据悉,这10篇论文覆盖信息抽取、机器阅读理解、对话系统、视频语义理解、机器翻译等诸多NLP领域的热点,提出了包括基于注意力正则化的ARNOR框架(Attention Regularization based NOise Reduction)、语言表示与知识表示深度融合的KT-NET模型、多粒度跨模态注意力机制、基于端到端深度强化学习的共指解析方法等。

    来源:智东西
加载更多 ···