赛尔实验室

其他

赛尔原创@COLING 2022 | MetaPrompting:基于元学习的soft prompt初始化方法

MetaPrompting在不同内容、形式的源领域数据上进行元学习的性能本文还对MetaPrompting对于不同prompt模板的鲁棒性进行了测试。如表4所示,相比于随机初始化的soft
2022年12月13日
其他

赛尔原创@IJCAI 2021 | 会议摘要有难度?快来引入对话篇章结构信息

Graph)构建包括以下几个步骤:使用对话篇章结构解析器获得对话篇章结构关系;Levi图转换,将边关系转换为节点,并添加正向与反向边;添加全局节点、全局边和自连接边;添加反向边(Reverse
2021年5月18日
其他

赛尔笔记 | 多模态摘要简述

(VFOA)。作者认为,当一个参与者在发表言论的时候,如果其他人都关注该说话人,那么表示该说话人当前陈述的句子比较重要。因此,对于会议中的一句话,会对应四位参与者的视频,每个视频是由一组frame
2020年9月3日
其他

赛尔笔记 | 事实感知的生成式文本摘要

如何提升摘要的事实准确性?目前,提升摘要的事实准确性的方法可分为:对事实进行“抽取+编码”,从而更好地建模事实的语义表示。我们将这一类方法简称为基于事实表示的摘要模型;结合文本蕴含(Textual
2020年4月17日
其他

赛尔笔记 | 多模态信息抽取简述

文本表示方法对于文本表示,核心是对语言基本单元(如英文中是单词)进行表示,然后用神经网络学习语言模型提取文本特征,最后用神经网络的某个输出向量作为文本表示。其中单词表示最开始使用独热表示
2020年4月3日
其他

提醒!COLING 2020截稿日期延至7月1日

哈尔滨工业大学社会计算与信息检索研究中心
2020年3月31日
其他

哈工大《大词林》开放75万核心实体词及相关概念、关系列表

1.《大词林》介绍《大词林》(http://101.200.120.155/)由哈尔滨工业大学社会计算与信息检索研究中心秦兵教授和刘铭副教授主持研制,是一个自动构建的大规模开放域中文知识库。自2014年11月推出《大词林》第一版,第一版的《大词林》包含了自动挖掘的实体和细粒度的上位概念词,类似一个大规模的汉语词典,其特点在于自动构建、自动扩充,细粒度的上下位层次关系。2019年8月推出的第二版《大词林》引入了实体的义项和关系、属性数据,将每一个实体的义项唯一对应到细粒度的上位词概念路径,让《大词林》中实体的含义更加清晰。相比于传统的开放域实体知识库,《大词林》的特点在于:构建过程不需要领域专家的参与,而是基于多信息源自动获取实体类别并对可能的多个类别进行层次化,从而达到知识库自动构建的效果。其数据规模可以随着互联网中实体词的更新而扩大,很好地解决了以往的人工构建知识库对开放域实体的覆盖程度极为有限的问题。《大词林》是一个树状的网络,每一个实体的义项均能够唯一对应到细粒度的上位词概念路径且具有丰富的实体和关系数据,能够更加清晰明确的展示实体的含义。2.
2020年3月30日
其他

赛尔笔记 | 机器阅读理解简述

Laboratories[24]使用Bert对当前问题和前几个问题分别编码,连接得到的编码向量,根据这个向量预测答案。4.
2020年3月6日
其他

赛尔笔记 | 一文了解Text-to-SQL

18;这可能导致原本正确的输出被判断为错误的。于是作者提出利用强化学习基于查询结果来进行优化。在解码器部分,对可能的输出进行采样,产生若干个SQL语句,每一句表示为y=[y1,
2019年12月27日
其他

赛尔笔记 | 多模态情感分析简述

效本期编辑:顾宇轩“哈工大SCIR”公众号主编:车万翔副主编:张伟男,丁效执行编辑:李家琦责任编辑:张伟男,丁效,崔一鸣,李忠阳编辑:赖勇魁,李照鹏,冯梓娴,王若珂,顾宇轩,胡晓毓长按下图并点击
2019年12月13日
其他

赛尔笔记 | 深度学习领域的数据增强

反射变换(Rotation/Reflection):选择一个角度,左右旋转图像,可以改变图像内容朝向。关于旋转角度需要慎重考虑,角度太大或者太小都不合适,适宜的角度是1度
2019年11月29日
其他

赛尔原创 | 文本摘要简述

模型不采用序列标注方法计算标签级别的损失来训练模型,而是将序列标注作为中间的步骤。在得到序列标注的概率分布之后,从中采样候选摘要集合,与标准摘要对比计算损失,可以更好地利用标准摘要中的信息。图2
2019年3月25日
其他

赛尔笔记 | 多人对话语篇解析简介

Relations,又译篇章关系、句间关系等)。语篇解析技术已成功应用于问答、文本分类、情感分类和语言建模等任务。目前大多数语篇解析技术主要关注于宾州篇章树库(Penn
2019年3月2日
自由知乎 自由微博
其他

赛尔译文 | Transformer注解及PyTorch实现(下)

,其参数为、和。根据以下公式,我们在训练过程中改变了学习率:。在预热中随步数线性地增加学习速率,并且此后与步数的反平方根成比例地减小它。我们设置预热步数为4000。
2018年11月6日
其他

赛尔译文 | Transformer注解及PyTorch实现(上)

需要注意的是,此注解文档和代码仅作为研究人员和开发者的入门版教程。这里提供的代码主要依赖OpenNMT[5]实现,想了解更多关于此模型的其他实现版本可以查看Tensor2Tensor[6]
2018年11月5日
其他

赛尔原创 | IJCAI 2018基于图结构的实体和关系联合抽取模型简介

弹出e顶部的所有元素,创建一个“块”,用标签y标记这个块,将这个块的表示压入β中,生成的实体被添加到E。当β的顶部元素是实体时,所有实体动作都将被禁止。另外,如表
2018年6月12日
其他

哈工大SCIR

learning)的研究内容之一。其遵循了迁移学习问题的基本设定,即源领域和和目标域为不同的领域,且仅源领域有着丰富的监督信息。具体的,其有如下特征[3]:
2018年5月14日
其他

赛尔原创 | IJCAI 2018基于叙事事理图谱和可扩展图神经⽹络的脚本事件预测模型

[6]模型。但是它不能直接用于本文的大规模叙事事理图谱图结构上。本文通过在训练中每次只在一个小规模相关子图上进行计算,来将GGNN扩展到大规模有向有环加权图上,改进后的模型叫做Scaled
2018年5月7日
其他

招生啦!我中心现面向全国高校推免生招收2019级研究生(含直博生)

在如今人工智能改变世界的时代,互联网企业崛起的时期,自然语言处理方向人才供不应求,BAT等顶尖企业更是不惜重金吸引此类人才,研究中心的毕业生是各大企业竞相接收的对象。
2018年4月19日
其他

AAAI 2018学术见闻——NLP篇

图14中上图是原句的句法树结构,上面用蓝色标出了每个词在树结构上与当前词“分子”的距离。下图用不同颜色表示了每个词与当前词“分子”在句法树上的距离,具体见下方柱形图(例如:绿色表示句法距离为2)。
2018年3月26日
其他

AAAI 2018论文预讲会顺利召开(附PPT下载)

2018论文预讲会在黑龙江哈尔滨成功举办。本次活动由中国中文信息学会青年工作委员会主办,哈尔滨工业大学社会计算与信息检索研究中心承办,华为与云孚科技提供赞助,雷锋网负责直播。
2018年1月8日
其他

赛尔原创 | 知识图谱的发展概述

被定义为是一种不同于传统的机器学习方式[29],通过不断地阅读获取知识,并不断提升学习知识的能力以及利用所学知识进行推理等逻辑思维。NELL就是一种这样的智能体,其任务是学习如何阅读网页以获取知识。
2017年10月16日
其他

《神经网络与深度学习》连载

“识别图中二维码”,即可关注哈尔滨工业大学社会计算与信息检索研究中心微信公共号:”哈工大SCIR”
2017年6月7日
其他

赛尔译文 | Dropout分析

Dropout的视觉表示,如上图所示。图(a)是应用Dropout之前的神经网络,图(b)是应用Dropout之后同样的神经网络。参数经过学习后,左边的网络是在训练和测试时使用同样的网络结构。
2017年1月30日
其他

赛尔原创 | 两种阅读理解模型框架的概要介绍

[2KarlMoritzHermann,TomasKocisky,EdwardGrefenstette,LasseEspeholt,WillKay,Mustafa
2016年12月19日
被用户删除
其他

赛尔原创 | 基于事件的金融市场预测研究

等语义词典词覆盖有限,很多词难以在语义词典中找到相应记录。其二,对于词语的泛化具体到哪一级不明确,对于不同应用可能会有不同要求,很难统一。此外,即使对事件进行了泛化还是无法解决One-hot
2016年12月12日
其他

赛尔原创 | 语言技术平台(LTP)发布新功能:中文语义依存图分析

与语义依存树不同,在依存图中,每个词的父节点个数是不确定的。这种不确定性使得用基于图的方法解决该问题变得很困难,因此我们选择了基于转移的方法,通过修改现有转移系统中的转移动作来直接生成语义依存图。
2016年11月21日
其他

【完结】《神经网络和深度学习》系列文章五十:是否有关于智能的⼀个简单的算法?

亿比特表示了人类和大猩猩之间所有基因差异。我们仅仅对那些有关大脑的部分感兴趣。不幸的是,没有人知道哪一部分的基因差异是用来解释大脑部分的。但是我们先假设一下,有一半的比特对大脑负责。也就是总共是
2016年10月20日
其他

《神经网络和深度学习》系列文章四十九:神经网络的未来

SVM。现在,神经网络卷土重来,刷新了几乎所有的记录,在很多问题上也都取得了胜利。但是谁又能说,明天不会有一种新的方法能够击败神经网络?或者可能神经网络研究的进程又会阻滞,等不来没有任何的进展?
2016年10月13日
其他

《神经网络和深度学习》系列文章四十八:其他的深度学习模型

的一个挑战是前期的模型会很难训练,甚至比前馈神经网络更难。原因就是我们在上一章提到的不稳定梯度的问题。回想一下,这个问题的通常表现就是在反向传播的时候梯度越变越小。这就使得前期的层学习非常缓慢。在
2016年10月6日
其他

《神经网络和深度学习》系列文章四十七:图像识别领域中的近期进展

这样的一个怀疑论者是对的,最近论文的一些出色的细节,其被认为的重要性会逐渐减弱。但过去几年已经看到了使用深度网络攻克极度困难的图像识别任务的非凡的进步。想象一下一个科学历史学家在
2016年9月29日
其他

《神经网络和深度学习》系列文章四十六:卷积网络的代码

的教程,所以不会深度讨论这些变量指代什么东西。但是粗略的想法就是这些代表了数学变量,而非显式的值。我们可以对这些变量做通常需要的操作:加减乘除,作用函数等等。实际上,Theano
2016年9月22日
其他

《神经网络和深度学习》系列文章四十五:卷积神经网络在实际中的应用

幅单独的图像输入给卷积–混合层,而不是第一个卷积–混合层情况下的单幅图像。第二个卷积–混合层里的神经元应该如何响应这些多重的输入图像呢?实际上,我们将允许这一层中的每个神经元从它的局部感受野中的所有
2016年9月8日
其他

《神经网络和深度学习》系列文章四十四:介绍卷积网络

图像的像素强度进行编码。接着的是一个卷积层,使用一个局部感受野和个特征映射。其结果是一个隐藏特征神经元层。下一步是一个最大值混合层,应用于区域,遍及个特征映射。结果是一个隐藏特征神经元层。
2016年9月1日
其他

《神经网络和深度学习》系列文章四十三:深度学习

这一章比较长。为了更好地让你们学习,我们先粗看一下整体安排。本章的小结之间关联并不太紧密,所以如果读者熟悉基本的神经网络的知识,那么可以任意跳到自己最感兴趣的部分。
2016年8月25日
其他

《神经网络和深度学习》系列文章四十二:其他深度学习的障碍

(http://jmlr.org/proceedings/papers/v9/glorot10a/glorot10a.pdf
2016年8月18日
其他

《神经网络和深度学习》系列文章四十一:在更加复杂网络中的不稳定梯度

sigmoid网络中前面的层的梯度指数级地消失。所以在这些层上的学习速度就会变得很慢了。这种减速不是偶然现象:也是我们采用的训练的方法决定的。
2016年8月18日
其他

《神经网络和深度学习》系列文章四十:什么导致了消失的梯度问题?深度神经网络中的梯度不稳定性

现在看看梯度激增如何出现的把。这里的例子可能不是那么自然:固定网络中的参数,来确保产生激增的梯度。但是即使是不自然,也是包含了确定会产生爆炸梯度(而非假设的可能)的特质的。
2016年8月11日
其他

《神经网络和深度学习》系列文章三十九:梯度消失问题

git,那么就直接从https://github.com/mnielsen/neural-networks-and-deep-learning/archive/master.zip
2016年8月4日
其他

《神经网络和深度学习》系列文章三十八:深度神经网络为何很难训练?

那我们如何训练这样的深度神经网络呢?在本章中,我们尝试使用我们犹如苦力般的学习算法——基于反向传播随机梯度下降——来训练深度网络。但是这会产生问题,因为我们的深度神经网络并不能比浅层网络性能好太多。
2016年7月28日
其他

《神经网络和深度学习》系列文章三十七:结论

门或者其它类似的普遍性证明。因为这个原因,我主要专注于让解释更清晰和易于理解,而不是过于挖掘细节。然而,你可以发现如果你能改进这个解释是个很有趣和有教益的练习。
2016年7月21日
其他

《神经网络和深度学习》系列文章三十六:修补阶跃函数

的整体近似。这个整体的近似仍然在一些小窗口的地方有故障。但是问题比以前要小很多。原因是在一个近似中的故障窗口的点,不会在另一个的故障窗口中。所以在这些窗口中,近似会有倍的因素更好。
2016年7月21日
其他

《神经网络和深度学习》系列文章三十五:S型神经元的延伸

型函数的时候,这导致激活函数收缩,并最终变成一个阶跃函数的很好的近似。试着改变偏置,然后你能看到我们可以设置我们想要的阶跃位置。所以我们能使用所有和前面相同的技巧来计算任何期望的函数。
2016年7月14日
其他

《神经网络和深度学习》系列文章三十四:多个输入变量

正如我们前面讨论的那样,随着输入权重变大,输出接近一个阶跃函数。不同的是,现在的阶跃函数是在三个维度。也如以前一样,我们可以通过改变偏置的位置来移动阶跃点的位置。阶跃点的实际位置是
2016年7月7日
其他

《神经网络和深度学习》系列文章三十三:一个输入和一个输出的普遍性

在我们上面的网络中,我们已经分析了隐藏神经元输出的加权组合。我们现在知道如何在这个量上获得大量的控制。但是,正如我前面所指
2016年6月30日
其他

《神经网络和深度学习》系列文章三十二:神经网络可以计算任何函数的可视化证明

第一点,这句话不是说一个网络可以被用来准确地计算任何函数。而是说,我们可以获得尽可能好的一个近似。通过增加隐藏元的数量,我们可以提升近似的精度。例如,前面我举例说明一个使用了三个隐藏元的网络来计算
2016年6月23日
其他

《神经网络和深度学习》系列文章三十一:其他技术

变化率。直觉上看,我们通过重复地增加梯度项来构造速度。这表示,如果梯度在某些学习的过程中几乎在同样的方向,我们可以得到在那个方向上比较大的移动量。想想看,如果我们直接按坡度下降,会发生什么:
2016年6月16日
其他

《神经网络和深度学习》系列文章三十:如何选择神经网络的超参数

跟随上面的经验并不能帮助你的网络给出绝对最优的结果。但是很可能给你一个好的开始和一个改进的基础。特别地,我已经非常独立地讨论了超参数的选择。实践中,超参数之间存在着很多关系。你可能使用
2016年6月2日
其他

《神经网络和深度学习》系列文章二十九:再看手写识别问题:代码

其实这种情况在神经网络中实现一些新技术的常见现象。我们花费了近千字的篇幅来讨论规范化。概念的理解非常微妙困难。但是添加到程序中的时候却如此简单。精妙复杂的技术可以通过微小的代码改动就可以实现了。
2016年5月26日
其他

《神经网络和深度学习》系列文章二十八:权重初始化

创建了神经网络后,我们需要进行权重和偏置的初始化。到现在,我们一直是根据在第一章中介绍的那样进行初始化。提醒你一下,之前的方式就是根据独立高斯随机变量来选择权重和偏置,其被归一化为均值为
2016年5月19日