Command Palette
Search for a command to run...
百科
我们编汇了数百条相关词条,帮助您理解「人工智能」
对抗样本是指,在神经网络中导致网络输出不正确的输入。 在数据集中通过故意添加细微的干扰所形成输入样本,受干扰之后的输入导致模型以高置信度给出错误的输出,所输入的样本即是对抗样本,这种行为通常被视作对神经网络模型的对抗攻击 […]
仿射层是神经网络中的全连接层,其中仿射的可以看做是不同层神经元之间的相互连接,在许多方面可以被看作是神经网络的「标准」层。 仿射层的一般形式如下 y = f( wx + b) 注:x 是层输入,w 是参数,b 是一个偏差 […]
度量学习也可以认为是相似度。度量学习是为了衡量样本之间的相近程度,这是模式识别的核心问题之一。 度量学习的目标是为了,使同类样本之间的距离尽可能缩小,不同类样本之间的距离尽可能扩大。
多分类有时也称多元分类,是指在分类任务中不止两种类别的归类。 现有的多类分类技术可以分为(i)转换为二进制(ii)从二进制扩展和(iii)分层分类。 常见策略 1)one-vs.-all 策略需要为每一个类建立一个唯一的 […]
多层感知机 (Multilayer Perceptron,MLP) 是一种前向结构的人工神经网络,映射一组输入向量到一组输出向量。 可以被看作是一个有向图,由多个的节点层所组成,每一层都全连接到下一层。除了输入节点,每个 […]
模态是指人接受信息的特定方式。由于多媒体数据往往是多种信息的传递媒介(例如一段视频中往往会同时使得文字信息、视觉信息和听觉信息得到传播),多模态学习已逐渐发展为多媒体内容分析与理解的主要手段. 多模态学习主要包括以下几个 […]
泛化误差上界是指泛化误差允许的最大值,超过这个上界就会影响机器学习的可行性。 泛化误差是指由训练集泛化至训练集外的过程中产生的误差。一般用训练集外的误差,也即整个输入空间上的误差期望减去训练误差得到。 因为误差上界具有广 […]
多维缩放(MDS)是一组对象之间的距离的可视化表示,也可以当做一种无监督降维算法使用。它是一种降维方法,可以缓解在高维情况下出现的样本数据稀疏和距离计算困难等。 是一种线性降维方式,与主成分分析法和线性降维分析法都不同的 […]
多元线性回归是针对多个变量做的线性回归。 多元线性回归方法和一元回归类似,只不过自变量多了,参数也多了。 多元回归常用函数 变量间线性相关系数 cor(dataframe) 散点图矩阵 scatterplotMatrix […]
奥卡姆剃刀是指若有多个假设与观察一致,则选最简单的那个。奥卡姆剃刀常被作为启发法技巧来使用,是帮助人们发展理论模型的工具,不能作为判断理论的依据。
包外估计是指用于测试的样本没在训练集中出现的测试结果。
参数估计是指用样本指标估计总体指标。具体是用样本均数估计总体均数或用样本率估计总体率。
词性标注(POS tagging ) 是将对句子中的词语进行分类标注的过程。是依据字词在句法结构或语言形态上承担的成分,通过词性分类赋予每个词的词性标记的过程。
半朴素贝叶斯分类器是考虑一部分属性间的相互依赖关系下的分类方式,是朴素贝叶斯分类器特征相互独立难以满足时的一种放松策略。
半监督学习是介于监督学习和无监督学习之间的学习技术。它同时利用有标记样本与无标记样本进行学习。
鞍点是指不是局部极值点的驻点。
版本空间 是概念学习中与已知数据集一致的所有假设的子集,通常用于对内容进行收敛。
词义消歧(WSD)即在词语层次上的语义消歧。
残差网络(ResNet)是在简单网络的基础上,插入了快捷连接,将网络转化为其对应的残差版本。残差网络并不直接拟合目标,而是拟合残差。
表示定理是统计学习中的一个定理,表明在再生核 Hilbert 空间上定义的正则化风险函数的最小值,可以表示为在训练集数据中的输入点上的线性组合。
半监督支持向量机(S3VM ) 是支持向量机在半监督学习上的推广。
词嵌入是自然语言处理(NLP)中语言模型与表征学习技术的统称。
词义消歧(WSD)即在词语层次上的语义消歧。它是一个自然语言处理和本体论的开放问题。 歧义与消歧是自然语言理解中最核心的问题,在词义、句义、篇章含义层次都会出现语言根据上下文语义不同的现象,消歧即指根据上下文确定对象语义的过程。
标记化也称词汇分析,是将字符(例如在计算机程序或网页中)转换成标记(具有指定且因此标识的含义的字符串)的过程。
对抗样本是指,在神经网络中导致网络输出不正确的输入。 在数据集中通过故意添加细微的干扰所形成输入样本,受干扰之后的输入导致模型以高置信度给出错误的输出,所输入的样本即是对抗样本,这种行为通常被视作对神经网络模型的对抗攻击 […]
仿射层是神经网络中的全连接层,其中仿射的可以看做是不同层神经元之间的相互连接,在许多方面可以被看作是神经网络的「标准」层。 仿射层的一般形式如下 y = f( wx + b) 注:x 是层输入,w 是参数,b 是一个偏差 […]
度量学习也可以认为是相似度。度量学习是为了衡量样本之间的相近程度,这是模式识别的核心问题之一。 度量学习的目标是为了,使同类样本之间的距离尽可能缩小,不同类样本之间的距离尽可能扩大。
多分类有时也称多元分类,是指在分类任务中不止两种类别的归类。 现有的多类分类技术可以分为(i)转换为二进制(ii)从二进制扩展和(iii)分层分类。 常见策略 1)one-vs.-all 策略需要为每一个类建立一个唯一的 […]
多层感知机 (Multilayer Perceptron,MLP) 是一种前向结构的人工神经网络,映射一组输入向量到一组输出向量。 可以被看作是一个有向图,由多个的节点层所组成,每一层都全连接到下一层。除了输入节点,每个 […]
模态是指人接受信息的特定方式。由于多媒体数据往往是多种信息的传递媒介(例如一段视频中往往会同时使得文字信息、视觉信息和听觉信息得到传播),多模态学习已逐渐发展为多媒体内容分析与理解的主要手段. 多模态学习主要包括以下几个 […]
泛化误差上界是指泛化误差允许的最大值,超过这个上界就会影响机器学习的可行性。 泛化误差是指由训练集泛化至训练集外的过程中产生的误差。一般用训练集外的误差,也即整个输入空间上的误差期望减去训练误差得到。 因为误差上界具有广 […]
多维缩放(MDS)是一组对象之间的距离的可视化表示,也可以当做一种无监督降维算法使用。它是一种降维方法,可以缓解在高维情况下出现的样本数据稀疏和距离计算困难等。 是一种线性降维方式,与主成分分析法和线性降维分析法都不同的 […]
多元线性回归是针对多个变量做的线性回归。 多元线性回归方法和一元回归类似,只不过自变量多了,参数也多了。 多元回归常用函数 变量间线性相关系数 cor(dataframe) 散点图矩阵 scatterplotMatrix […]
奥卡姆剃刀是指若有多个假设与观察一致,则选最简单的那个。奥卡姆剃刀常被作为启发法技巧来使用,是帮助人们发展理论模型的工具,不能作为判断理论的依据。
包外估计是指用于测试的样本没在训练集中出现的测试结果。
参数估计是指用样本指标估计总体指标。具体是用样本均数估计总体均数或用样本率估计总体率。
词性标注(POS tagging ) 是将对句子中的词语进行分类标注的过程。是依据字词在句法结构或语言形态上承担的成分,通过词性分类赋予每个词的词性标记的过程。
半朴素贝叶斯分类器是考虑一部分属性间的相互依赖关系下的分类方式,是朴素贝叶斯分类器特征相互独立难以满足时的一种放松策略。
半监督学习是介于监督学习和无监督学习之间的学习技术。它同时利用有标记样本与无标记样本进行学习。
鞍点是指不是局部极值点的驻点。
版本空间 是概念学习中与已知数据集一致的所有假设的子集,通常用于对内容进行收敛。
词义消歧(WSD)即在词语层次上的语义消歧。
残差网络(ResNet)是在简单网络的基础上,插入了快捷连接,将网络转化为其对应的残差版本。残差网络并不直接拟合目标,而是拟合残差。
表示定理是统计学习中的一个定理,表明在再生核 Hilbert 空间上定义的正则化风险函数的最小值,可以表示为在训练集数据中的输入点上的线性组合。
半监督支持向量机(S3VM ) 是支持向量机在半监督学习上的推广。
词嵌入是自然语言处理(NLP)中语言模型与表征学习技术的统称。
词义消歧(WSD)即在词语层次上的语义消歧。它是一个自然语言处理和本体论的开放问题。 歧义与消歧是自然语言理解中最核心的问题,在词义、句义、篇章含义层次都会出现语言根据上下文语义不同的现象,消歧即指根据上下文确定对象语义的过程。
标记化也称词汇分析,是将字符(例如在计算机程序或网页中)转换成标记(具有指定且因此标识的含义的字符串)的过程。