Command Palette
Search for a command to run...
百科
我们编汇了数百条相关词条,帮助您理解「人工智能」
为最小化整体风险,在样本上可使风险 R(c|x) 最小的类别标记,即 其中 h∗ 便是贝叶斯最优分类器。
在模型选择中, 通常从一组候选模型中选择一个「最优」模型,然后使用这个选定的「最优」模型进行预测。 不同于单一最优模型, 贝叶斯模型平均会给每个模型赋予权重, 并进行加权平均确定最终的预测值。其中,给某个模型赋予的权重是 […]
对每个样本 x,若 h 能最小化条件风险 R(h(x)|x),则总体风险也将被最小化。这就产生了贝叶斯判定准则(Bayes decision rule):为最小化总体风险,只需在每个样本上选择哪个能使条件风险 R(c|x […]
BN 是一套正则化方法,可以加速大型卷积网络的训练速度,同时提升收敛后的分类准确率。 BN 在用于神经网络某层时,会对每一个 mini-batch 数据的内部进行标准化处理,使输出规范化到 N(0,1) 的正态分布,减少 […]
在集成学习中,按组产生的「个体学习器」存在同质现象,其中这类学习器被称为基学习器,对应的学习算法被称为基学习算法。
长短期记忆(英语:Long Short-Term Memory,LSTM)是一种时间递归神经网络(RNN),论文首次发表于 1997 年。由于独特的设计结构,LSTM 适合于处理和预测时间序列中间隔和延迟非常长的重要事件 […]
信息熵适用于度量信息量规模的一个量,由香农于 1948 年提出,其借用了热力学中熵的概念,将信息中排除了冗余后的平均信息量称为信息熵,并给出了相关的数学表达式。 信息熵的三条性质 单调性:事件发生的概率越高,其携带的信息 […]
知识表征是指知识的表示和描述,其关心代理人 Agent 如何合理利用相关知识,这是一门将思考作为计算过程的研究。 严格来说,知识表征和知识推理是同一研究领域密切相关的两个概念,但实际上知识表征也被用于指代包含推理的广义概 […]
指数损失函数是 AdaBoost 算法中常用的损失函数,其函数表达式为指数形式,示意图如下。 常见损失误差 指数损失 Exponential Loss:主要用于 Adaboost 集成学习算法; 铰链损失 H […]
机器学习领域里面,真相指监督学习中,训练集对分类结果的准确设定值,一般被用于误差估算和效果评价。 监督学习中,标注数据通常以 ( x , t ) 的形式出现,其中 x 表示输入数据,t 表示标注,正确的标注便是 Grou […]
误差-分歧分解指将集成后的泛化误差分解开的过程,可以用下式表示: 该式中左边 E 表示集成后的泛化误差,右侧 $latex {\over […]
MCMC 是一种基于马尔科夫链从随机分布取样的算法,其通过在概率空间中随机采样以近似兴趣参数的后验分布。 MCMC 基础理论为马尔科夫过程,在相关算法中,为了在一个指定分布上采样,可根据马尔科夫过程,先从任意状态出发模拟 […]
演化算法是一种通用问题求解方法,其借鉴生物界的自然选择和自然遗传机制发展。 基本方法: 采用简单的编码技术表示各种复杂结构,利用进行简单的遗传操作和优胜劣汰的自然选择指导学习、确定搜索方向; 采用种群的方式组织搜索,使得 […]
遗传算法 GA 是计算数学中用于解决最优化问题的搜索算法,它是进化算法的一种,进化算法最初借鉴了进化生物学中的一些现象,其中包括遗传、突变、自然选择及杂交等。 遗传算法通常以计算机模拟的方式实现,对于一个最优化问题,在有 […]
增益率通常指信息增益率,其表示节点的信息与节点分裂信息度量的比值,增益率通常作为属性选择的方法之一,另外两种常见的方式是信息增益和基尼指数。 增益率公式如下: $latex {GainRatio{ \left( {R} […]
希尔伯特空间即完备的内积空间,可理解为带有内积的完备向量空间。 尔伯特空间基于有限维欧几里得空间,可看做是后者的推广,其不局限于实数和有限的维数,但又不是完备性。与欧几里得空间一样,希尔伯特空间也是内积空间,且有距离和角 […]
隐马尔科夫模型 HMM 是关于时序的概率模型,其描述由隐藏马尔科夫链随机生成的不可观测状态随机序列,再由各个状态生成一个可观测及产生观测随机序列的过程。 隐马尔科夫模型是统计模型,其被用于描述一个含有隐含未知参数的马尔科 […]
隐藏层指多级前馈神经网络中,除输入层和输出层之外的层,隐藏层不直接接受外界信号,也不直接向外界发送信号,仅仅当数据被非线性分离时才需要。 隐藏层上的神经元可采取多种形式,例如最大池化层和卷积层等,均会执行不同的数学功能, […]
硬投票是直接输出类标签的投票方法,主要存在于分类机器学习算法。 投票法是集成学习里面针对分类问题的一种组合策略,其基本思想是选择算法中输出最多的那个类,硬投票是选择算法输出最多的标签,若标签数量相等,则按照升序的次序进行 […]
独立同分布(IID)是指一组随机变量中每个变量的概率分布都相同,且这些随机变量互相独立 一组随机变量独立同分布并不意味着它们的样本空间中每个事件发生概率都相同。例如,投掷非均匀骰子得到的结果序列是独立同分布的,但掷出每个 […]
增量学习指新增数据时,只做关于新增数据的更新,增量学习可以不断从新样本中学习新的知识,同时保存大部分以前学习到的知识。 增量学习类似于人类学习模式,是一个逐渐积累和更新的过程。 传统学习方式为批量学习,其通过准备好所有数 […]
知识库是一种特殊的数据库,其被用于知识管理,以便于相关领域知识的采集、整理和提取,库中的知识源于领域专家,它是求解问题相关领域知识的集合,涵盖基本事实、规则和其他相关信息。 知识库是知识工程中结构化、易操作、易利用、全面 […]
K – 近邻算法 KNN 是一种基本分类和回归算法,其利用离自己最近的 K 个点投票决定分类数据的归类。 KNN 特点 KNN 属于惰性学习 KNN 计算复杂度较高 K 取值不同时,分类结果不同
JS 散度度量了两个概率分布的相似度,基于 KL 散度的变体,解决了 KL 散度非对称的问题。一般地,JS 散度是对称的,其取值是 0 到 1 之间。 定义如下: KL 散度和 JS 散度度量的时候有一个问题: 如果两个 […]
为最小化整体风险,在样本上可使风险 R(c|x) 最小的类别标记,即 其中 h∗ 便是贝叶斯最优分类器。
在模型选择中, 通常从一组候选模型中选择一个「最优」模型,然后使用这个选定的「最优」模型进行预测。 不同于单一最优模型, 贝叶斯模型平均会给每个模型赋予权重, 并进行加权平均确定最终的预测值。其中,给某个模型赋予的权重是 […]
对每个样本 x,若 h 能最小化条件风险 R(h(x)|x),则总体风险也将被最小化。这就产生了贝叶斯判定准则(Bayes decision rule):为最小化总体风险,只需在每个样本上选择哪个能使条件风险 R(c|x […]
BN 是一套正则化方法,可以加速大型卷积网络的训练速度,同时提升收敛后的分类准确率。 BN 在用于神经网络某层时,会对每一个 mini-batch 数据的内部进行标准化处理,使输出规范化到 N(0,1) 的正态分布,减少 […]
在集成学习中,按组产生的「个体学习器」存在同质现象,其中这类学习器被称为基学习器,对应的学习算法被称为基学习算法。
长短期记忆(英语:Long Short-Term Memory,LSTM)是一种时间递归神经网络(RNN),论文首次发表于 1997 年。由于独特的设计结构,LSTM 适合于处理和预测时间序列中间隔和延迟非常长的重要事件 […]
信息熵适用于度量信息量规模的一个量,由香农于 1948 年提出,其借用了热力学中熵的概念,将信息中排除了冗余后的平均信息量称为信息熵,并给出了相关的数学表达式。 信息熵的三条性质 单调性:事件发生的概率越高,其携带的信息 […]
知识表征是指知识的表示和描述,其关心代理人 Agent 如何合理利用相关知识,这是一门将思考作为计算过程的研究。 严格来说,知识表征和知识推理是同一研究领域密切相关的两个概念,但实际上知识表征也被用于指代包含推理的广义概 […]
指数损失函数是 AdaBoost 算法中常用的损失函数,其函数表达式为指数形式,示意图如下。 常见损失误差 指数损失 Exponential Loss:主要用于 Adaboost 集成学习算法; 铰链损失 H […]
机器学习领域里面,真相指监督学习中,训练集对分类结果的准确设定值,一般被用于误差估算和效果评价。 监督学习中,标注数据通常以 ( x , t ) 的形式出现,其中 x 表示输入数据,t 表示标注,正确的标注便是 Grou […]
误差-分歧分解指将集成后的泛化误差分解开的过程,可以用下式表示: 该式中左边 E 表示集成后的泛化误差,右侧 $latex {\over […]
MCMC 是一种基于马尔科夫链从随机分布取样的算法,其通过在概率空间中随机采样以近似兴趣参数的后验分布。 MCMC 基础理论为马尔科夫过程,在相关算法中,为了在一个指定分布上采样,可根据马尔科夫过程,先从任意状态出发模拟 […]
演化算法是一种通用问题求解方法,其借鉴生物界的自然选择和自然遗传机制发展。 基本方法: 采用简单的编码技术表示各种复杂结构,利用进行简单的遗传操作和优胜劣汰的自然选择指导学习、确定搜索方向; 采用种群的方式组织搜索,使得 […]
遗传算法 GA 是计算数学中用于解决最优化问题的搜索算法,它是进化算法的一种,进化算法最初借鉴了进化生物学中的一些现象,其中包括遗传、突变、自然选择及杂交等。 遗传算法通常以计算机模拟的方式实现,对于一个最优化问题,在有 […]
增益率通常指信息增益率,其表示节点的信息与节点分裂信息度量的比值,增益率通常作为属性选择的方法之一,另外两种常见的方式是信息增益和基尼指数。 增益率公式如下: $latex {GainRatio{ \left( {R} […]
希尔伯特空间即完备的内积空间,可理解为带有内积的完备向量空间。 尔伯特空间基于有限维欧几里得空间,可看做是后者的推广,其不局限于实数和有限的维数,但又不是完备性。与欧几里得空间一样,希尔伯特空间也是内积空间,且有距离和角 […]
隐马尔科夫模型 HMM 是关于时序的概率模型,其描述由隐藏马尔科夫链随机生成的不可观测状态随机序列,再由各个状态生成一个可观测及产生观测随机序列的过程。 隐马尔科夫模型是统计模型,其被用于描述一个含有隐含未知参数的马尔科 […]
隐藏层指多级前馈神经网络中,除输入层和输出层之外的层,隐藏层不直接接受外界信号,也不直接向外界发送信号,仅仅当数据被非线性分离时才需要。 隐藏层上的神经元可采取多种形式,例如最大池化层和卷积层等,均会执行不同的数学功能, […]
硬投票是直接输出类标签的投票方法,主要存在于分类机器学习算法。 投票法是集成学习里面针对分类问题的一种组合策略,其基本思想是选择算法中输出最多的那个类,硬投票是选择算法输出最多的标签,若标签数量相等,则按照升序的次序进行 […]
独立同分布(IID)是指一组随机变量中每个变量的概率分布都相同,且这些随机变量互相独立 一组随机变量独立同分布并不意味着它们的样本空间中每个事件发生概率都相同。例如,投掷非均匀骰子得到的结果序列是独立同分布的,但掷出每个 […]
增量学习指新增数据时,只做关于新增数据的更新,增量学习可以不断从新样本中学习新的知识,同时保存大部分以前学习到的知识。 增量学习类似于人类学习模式,是一个逐渐积累和更新的过程。 传统学习方式为批量学习,其通过准备好所有数 […]
知识库是一种特殊的数据库,其被用于知识管理,以便于相关领域知识的采集、整理和提取,库中的知识源于领域专家,它是求解问题相关领域知识的集合,涵盖基本事实、规则和其他相关信息。 知识库是知识工程中结构化、易操作、易利用、全面 […]
K – 近邻算法 KNN 是一种基本分类和回归算法,其利用离自己最近的 K 个点投票决定分类数据的归类。 KNN 特点 KNN 属于惰性学习 KNN 计算复杂度较高 K 取值不同时,分类结果不同
JS 散度度量了两个概率分布的相似度,基于 KL 散度的变体,解决了 KL 散度非对称的问题。一般地,JS 散度是对称的,其取值是 0 到 1 之间。 定义如下: KL 散度和 JS 散度度量的时候有一个问题: 如果两个 […]