Command Palette
Search for a command to run...
百科
我们编汇了数百条相关词条,帮助您理解「人工智能」
国际神经信息处理系统会议(NIPS),是每年 12 月份,由 NIPS 基金会主办的机器学习和神经计算领域的顶级会议。
归一化是将数据映射到指定的范围,用于去除不同维度数据的量纲以及量纲单位,以提高不同数据指标之间的可比性。
近端梯度法(PGD)是一种特殊的梯度下降方法,主要用于求解目标函数不可微的最优化问题。
后剪枝是指在决策树生成后进行的剪枝操作。
概率图模型是指用图结构来表达变量相关关系的概率模型。
回归是一种对数值型连续随机变量进行预测和建模的监督学习算法。
规则学习是从训练数据中学习出一组由原子命题组成的 IF-THEN 的规则, 属于非监督学习的一种, 常用被归属为分类的一种.
根结点是在树数据结构中第一个结点。通常的结点可能具有父结点和子结点,但由于根音符是第一个结点,因此它只有子结点。
粒子群优化算法(PSO),又称微粒群算法,是基于群体智能理论的优化算法, 群体中的粒子在每次迭代搜索的过程中, 以完成对问题的寻优过程。
规则引擎由推理引擎发展而来,是一种嵌入在应用程序中的组件,实现了将业务决策从应用程序代码中分离出来,并使用预定义的语义模块编写业务决策。
核范数是矩阵奇异值的和,用来约束矩阵的低秩。
关联分析是在交易数据、关系数据或其他信息载体中,查找存在于项目或对象集合之间的频繁模式、关联、相关性或因果结构。 关联分析方法 Apriori 算法 Apriori 算法是挖掘产生布尔关联规则所需频繁项集的基本算法,它使 […]
个体学习器是一个相对概念,它是集成学习中集成之前的学习器。 根据个体学习器的生成方式,集成学习的方法可分为以下两类: 存在强依赖关系,必须串行生成的序列化方法,代表是 Boosting; 不存在强依赖关系,可同时生成的并 […]
归纳法是一种推理过程,由一系列具体的事实概括出一般原理,其中数学的归纳方法是指从多个事物概括出一般性概念、原则或结论的思维方法。 归纳可分为完全归纳法和不完全归纳法: 完全归纳法:包含该类对象的全体,从而对该类对象作出一 […]
归纳学习是机器学习的一种方法,其通常被用于符号学习,主要通过给定关于某个概念的一系列已知正例和反例,并从中归纳出一个概念描述。 归纳学习可以获得新的概念,创立新的规则,发现新的理论,其一般操作是泛化和特化,其中泛化指扩展 […]
累积误差逆传播算法(ABP 算法),是标准的**逆传播(BP)算法**的变体,如果推导出基于累积误差最小化的更新规则,就得到了累积误差逆传播算法。
合页损失函数的形状像一个合页,这也是其名称的由来,这种损失函数主要存在于支持向量机,其不仅要求分类正确,而且确信度足够高时损失才是 0,即合页损失函数对学习有更高的要求。 合页损失函数的公式为 L ( y ( w * x […]
混合计算是一种整合计算,其包含传统的硬计算和新兴的软计算,该计算方式可以获取各自所长以克服局限性。 硬计算的主要特征: 易于建立问题的规范数学模型; 建立的数学模型易于求解,且能达到较高的精确度; 具有较好的稳定性。 软 […]
高斯核函数是一种常用的核函数,它可以将有限维数据映射到高维空间,高斯核函数定义如下: $latex {k{ \left( {x,x\text{‘}} \right) }\text{ }=\text{ }e\m […]
高斯混合模型 GMM 基于高斯概率密度函数,它能够平滑的近似任意形状的密度分布,由于 GMM 具有多种模型,其划分精细的特点使得它可被用于复杂对象建模。 假设有一批观察数据 $latex {X\text{ }=\text […]
广义线性模型是一种应用灵活的线性回归模型,其允许因变量的偏差分布有除了正态分布之外的分布形式。 定义 广义线性模型是简单最小二乘回归的扩展,假设每个资料的观测值 来自某个指数族分布,那么该分布的平 […]
归纳偏置可以看做是机器学习中的假设集合,它被用于机器学习中目标函数的必要假设,其中最典型的例子是奥卡姆剃刀。 归纳偏置基于数学逻辑,但在实际应用中,学习器的归纳偏置可能只是一个很粗糙的描述,甚至更为简单,相比之下,理论值 […]
核方法是一类模式识别的算法,其目的是找出并学习一组数据中的相互的关系。 核方法成立基于以下假设:「在低维空间中不能线性分割的点集,通过转化为高维空间中的点集后,可能变为线性可分」。 核方法的基本认知:原始数据中的模式可以 […]
广义瑞利熵可以看做是瑞利熵的扩展,它是指函数 R(A,B,x): $latex {R{ \left( {A,B,x} \right) }\text{ }=\text{ }\frac{{x\mathop{{}}\nolim […]
国际神经信息处理系统会议(NIPS),是每年 12 月份,由 NIPS 基金会主办的机器学习和神经计算领域的顶级会议。
归一化是将数据映射到指定的范围,用于去除不同维度数据的量纲以及量纲单位,以提高不同数据指标之间的可比性。
近端梯度法(PGD)是一种特殊的梯度下降方法,主要用于求解目标函数不可微的最优化问题。
后剪枝是指在决策树生成后进行的剪枝操作。
概率图模型是指用图结构来表达变量相关关系的概率模型。
回归是一种对数值型连续随机变量进行预测和建模的监督学习算法。
规则学习是从训练数据中学习出一组由原子命题组成的 IF-THEN 的规则, 属于非监督学习的一种, 常用被归属为分类的一种.
根结点是在树数据结构中第一个结点。通常的结点可能具有父结点和子结点,但由于根音符是第一个结点,因此它只有子结点。
粒子群优化算法(PSO),又称微粒群算法,是基于群体智能理论的优化算法, 群体中的粒子在每次迭代搜索的过程中, 以完成对问题的寻优过程。
规则引擎由推理引擎发展而来,是一种嵌入在应用程序中的组件,实现了将业务决策从应用程序代码中分离出来,并使用预定义的语义模块编写业务决策。
核范数是矩阵奇异值的和,用来约束矩阵的低秩。
关联分析是在交易数据、关系数据或其他信息载体中,查找存在于项目或对象集合之间的频繁模式、关联、相关性或因果结构。 关联分析方法 Apriori 算法 Apriori 算法是挖掘产生布尔关联规则所需频繁项集的基本算法,它使 […]
个体学习器是一个相对概念,它是集成学习中集成之前的学习器。 根据个体学习器的生成方式,集成学习的方法可分为以下两类: 存在强依赖关系,必须串行生成的序列化方法,代表是 Boosting; 不存在强依赖关系,可同时生成的并 […]
归纳法是一种推理过程,由一系列具体的事实概括出一般原理,其中数学的归纳方法是指从多个事物概括出一般性概念、原则或结论的思维方法。 归纳可分为完全归纳法和不完全归纳法: 完全归纳法:包含该类对象的全体,从而对该类对象作出一 […]
归纳学习是机器学习的一种方法,其通常被用于符号学习,主要通过给定关于某个概念的一系列已知正例和反例,并从中归纳出一个概念描述。 归纳学习可以获得新的概念,创立新的规则,发现新的理论,其一般操作是泛化和特化,其中泛化指扩展 […]
累积误差逆传播算法(ABP 算法),是标准的**逆传播(BP)算法**的变体,如果推导出基于累积误差最小化的更新规则,就得到了累积误差逆传播算法。
合页损失函数的形状像一个合页,这也是其名称的由来,这种损失函数主要存在于支持向量机,其不仅要求分类正确,而且确信度足够高时损失才是 0,即合页损失函数对学习有更高的要求。 合页损失函数的公式为 L ( y ( w * x […]
混合计算是一种整合计算,其包含传统的硬计算和新兴的软计算,该计算方式可以获取各自所长以克服局限性。 硬计算的主要特征: 易于建立问题的规范数学模型; 建立的数学模型易于求解,且能达到较高的精确度; 具有较好的稳定性。 软 […]
高斯核函数是一种常用的核函数,它可以将有限维数据映射到高维空间,高斯核函数定义如下: $latex {k{ \left( {x,x\text{‘}} \right) }\text{ }=\text{ }e\m […]
高斯混合模型 GMM 基于高斯概率密度函数,它能够平滑的近似任意形状的密度分布,由于 GMM 具有多种模型,其划分精细的特点使得它可被用于复杂对象建模。 假设有一批观察数据 $latex {X\text{ }=\text […]
广义线性模型是一种应用灵活的线性回归模型,其允许因变量的偏差分布有除了正态分布之外的分布形式。 定义 广义线性模型是简单最小二乘回归的扩展,假设每个资料的观测值 来自某个指数族分布,那么该分布的平 […]
归纳偏置可以看做是机器学习中的假设集合,它被用于机器学习中目标函数的必要假设,其中最典型的例子是奥卡姆剃刀。 归纳偏置基于数学逻辑,但在实际应用中,学习器的归纳偏置可能只是一个很粗糙的描述,甚至更为简单,相比之下,理论值 […]
核方法是一类模式识别的算法,其目的是找出并学习一组数据中的相互的关系。 核方法成立基于以下假设:「在低维空间中不能线性分割的点集,通过转化为高维空间中的点集后,可能变为线性可分」。 核方法的基本认知:原始数据中的模式可以 […]
广义瑞利熵可以看做是瑞利熵的扩展,它是指函数 R(A,B,x): $latex {R{ \left( {A,B,x} \right) }\text{ }=\text{ }\frac{{x\mathop{{}}\nolim […]