Command Palette
Search for a command to run...
百科
我们编汇了数百条相关词条,帮助您理解「人工智能」
硬间隔是支持向量机中用于选择分割超平面的依据,其是指完全分类准确,不存在损失函数的情况,即损失值为 0,只需找出两个异类正中间的平面,与硬间隔相对的是软间隔。 软间隔指允许一定量的样本分类错误,其中优化函数包括两个部分, […]
平滑是常用的一种数据处理方式。
切分变量是在做空间切分是选择的参考变量。是分类问题中,用来切分以达到最优化分类的一类变量。
支持向量机(SVM)是在分类与回归分析中处理数据的监督式学习方法。
软间隔最大化是以软间隔的方式寻得最优解的优化方法。
迁移学习是运用已有的知识来学习新知识的一个方法。
人工智能亦称机器智能,是指由人制造出来的机器所表现出来的智能,通常人工智能是指通过普通计算机程序来呈现人类智能的技术。 研究课题 当前人工智能的研究方向已经被分成几个子领域,研究人员希望人工智能系统应该具有某些特定能力, […]
过采样是指对训练集里的某类样例增加采样次数以减小类别不平衡。
平均梯度是指灰度变化率的平均值,它被用于表示图像清晰度,这是由于图像的边界或影线两侧附近灰度有明显差异导致的。 它反映了图像微小细节反差变化的速率,即图像多维方向上密度变化的速率,表征图像的相对清晰程度。 平均梯度即图像 […]
潜在语义分析主要是讨论字词背后的关系,而非字典上定义的基础,这种关系基于字词的实际使用环境,并以此作为基本参考。 这种思想源于心理语言学家,他们认为世界上数以百计的语言存在一个共同的机制,由此得出结论,任何人在特定的语言 […]
全局最小是指所有点中最小的那个,相对概念是局部极小,若误差函数只有一个局部极小,那么此时的局部极小就是全局最小,若误差函数存在多个局部极小,则无法保证找的解是全局最小。 找到全局最小的方法 寻找多个局部最小,取其中的最小 […]
激活函数是在神经网络的神经元上运行的函数,负责将神经元的输入映射到输出端。
全局优化是应用数学和数值分析的一个分支,其试图在给定集合上找到函数的最小值或最大值,它通常被描述为最小化问题,因为实值函数的最大化可依据最小化方式类推得到。 全局优化与局部优化的区别在于,前者专注于在给定集合上找到极值, […]
前馈神经网络是相对简单的人工神经网络,其内部参数从输入层向输出层单向传播,不同于递归神经网络,它的内部不会构成有向环。 前馈 Feedforward 也称为前向,从信号流的角度来看就是输入信号进入网络后,信号流动是单向的 […]
抽样 是一种常用的推论统计方法,它是指从目标总体(Population ,或称为母体)中抽取一部分个体作为样本(Sample),通过观察样本的某一或某些属性,依据所获得的数据对总体的数量特征得出具有一定可靠性的估计判断,从而达到对总体的认识。
情绪分析是自然语言处理的一种常用方法,其基于文本的词汇分析,判断包含的具体情绪等标记。 情绪分析与情感分析具有相似之处,但是情绪分析包含更多种类的情绪信息,加拿大国家研究委员会官方发布的情绪词典包含以下 8 种情绪: 愤 […]
频率学派认为世界是确定的,存在一个真值不变的本体,频率学派的目标是找到真值或其所在范围。频率学派观点在于,随机事件背后必有某种深层的产生机制,虽然事件本身是随机的,但这个机制却是确定的。 不同于频率学派的是贝叶斯学派,前 […]
训练误差是在在数据训练中出现的误差。是模型关于训练数据的平均损失。
最大期望是在概率模型中寻找参数最大似然估计、最大后验估计的算法,其中概率模型基于无法观测因变量。 最大期望算法通常用于机器学习、计算机视觉的数据聚类领域,其经过两个步骤的交替计算: 计算期望 E:利用对隐藏变量的现有估计 […]
过拟合是机器学习中的一种现象。指把样本中一些并不需要拿来作为分类的属性学习了的情况,此时学习的决策树模型并不是最优的模型,而且会会导致泛化性能下降。
期望损失是对全体样本的预测能力,是全局概念的一种;经验风险是局部概念,仅表示决策函数对训练数据集中样本的预测能力。 经验风险和期望风险 经验风险是局部的,基于训练集所有样本点损失函数最小化,经验风险局部最优,现实可求; […]
朴素贝叶斯分类器 ( NBC ),是依据朴素贝叶斯进行分类的一种条件概率分类器。
朴素贝叶斯 是指仅依据每个类别出现的概率进行预测分类,是基于概率理论的一种分类算法。该算法依据于贝叶斯公式。
配对 t 检验是常用的一种 t 检验。它是指对同一个总体,在不同的条件下获取两组样本进行分析,以评价不同条件是否有显著影响。不同条件可以指不同存放环境、不同的测量系统等。
硬间隔是支持向量机中用于选择分割超平面的依据,其是指完全分类准确,不存在损失函数的情况,即损失值为 0,只需找出两个异类正中间的平面,与硬间隔相对的是软间隔。 软间隔指允许一定量的样本分类错误,其中优化函数包括两个部分, […]
平滑是常用的一种数据处理方式。
切分变量是在做空间切分是选择的参考变量。是分类问题中,用来切分以达到最优化分类的一类变量。
支持向量机(SVM)是在分类与回归分析中处理数据的监督式学习方法。
软间隔最大化是以软间隔的方式寻得最优解的优化方法。
迁移学习是运用已有的知识来学习新知识的一个方法。
人工智能亦称机器智能,是指由人制造出来的机器所表现出来的智能,通常人工智能是指通过普通计算机程序来呈现人类智能的技术。 研究课题 当前人工智能的研究方向已经被分成几个子领域,研究人员希望人工智能系统应该具有某些特定能力, […]
过采样是指对训练集里的某类样例增加采样次数以减小类别不平衡。
平均梯度是指灰度变化率的平均值,它被用于表示图像清晰度,这是由于图像的边界或影线两侧附近灰度有明显差异导致的。 它反映了图像微小细节反差变化的速率,即图像多维方向上密度变化的速率,表征图像的相对清晰程度。 平均梯度即图像 […]
潜在语义分析主要是讨论字词背后的关系,而非字典上定义的基础,这种关系基于字词的实际使用环境,并以此作为基本参考。 这种思想源于心理语言学家,他们认为世界上数以百计的语言存在一个共同的机制,由此得出结论,任何人在特定的语言 […]
全局最小是指所有点中最小的那个,相对概念是局部极小,若误差函数只有一个局部极小,那么此时的局部极小就是全局最小,若误差函数存在多个局部极小,则无法保证找的解是全局最小。 找到全局最小的方法 寻找多个局部最小,取其中的最小 […]
激活函数是在神经网络的神经元上运行的函数,负责将神经元的输入映射到输出端。
全局优化是应用数学和数值分析的一个分支,其试图在给定集合上找到函数的最小值或最大值,它通常被描述为最小化问题,因为实值函数的最大化可依据最小化方式类推得到。 全局优化与局部优化的区别在于,前者专注于在给定集合上找到极值, […]
前馈神经网络是相对简单的人工神经网络,其内部参数从输入层向输出层单向传播,不同于递归神经网络,它的内部不会构成有向环。 前馈 Feedforward 也称为前向,从信号流的角度来看就是输入信号进入网络后,信号流动是单向的 […]
抽样 是一种常用的推论统计方法,它是指从目标总体(Population ,或称为母体)中抽取一部分个体作为样本(Sample),通过观察样本的某一或某些属性,依据所获得的数据对总体的数量特征得出具有一定可靠性的估计判断,从而达到对总体的认识。
情绪分析是自然语言处理的一种常用方法,其基于文本的词汇分析,判断包含的具体情绪等标记。 情绪分析与情感分析具有相似之处,但是情绪分析包含更多种类的情绪信息,加拿大国家研究委员会官方发布的情绪词典包含以下 8 种情绪: 愤 […]
频率学派认为世界是确定的,存在一个真值不变的本体,频率学派的目标是找到真值或其所在范围。频率学派观点在于,随机事件背后必有某种深层的产生机制,虽然事件本身是随机的,但这个机制却是确定的。 不同于频率学派的是贝叶斯学派,前 […]
训练误差是在在数据训练中出现的误差。是模型关于训练数据的平均损失。
最大期望是在概率模型中寻找参数最大似然估计、最大后验估计的算法,其中概率模型基于无法观测因变量。 最大期望算法通常用于机器学习、计算机视觉的数据聚类领域,其经过两个步骤的交替计算: 计算期望 E:利用对隐藏变量的现有估计 […]
过拟合是机器学习中的一种现象。指把样本中一些并不需要拿来作为分类的属性学习了的情况,此时学习的决策树模型并不是最优的模型,而且会会导致泛化性能下降。
期望损失是对全体样本的预测能力,是全局概念的一种;经验风险是局部概念,仅表示决策函数对训练数据集中样本的预测能力。 经验风险和期望风险 经验风险是局部的,基于训练集所有样本点损失函数最小化,经验风险局部最优,现实可求; […]
朴素贝叶斯分类器 ( NBC ),是依据朴素贝叶斯进行分类的一种条件概率分类器。
朴素贝叶斯 是指仅依据每个类别出现的概率进行预测分类,是基于概率理论的一种分类算法。该算法依据于贝叶斯公式。
配对 t 检验是常用的一种 t 检验。它是指对同一个总体,在不同的条件下获取两组样本进行分析,以评价不同条件是否有显著影响。不同条件可以指不同存放环境、不同的测量系统等。