Command Palette
Search for a command to run...
百科
我们编汇了数百条相关词条,帮助您理解「人工智能」
Frequency Principle,简称 F-Principle(频率原则)是深度学习领域中的一个重要概念,它描述了深层神经网络 (DNN) 在训练过程中倾向于从低频到高频拟合目标函数的特性。这个原则由上海交通大学的 […]
参数凝聚描述了在神经网络训练过程中,模型参数倾向于向特定值或方向聚集的现象。
圈复杂度是一种软件度量指标,用于衡量程序的复杂性。
Dropout 的核心思想是在训练过程中随机地丢弃(即暂时移除)网络中的一些神经元,以及它们的连接,从而防止模型过拟合。
Graph Attention Networks(简称 GATs)是一种为图结构数据设计的神经网络,由 Petar Veličković 和他的同事在 2017 年提出,相关论文成果为「Graph Attention N […]
消息传递图神经网络(Message Passing Neural Networks,简称 MPNN)是一种处理图结构数据的神经网络框架,由 Gilmer 等人在 2017 年提出,相关论文成果为「Neural Messa […]
图卷积网络(Graph Convolutional Networks,简称 GCN),Kipf 和 Welling 在 2017 年的 ICLR 会议上发表了题为「Semi-Supervised Classificati […]
门控循环单元(Gated Recurrent Unit,简称 GRU)是一种循环神经网络 (RNN) 的变体,由 Cho 等人于 2014 年提出,相关论文成果为「Empirical Evaluation of Gate […]
AlexNet 是一种深度卷积神经网络 (CNN),由 Alex Krizhevsky 、 Ilya Sutskever 和 Geoffrey Hinton 于 2012 年提出,并在当年的 ImageNet 图像分类竞 […]
CART Decision Tree 是一种决策树算法,能够用于分类和回归任务。
梯度提升 (Gradient Boosting) 是一种集成学习算法,它通过结合多个弱预测模型(通常是决策树)来构建一个强预测模型。
LeNet-5 是深度学习和卷积神经网络领域的开创性工作,它奠定了现代深度学习中许多关键概念的基础,如卷积层、池化层和全连接层。
资格问题主要关注的是如何在变化的环境中,确定一个动作或事件成功执行所需的所有条件或因素。
ReAct 提出了一种通用范式,将推理和行动的进步结合起来,使语言模型能够解决各种语言推理和决策任务。
Pre-training Once 一种的三分支自监督训练框架,通过引入弹性学生分支,在每次预训练步骤中随机采样子网络进行训练。
FlexAttention 是一种灵活的注意力机制,旨在提高高分辨率视觉语言模型的效率。
FlashAttention 是一种高效、内存友好型的注意力算法。
因果注意力(Causal Attention,简称 CATT)是一种创新性的注意力机制,它通过结合因果推断来提高模型的可解释性和性能,特别是在视觉-语言任务中。这种机制由南洋理工大学和澳大利亚莫纳什大学的研究人员在 20 […]
思维树概括了流行的思维链方法,以提示语言模型,并能够探索作为解决问题中间步骤的连贯文本单元 (思想) 。
MoMa 架构是一种新型的模态感知混合专家 (MoE) 架构,专为预训练混合模态、早期融合语言模型而设计。
多步误差最小化(全称 Multi-step Error Minimization,简称 MEM)中科院信工所、南洋理工大学、新加坡国立大学和中山大学于 2024 年在论文「Multimodal Unlearnable E […]
几何朗兰兹猜想 (Geometric Langlands Conjecture) 是朗兰兹纲领的几何化版本。
朗兰兹纲领是现代数学中一个极具影响力的研究领域,它涉及数论、代数几何和群表示论等多个数学分支,并试图揭示它们之间的深刻联系。
专用集成电路 (ASIC) 是一种根据特定用户要求和特定电子系统的需要而设计、制造的集成电路。
Frequency Principle,简称 F-Principle(频率原则)是深度学习领域中的一个重要概念,它描述了深层神经网络 (DNN) 在训练过程中倾向于从低频到高频拟合目标函数的特性。这个原则由上海交通大学的 […]
参数凝聚描述了在神经网络训练过程中,模型参数倾向于向特定值或方向聚集的现象。
圈复杂度是一种软件度量指标,用于衡量程序的复杂性。
Dropout 的核心思想是在训练过程中随机地丢弃(即暂时移除)网络中的一些神经元,以及它们的连接,从而防止模型过拟合。
Graph Attention Networks(简称 GATs)是一种为图结构数据设计的神经网络,由 Petar Veličković 和他的同事在 2017 年提出,相关论文成果为「Graph Attention N […]
消息传递图神经网络(Message Passing Neural Networks,简称 MPNN)是一种处理图结构数据的神经网络框架,由 Gilmer 等人在 2017 年提出,相关论文成果为「Neural Messa […]
图卷积网络(Graph Convolutional Networks,简称 GCN),Kipf 和 Welling 在 2017 年的 ICLR 会议上发表了题为「Semi-Supervised Classificati […]
门控循环单元(Gated Recurrent Unit,简称 GRU)是一种循环神经网络 (RNN) 的变体,由 Cho 等人于 2014 年提出,相关论文成果为「Empirical Evaluation of Gate […]
AlexNet 是一种深度卷积神经网络 (CNN),由 Alex Krizhevsky 、 Ilya Sutskever 和 Geoffrey Hinton 于 2012 年提出,并在当年的 ImageNet 图像分类竞 […]
CART Decision Tree 是一种决策树算法,能够用于分类和回归任务。
梯度提升 (Gradient Boosting) 是一种集成学习算法,它通过结合多个弱预测模型(通常是决策树)来构建一个强预测模型。
LeNet-5 是深度学习和卷积神经网络领域的开创性工作,它奠定了现代深度学习中许多关键概念的基础,如卷积层、池化层和全连接层。
资格问题主要关注的是如何在变化的环境中,确定一个动作或事件成功执行所需的所有条件或因素。
ReAct 提出了一种通用范式,将推理和行动的进步结合起来,使语言模型能够解决各种语言推理和决策任务。
Pre-training Once 一种的三分支自监督训练框架,通过引入弹性学生分支,在每次预训练步骤中随机采样子网络进行训练。
FlexAttention 是一种灵活的注意力机制,旨在提高高分辨率视觉语言模型的效率。
FlashAttention 是一种高效、内存友好型的注意力算法。
因果注意力(Causal Attention,简称 CATT)是一种创新性的注意力机制,它通过结合因果推断来提高模型的可解释性和性能,特别是在视觉-语言任务中。这种机制由南洋理工大学和澳大利亚莫纳什大学的研究人员在 20 […]
思维树概括了流行的思维链方法,以提示语言模型,并能够探索作为解决问题中间步骤的连贯文本单元 (思想) 。
MoMa 架构是一种新型的模态感知混合专家 (MoE) 架构,专为预训练混合模态、早期融合语言模型而设计。
多步误差最小化(全称 Multi-step Error Minimization,简称 MEM)中科院信工所、南洋理工大学、新加坡国立大学和中山大学于 2024 年在论文「Multimodal Unlearnable E […]
几何朗兰兹猜想 (Geometric Langlands Conjecture) 是朗兰兹纲领的几何化版本。
朗兰兹纲领是现代数学中一个极具影响力的研究领域,它涉及数论、代数几何和群表示论等多个数学分支,并试图揭示它们之间的深刻联系。
专用集成电路 (ASIC) 是一种根据特定用户要求和特定电子系统的需要而设计、制造的集成电路。