ChatGPT教我的 300个Kaggle知识点

来源:Coggle数据科学


ANOVA (Analysis of Variance)
ANOVA是一种用于统计推断的方法,用于比较两个或多个组的均值是否相等。在 Kaggle 和数据挖掘中,ANOVA 经常用于特征选择或模型优化的统计测试。


ARIMA
ARIMA是一种时间序列分析的方法,全称为自回归移动平均模型(Autoregressive Integrated Moving Average Model)。在 Kaggle 和数据挖掘中,ARIMA 常用于预测时间序列数据,例如股票价格或气温等。
AUC: Area Under the Curve
AUC 是一种常用的性能评估指标,用于评估机器学习模型的预测性能。AUC 表示 ROC 曲线下的面积,通常被认为是二元分类器的一种评估标准。
Accuracy
Accuracy是评估分类器性能的指标之一,表示分类器在所有样本中正确分类的比例。在 Kaggle 和数据挖掘中,Accuracy 经常用于评估分类器的性能。
Activation function
激活函数是人工神经网络中的一种函数,用于将输入信号转换为输出信号。常见的激活函数包括 sigmoid、ReLU 和 tanh 等,它们决定了神经元是否被激活以及输出的大小。
Actor-critic
Actor-critic是一种用于强化学习的算法,由两个部分组成:一个 actor 和一个 critic。Actor 负责决定动作,而 Critic 则负责评估当前状态和动作的价值。
AdaBoost
AdaBoost是一种常用的集成学习算法,通过多次迭代训练弱分类器,以达到提高整体分类性能的目的。在 Kaggle 和数据挖掘中,AdaBoost 常用于提高分类器的准确性。
AdaGrad
AdaGrad是一种优化算法,用于机器学习模型的训练。与常规优化算法不同,AdaGrad 可以自适应地调整每个参数的学习率,以便更好地适应数据的不同特征。
Adadelta
Adadelta是一种基于梯度的优化算法,用于训练深度神经网络。它可以自适应地调整学习率,以便更好地适应训练数据。
Adagrad
Adagrad是一种基于梯度的优化算法,用于训练机器学习模型。与常规优化算法不同,Adagrad 可以自适应地调整每个参数的学习率,以便更好地适应数据的不同特征。
Adam
Adam是一种常用的基于梯度的优化算法,用于训练深度神经网络。Adam 可以自适应地调整学习率,并通过动量来加速训练过程,以便更好地适应数据的不同特征。
Adversarial attacks
Adversarial attacks是一种针对机器学习模型的攻击方法,目的是通过操纵输入数据来欺骗模型,使其产生错误的预测结果。
Adversarial examples
Adversarial examples是指针对机器学习模型的输入数据进行修改后得到的样本,目的是使模型产生错误的预测结果。
Adversarial training
Adversarial training是一种针对机器学习模型的防御方法,通过向训练数据中加入经过修改的 Adversarial examples,使得模型能够更好地适应 Adversarial attacks。
AlexNet
AlexNet是一种用于图像分类的深度卷积神经网络,于2012年的ImageNet比赛中获胜,并标志着深度学习在计算机视觉领域的重要突破。在 Kaggle 和数据挖掘中,AlexNet 经常被用作基准模型来比较其他模型的性能。
Altair
Altair是一种 Python 数据可视化库,可以通过简单的语法和可组合的图层来生成高质量的交互式可视化图表。在 Kaggle 和数据挖掘中,Altair 可以用于探索和可视化数据,以便更好地理解数据特征和趋势。
Attention mechanisms
Attention mechanisms 是一组用于神经网络模型中的机制,可以根据输入的不同部分为模型赋予不同的权重,以更好地集中于重要的部分。在自然语言处理和计算机视觉等任务中,Attention mechanisms 可以帮助模型更好地理解输入数据,从而提高模型的性能。
AutoML
AutoML (Automated Machine Learning) 是一种自动化机器学习技术,旨在通过自动化模型选择、超参数调整和特征工程等步骤,以便更好地优化模型的性能。在 Kaggle 和数据挖掘中,AutoML 可以帮助数据科学家快速构建和优化模型,从而加速数据分析和预测任务。
Autoencoder
Autoencoder 是一种无监督学习模型,旨在学习输入数据的低维表示,以便更好地捕获数据的特征。在 Kaggle 和数据挖掘中,Autoencoder 可以用于数据压缩、特征提取和异常检测等任务。
Average pooling
Average pooling 是一种池化操作,用于在神经网络中对输入数据进行下采样。它通过将每个区域的值取平均来减小输入数据的维度。在 Kaggle 和数据挖掘中,Average pooling 可以用于图像分类和目标检测等任务中。
Average precision
Average precision 是一种用于评估分类器性能的指标,计算方法为对每个类别的精度取平均值。在 Kaggle 和数据挖掘中,Average precision 经常用于图像分类和目标检测等任务中。
BERT
BERT (Bidirectional Encoder Representations from Transformers) 是一种自然语言处理模型,使用了 Transformer 架构,具有双向性和预训练技术。在 Kaggle 和数据挖掘中,BERT 经常用于文本分类和情感分析等任务中。
Bag of Words
Bag of Words是一种文本表示方法,将文本转化为一个向量或者矩阵。具体来说,Bag of Words将一个文本看作是一个单词的集合,忽略文本的语法和语序,统计每个单词在文本中出现的次数,最终得到一个向量或矩阵表示这个文本。
Bagging
Bagging是一种集成学习方法,通过对训练数据集进行有放回的采样,得到多个子训练集,然后分别用这些子训练集训练多个模型,最终将这些模型进行组合,得到一个性能更好的模型。Bagging可以用于各种机器学习算法,如决策树、神经网络等。
Batch normalization
Batch normalization是一种神经网络中常用的技术,用于加速神经网络的训练过程,同时提高了模型的泛化能力。Batch normalization的核心思想是对每一层神经网络的输入进行归一化,使得每一层的输入的分布在训练过程中保持一致,避免了梯度消失和梯度爆炸问题。
Bayesian neural network
Bayesian neural network是一种神经网络模型,它引入了贝叶斯统计学的思想,通过对神经网络中的权重和偏置进行概率建模,得到一个后验分布,从而实现对神经网络的不确定性进行建模。Bayesian neural network可以提供更加精细的不确定性信息,同时可以有效地缓解过拟合问题。
Bayesian optimization
Bayesian optimization是一种优化方法,用于解决黑盒函数优化问题。该方法通过对目标函数建立高斯过程模型,利用贝叶斯推断进行优化。Bayesian optimization可以高效地找到函数的全局最小值,适用于各种优化问题,如超参数调整、神经网络结构搜索等。
Bias
Bias是机器学习中的一个重要概念,指的是模型对真实数据的偏差。具体来说,如果一个模型的Bias较高,意味着它无法准确地捕捉到数据中的关键特征,而导致模型预测结果的准确性较差。
Bias mitigation
Bias mitigation是一种减轻或消除模型中偏差的技术,旨在提高模型的公平性和稳定性。常用的方法包括数据重采样、模型修正、公平性约束等。
Bokeh
是一个Python的交互式可视化库,可以创建交互式的网页数据可视化工具。Bokeh适合用于展示大型和实时的数据集,同时提供可交互的控件和工具。
Boosting
是一种集成学习方法,将多个弱分类器组合成一个强分类器。Boosting的主要思想是反复调整被弱分类器错分的样本的权重,使得后续的弱分类器重点关注这些错分的样本,从而提高分类器的准确率。
Bounding box
指的是在计算机视觉中,将目标物体用一个矩形框来表示。通常使用矩形的左上角和右下角坐标表示边界框的位置和大小,来标记目标物体的位置。
Box plot
是一种可视化统计数据的图表,可以展示数据的中位数、四分位数、异常值等信息。箱型图可以快速有效地展示数据的整体分布、异常值和离群点等信息。
Box-Cox transformation
是一种数据变换方法,用于将数据变换成更符合正态分布的形式。Box-Cox变换可以通过将数据进行幂变换来实现,常用于统计建模和数据预处理中。
CART (Classification and Regression Trees)
是一种决策树算法,可以用于分类和回归问题。CART算法通过递归地将数据集分割成较小的子集,构建出一棵二叉树来进行预测。
CNN (Convolutional Neural Network)
是一种深度学习模型,用于图像识别和处理。CNN的主要思想是通过卷积层和池化层等处理方式来提取图像特征,从而实现对图像的分类、识别等任务。
CRISP-DM (Cross-Industry Standard Process for Data Mining)
是一种数据挖掘项目的标准过程模型。CRISP-DM包括六个阶段,从业务理解、数据理解、数据准备、建模、评估到部署等过程,提供了一套可重复、可控制的数据挖掘方法。
CRNN (Convolutional Recurrent Neural Network)
CRNN (Convolutional Recurrent Neural Network) 是一种将卷积神经网络(CNN)和循环神经网络(RNN)结合起来的神经网络模型。CRNN 适用于图像处理和语音识别等任务。
CV: Cross-validation
交叉验证 (Cross-validation, CV) 是一种常用的评估机器学习模型性能的技术,它将数据集分为 k 个相同大小的子集(也称为折),然后在每个子集上运行 k 次实验。在每次实验中,使用其中一个子集作为测试数据,其余子集作为训练数据。这样可以在不需要额外数据的情况下,对模型进行多次训练和测试,并得出一个更准确的性能估计。
Capsule network
Capsule network 是一种新兴的深度学习网络结构,其基本思想是通过对神经元输出的向量进行长度编码来提高模型的鲁棒性和泛化能力。
CatBoost
CatBoost 是一种梯度提升决策树(Gradient Boosting Decision Tree, GBDT)的算法,是 Yandex 开发的一款开源机器学习框架。CatBoost 可以处理分类、回归等问题,具有高精度、高效率和可扩展性等优点。
Categorical cross-entropy loss
Categorical cross-entropy loss 是一种用于多类别分类任务的损失函数。它的计算方式是将真实标签的 one-hot 编码和模型输出的概率分布之间的交叉熵作为损失函数。
Categorical variables
Categorical variables 是指具有有限数量的离散值的变量。在机器学习中,categorical variables 经常出现在分类任务中,需要将其编码成数值特征才能输入模型进行训练。
Character-level language models
Character-level language models 是一种文本生成模型,它以单个字符作为基本单位来生成文本。与 word-level language models 相比,character-level language models 具有更好的泛化能力,因为它们可以处理未知的单词和拼写错误。
Character-level models
Character-level models 是一种用于处理字符级别信息的深度学习模型,比如用于文本生成或者语音识别等任务。与基于单词或标记的模型不同,character-level models 可以更好地处理拼写错误或者未知的单词。

Co-occurrence matrix
共现矩阵,用于描述文本或语料库中不同单词或短语之间的关系,可以用于文本分类、信息检索等任务。

Collaborative filtering
协同过滤,一种推荐系统算法,根据用户行为历史和其他用户的行为历史来预测用户可能喜欢的物品,常用于电商和影视推荐等场景。

Conditional random field (CRF)
条件随机场,一种用于序列标注、分类等任务的图模型,通过学习特征函数来捕捉输入序列的局部和全局信息,可用于自然语言处理等领域。

Confusion matrix
混淆矩阵,用于衡量分类模型预测结果的准确性,将真实标签和模型预测结果组合在一起形成一个矩阵,可以计算出模型的精度、召回率等指标。

Content-based filtering
基于内容的过滤,一种推荐系统算法,根据物品本身的属性和用户的历史行为来预测用户可能喜欢的物品,常用于音乐、新闻等推荐场景。

Contrastive loss
对比损失,一种用于训练相似度模型的损失函数,通过最小化同类样本间的距离和最大化异类样本间的距离来训练模型,可用于人脸识别、图像检索等任务。

Convolution
卷积,是一种数学运算,可以将两个函数合并成一个新的函数。在卷积神经网络中,卷积层使用卷积操作来提取图像或文本等数据中的特征。

Convolutional Neural Network (CNN)
卷积神经网络是一种前馈神经网络,常用于处理具有网格结构的数据,如图像或时间序列。它由多个卷积层和池化层交替组成,以提取输入数据的特征,并通过全连接层将其分类或回归。

Convolutional layer
卷积层是卷积神经网络的一种基本层类型,其中使用多个可训练的卷积核将输入特征图转换为输出特征图。这些卷积核在训练过程中通过反向传播自动学习。卷积层的作用是提取输入图像的不同特征,如边缘、颜色和纹理等。

Convolutional neural networks
卷积神经网络,通常简称CNN,是一种用于处理具有网格结构的数据,如图像或时间序列的神经网络。它的主要特点是具有卷积层和池化层,以提取输入数据的特征,并通过全连接层将其分类或回归。

Correlation
相关性是指两个或多个变量之间的关系程度。在数据分析中,通常使用相关系数来测量两个变量之间的线性关系强度,取值范围为-1到1,其中-1表示完全负相关,1表示完全正相关。

Counterfactual explanations
反事实解释是指在给定一个模型的预测输出时,通过改变模型的输入,找到一组新的输入数据,使模型的预测输出与期望输出之间存在一个良好的对应关系。这种解释通常用于解释模型预测的不确定性或错误。

Cross-entropy
交叉熵是一种衡量两个概率分布之间距离的指标。在机器学习中,它通常用于衡量分类任务中预测概率分布和真实概率分布之间的距离,以便优化模型的参数。

Cross-entropy loss
交叉熵损失是用于训练分类模型的损失函数,用于度量模型的预测分布与实际分布之间的距离。它通常与Softmax激活函数一起使用,并且在反向传播过程中用于计算权重更新。

Cross-validation
交叉验证是一种用于评估模型性能的技术,它通过将数据集划分为若干个互不重叠的子集,然后使用其中的一部分进行训练,另一部分进行验证,以此来验证模型在未见过数据上的泛化能力。


DNN (Deep Neural Network)
Deep Neural Network (DNN)是一种深度学习模型,由多个隐藏层组成的神经网络。每一层都有许多神经元,通过不同的激活函数,将输入数据转化为输出结果。在Kaggle和数据挖掘中,DNN是一个常用的模型类型,适用于图像分类、自然语言处理和语音识别等问题。
Data analysis
数据分析是指通过收集、处理、清洗和分析数据来提取有用信息的过程。在Kaggle和数据挖掘中,数据分析是一个重要的步骤,用于了解数据集的特点、发现异常值和探索数据之间的关系。
Data augmentation
数据增强是指在原始数据集上应用一系列变换,从而生成更多的训练样本。这些变换可以包括旋转、翻转、缩放、剪切等操作,旨在增加数据集的多样性,提高模型的泛化能力。在Kaggle和数据挖掘中,数据增强是一个常用的技术,特别是在图像分类和目标检测任务中。
Data cleaning
数据清洗是指在数据集中删除或修复损坏、不完整或不准确的数据。在Kaggle和数据挖掘中,数据清洗是一个重要的步骤,可以确保数据的质量,减少模型的误差。
Data imbalance
数据不平衡是指在数据集中不同类别的样本数量存在巨大的差异。这种情况可能导致模型偏向于预测数量更多的类别,而忽略数量较少的类别。在Kaggle和数据挖掘中,数据不平衡是一个常见的问题,需要通过样本重采样、类别权重调整等方法进行处理。
Data leak
数据泄漏是指在训练集或测试集中,通过包含不应该使用的特征或信息来提高模型的性能。数据泄漏可能导致模型过于乐观地估计其性能,无法正确地推广到新数据。在Kaggle和数据挖掘中,数据泄漏是一个需要注意的问题,需要确保在训练和测试时使用的数据集没有泄漏。
Data normalization
数据归一化是指将不同尺度和范围的特征值映射到统一的标准范围内。这个标准范围通常是[0,1]或[-1,1]。数据归一化可以提高模型的稳定性,加快模型训练的收敛速度。
Dataset shift
数据集漂移指在模型的训练和测试期间,数据的分布发生变化的现象。由于训练和测试数据不匹配,因此模型可能无法在测试数据上表现良好。
Decision tree
决策树是一种基于树结构的分类和回归模型,它通过将数据集分成多个小的决策子集,从而生成树形结构。决策树是一种易于理解和解释的机器学习算法。
Decision trees
决策树是一种基于树结构的分类和回归模型,它通过将数据集分成多个小的决策子集,从而生成树形结构。决策树是一种易于理解和解释的机器学习算法。
Deconvolutional network
反卷积网络是一种逆转卷积的过程,可以将低维的卷积特征图映射到高维的图像空间中。反卷积网络通常用于图像处理中,例如图像的重建和分割。
Deep Q-Network (DQN)
深度 Q 网络是一种基于深度学习的强化学习算法,用于在不完全可观察的环境中进行决策。DQN 通过使用神经网络来估计 Q 值函数,从而实现更高效的决策过程。
Deep belief network
深度置信网络是一种基于神经网络的无监督学习算法,用于对数据进行特征提取和分类。它通过堆叠多个限制玻尔兹曼机来构建深层神经网络,并通过反向传播算法进行训练。
Deep learning
深度学习是一种基于神经网络的机器学习方法,通过堆叠多个神经网络层来学习数据的高级抽象特征。它广泛应用于计算机视觉、自然语言处理和语音识别等领域。
Deep reinforcement learning
Deep reinforcement learning是一种使用深度学习技术来处理决策和控制问题的方法。在这种方法中,代理学习如何在不同状态下采取行动以最大化奖励信号,并通过在训练期间与环境交互来优化决策策略。
Dense layer
在神经网络中,Dense layer指的是一个层次结构,其中所有的神经元都与前一层的所有神经元相连,每个神经元都接收来自前一层的所有输入,输出一个单一的值。Dense layer是神经网络中最常用的一种层次结构。
Dependency parsing
Dependency parsing是一种从句子中提取出基本的语法结构,如主语、谓语、宾语等的方法。它通常使用无向图来表示这些语法结构,其中节点表示词语,边表示它们之间的依存关系。
Dimensionality reduction
Dimensionality reduction指的是通过降低数据集的特征维度来减少数据复杂性的方法。常见的降维技术包括主成分分析(PCA)、线性判别分析(LDA)等。
Distribution
Distribution是指一组数据的频率分布情况。在数据挖掘中,对数据进行分布分析有助于识别异常值、评估模型性能等。
Document classification
Document classification是指对文档进行分类的过程。它通常使用自然语言处理和机器学习技术,对文档进行自动分类,例如新闻文章分类、电子邮件分类等。
Dropout
Dropout是一种在训练神经网络时用于防止过度拟合的技术。它会在每个训练迭代中以一定概率随机丢弃神经元,这有助于防止神经元之间出现过多的相关性,从而使网络更加鲁棒。
Dual learning
双向学习,是一种机器学习技术,通过将两个相关任务联合训练来提高模型的性能。这种技术通常用于自然语言处理和计算机视觉等领域。
Dynamic programming
动态规划,是一种优化算法,用于解决一些有重叠子问题和最优子结构的问题,比如最短路径、序列对齐等。在机器学习中,动态规划常常用于解决决策问题和计算概率分布等问题。
ETL: Extract, Transform, Load
ETL是数据仓库和数据集成中常用的三个步骤的缩写:提取、转换、加载。这是将数据从多个不同的源提取、转换为适合分析的形式,并将其加载到目标系统的过程。
Early stopping
早期停止,是一种防止过拟合的正则化方法。在训练期间,如果模型在验证集上的性能停止提高,就会停止训练,从而避免过拟合。
ElasticNet
弹性网络,是一种结合L1和L2正则化的线性回归模型。这种方法可以解决线性回归模型中特征数量多于样本数量的问题。
Embedding
嵌入,是将高维空间的离散变量转换为低维连续向量的方法。在自然语言处理和计算机视觉中,嵌入通常用于将文本和图像转换为向量表示。
Embedding layer
嵌入层,是神经网络中的一种层,用于将离散的输入数据嵌入到低维连续向量空间中。在自然语言处理和计算机视觉中,嵌入层通常用于将文本和图像转换为向量表示。
Encoder-decoder architecture
编码器-解码器结构,是一种常见的神经网络结构,用于将输入序列映射到输出序列。这种结构通常用于序列到序列的问题,比如机器翻译和对话生成等任务。
Encoder-decoder models
编码器-解码器模型,是一种常见的神经网络模型,用于将输入序列映射到输出序列。这种模型通常用于序列到序列的问题,比如机器翻译和对话生成等任务。
Ensemble
集成学习,是一种机器学习技术,通过组合多个模型来提高模型的性能。这种技术通常用于降低方差和提高模型的鲁棒性。
Exponential family distributions
指的是一类概率分布族,其中包括了许多经典的概率分布,如正态分布、泊松分布、伽马分布等。这些分布族具有一些共同的特征,例如指数族分布的概率密度函数可以写成一些特定形式的函数和统计量的乘积再取指数函数,这些函数和统计量通常也具有一些特定的性质。
Exponential smoothing
指的是一种基于加权平均的时间序列预测方法,可以对序列中的趋势进行平滑,并且对未来的值进行预测。该方法根据历史数据给每个数据点一个不同的权重,对于更早的数据点,其权重越小,对于更近期的数据点,其权重越大。通过对这些加权的历史数据进行平均,可以得到一个平滑的序列,进而进行预测。
Extreme Gradient Boosting
一种基于决策树的集成学习算法,通过将多个决策树集成起来来提高预测性能。该算法可以自动地学习每个树节点的特征权重以及树的结构,从而得到一个精细的模型。
F1 score / F1-score
衡量分类模型性能的指标之一,综合考虑了模型的精确率和召回率。F1 score是精确率和召回率的调和平均值,可以用来评估二分类或多分类模型的性能,其中1为最佳表现。
FLOPS: Floating Point Operations per Second
指的是每秒钟可以进行的浮点数运算次数,是衡量计算机系统性能的一种常用指标。在深度学习中,FLOPS通常用于评估模型的计算复杂度和速度。
Factorization Machines (FM)
一种用于处理高维稀疏数据的机器学习模型,可以在推荐系统等领域中应用。该模型利用特征交互的二次项进行建模,并通过因子分解来对模型进行优化。
Fairness
在机器学习中,指的是模型对不同人群的预测结果公平性。一个公平的模型应该在不同的群体之间表现一致,避免出现基于种族、性别等特征的不平等对待。在Kaggle等数据科学竞赛中,公平性已经成为越来越重要的评估指标。
FastText
FastText是Facebook AI Research (FAIR) 实验室于2016年开源的文本分类工具。它是基于Word2Vec算法的扩展,可以实现更快的文本分类和标记。它的核心思想是将单词分解成n-gram,这样可以更好地处理未知词语,提高了在少量训练数据上的效果。
Feature engineering
Feature engineering是指从原始数据中提取有用特征的过程。这些特征将用于建立机器学习模型。通常,原始数据包含许多无关或重复的特征,因此需要通过特征选择或特征提取等技术来减少特征维度,并提高模型性能。
Feature extraction
Feature extraction是从原始数据中提取相关特征的过程,通常通过计算统计量、应用变换、分析频域或时域等技术。与Feature engineering不同,Feature extraction通常将原始数据转换为低维表示,以便更容易地使用机器学习算法建模。
Feature importance
Feature importance是指在机器学习中,特征对模型预测结果的影响程度。通常,可以使用一些方法,如随机森林、GBDT等,来计算特征重要性分数,以便在特征选择过程中筛选最重要的特征。
Feature selection
Feature selection是从原始数据中选择有用特征的过程,通常使用统计学和机器学习技术来选择与目标变量最相关的特征。这可以减少特征维度、提高模型性能、降低过拟合风险。
Federated Learning
Federated Learning是一种分布式机器学习方法,其中模型的训练是在本地设备上完成的,并将模型更新发送到中央服务器进行汇总。这种方法旨在保护用户的隐私,因为用户的数据不需要被共享到中央服务器上。它被广泛应用于联邦学习和移动设备上的机器学习。
Feedforward neural network
Feedforward neural network是一种基于多个节点(神经元)的前向传播的神经网络,它通过逐层传递信号来实现输入和输出之间的关系。它是一种经典的机器学习算法,被广泛用于分类、回归和其他预测问题。
Fine-tuning
Fine-tuning是指利用预先训练的模型,在新数据上进行微调,以提高模型的性能。通常,将预先训练的模型的一部分(例如最后一层或几层)替换为新的层,并在新数据集上进行继续训练。
Focal loss
Focal loss是一种针对于解决类别不平衡问题的损失函数,由Lin等人在2017年提出,被广泛应用于目标检测领域。与交叉熵损失函数不同的是,Focal loss通过降低易分类的样本权重的方式来减轻类别不平衡的问题,使得模型更加关注难以分类的样本。
Fourier Transform
傅里叶变换是一种基于周期函数分解的方法,可以将一个信号(包括时域信号和频域信号)分解为一系列的正弦函数(也称为谐波),从而用一组复杂的正弦函数来表示一个复杂的信号。在数据挖掘中,傅里叶变换常用于处理时序数据、图像处理以及频域特征提取。
Friedman test
Friedman检验是一种非参数检验方法,用于检验在多个配对数据集中是否存在差异。在Kaggle等数据科学竞赛中,Friedman检验经常用于对多个模型在同一个数据集上的表现进行比较,以判断哪个模型的效果更好。
Fully connected layer
全连接层(Fully connected layer)是深度学习中常用的一种神经网络结构,通常出现在神经网络的最后几层,用于将前面卷积层和池化层的输出压缩为一维向量,然后通过一系列的全连接层进行分类、回归等任务。
GAN (Generative Adversarial Network)
生成对抗网络(Generative Adversarial Network,GAN)是一种深度学习模型,由Goodfellow等人在2014年提出,通过博弈论中的对抗训练来学习生成模型。GAN由两个神经网络组成:生成器(Generator)和判别器(Discriminator),它们相互博弈、相互竞争,在训练中逐步提高生成器的生成能力和判别器的辨别能力。GAN常用于生成各种类型的图像、音频等数据。
GRU
门控循环单元(Gated Recurrent Unit,GRU)是一种改进的循环神经网络,由Cho等人在2014年提出,主要用于处理序列数据。相比于标准的循环神经网络,GRU引入了重置门和更新门,可以更好地控制信息的流动,从而避免了梯度消失。
Gated recurrent unit (GRU)
Gated Recurrent Unit (GRU) 是一种循环神经网络(RNN),旨在处理时间序列数据。相比于传统的 RNN,GRU 加入了门控机制,以控制信息的流动,从而在一定程度上缓解了梯度消失问题,同时也减少了需要学习的参数数量。
Gaussian Mixture Model (GMM)
高斯混合模型(GMM)是一种用于对连续型数据进行建模的概率分布模型。它假设一个数据集由多个高斯分布组成,每个高斯分布对应于数据集中的一个子群,即混合成分。GMM 是聚类、密度估计和数据压缩等领域的常用算法。
Gaussian distribution
高斯分布也称为正态分布,是统计学中最为常见的概率分布之一。在自然界中,许多随机现象的测量值都具有高斯分布,如身高、体重、温度等。高斯分布的概率密度函数具有一个峰值,呈钟形曲线。
Gaussian mixture model (GMM)
高斯混合模型(GMM)是一种用于对连续型数据进行建模的概率分布模型。它假设一个数据集由多个高斯分布组成,每个高斯分布对应于数据集中的一个子群,即混合成分。GMM 是聚类、密度估计和数据压缩等领域的常用算法。
Gaussian process
高斯过程(Gaussian Process,GP)是一种无限维的高斯分布。在机器学习领域中,它被用作一种非参数模型,可用于回归、分类和聚类等任务。
Generative adversarial networks
生成对抗网络(Generative Adversarial Network,GAN)是一种深度学习模型,由一个生成器和一个判别器组成。它们分别构成了一个二人零和博弈,生成器的目标是生成足以欺骗判别器的样本,判别器的目标是区分生成器生成的样本和真实数据。
Generative models
生成模型是一种机器学习模型,用于生成与训练数据相似的新数据。它们通常被用于无监督学习和生成对抗网络(GAN)中。
Gini coefficient
基尼系数(Gini coefficient)是一个常用的不平等度量指标,通常用于衡量收入、财富、教育和其他因素在不同群体中的分布是否平等。
Gradient boosting
梯度提升(Gradient boosting)是一种集成学习方法,通过顺序地训练一系列的决策树模型,每次训练的目标是拟合前一次训练误差的负梯度。它在Kaggle等数据科学竞赛中广泛使用。
Gradient clipping
梯度裁剪(Gradient clipping)是一种优化方法,用于解决神经网络在训练时可能出现的梯度爆炸问题,即梯度值过大导致模型无法收敛的问题。它通过限制梯度的最大值,使得模型训练更加稳定。
Gradient descent
梯度下降(Gradient descent)是一种优化方法,用于最小化损失函数。在机器学习中,它通常用于更新模型参数,使得模型在训练集上表现更好。梯度下降有多种变体,包括批量梯度下降(Batch gradient descent)、随机梯度下降(Stochastic gradient descent)等。
Graph Convolutional Network (GCN)
图卷积网络(Graph Convolutional Network,GCN)是一种用于处理图数据的神经网络,它通过在图上进行卷积操作来提取特征。GCN通常用于节点分类、图分类、链接预测等任务,近年来在图深度学习领域受到了广泛的关注。
Graph convolutional networks (GCN)
图卷积网络(Graph Convolutional Network,GCN)是一种用于处理图数据的神经网络,它通过在图上进行卷积操作来提取特征。GCN通常用于节点分类、图分类、链接预测等任务,近年来在图深度学习领域受到了广泛的关注。
Graph neural network (GNN)
图神经网络(Graph Neural Network,GNN)是一种用于处理图数据的神经网络,它能够学习图数据中节点和边的特征,并利用这些特征来完成各种任务,例如节点分类、图分类、链接预测等。
Graph neural networks (GNN)
图神经网络(Graph Neural Network,GNN)是一种用于处理图数据的神经网络,它能够学习图数据中节点和边的特征,并利用这些特征来完成各种任务,例如节点分类、图分类、链接预测等。
Graph theory
图论(Graph theory)是研究图的性质和特征的学科,图在计算机科学中常常被用于表示复杂的关系网络,例如社交网络、蛋白质相互作用网络等。
Hessian-free optimization
Hessian-free优化是一种用于训练神经网络的优化方法,它可以加速训练过程并减少计算资源的需求,因为它避免了计算和储存海森矩阵。Hessian-free优化的基本思想是利用共轭梯度算法,结合牛顿法和拟牛顿法的思想,通过在参数空间中进行线性搜索来最小化目标函数。
Heteroscedasticity
异方差性指的是样本的方差不是恒定的。在数据分析中,异方差性通常是一个问题,因为它会导致标准误差估计不准确,从而可能导致错误的统计推断。在机器学习中,异方差性可以通过加权最小二乘法进行处理,其中每个样本的权重与其方差成反比。
Hidden Markov Model (HMM)
隐马尔科夫模型是一种用于序列建模的概率图模型,它可以对序列中的每个元素进行建模,并且考虑到这些元素之间的依赖关系。隐马尔科夫模型包括一个状态序列和一个观测序列,其中状态序列是隐藏的,观测序列是可见的。在机器学习中,隐马尔科夫模型通常用于序列分类、序列标注和语音识别等任务。
Hierarchical Clustering
层次聚类是一种将数据分层次分组的聚类方法,它将数据分成一系列的层次结构,每个层次包含一组类别。在层次聚类中,相似的数据点被归为一组,并且这些组可以进一步组合形成更大的组。这个过程可以视为一个树形结构,其中每个节点代表一个类别,每个叶子节点代表一个数据点。
Inception Net
Inception Net是由Google团队提出的卷积神经网络结构,主要用于图像分类任务。它通过多个分支和不同大小的卷积核来提取图像特征,能够有效地降低模型参数量和计算量,提高模型的准确率和泛化能力。
Independent Component Analysis (ICA)
独立成分分析(ICA)是一种用于从复杂的多元数据中提取潜在因素的统计方法。在数据挖掘领域,ICA通常用于图像处理、信号处理、语音分离、脑信号分析等领域中。
Information retrieval
信息检索是指通过计算机系统从大量的文本、音频、图像和视频等非结构化数据中找出相关信息的过程。在数据挖掘领域,信息检索常被用于文本分类、搜索推荐等任务中。
Instance normalization
实例标准化是一种对神经网络中每个输入样本进行标准化的技术,其通过减去每个样本的均值并除以其标准差来规范化数据。在图像处理领域,实例标准化通常用于提高模型的泛化能力和稳定性。
Instance segmentation
实例分割是一种图像分割技术,它不仅可以将图像中的对象分割出来,而且还能够对每个对象进行实例级别的标注。实例分割常被用于计算机视觉和自然语言处理等领域中。
Instance-based learning
基于实例的学习是一种分类和回归的机器学习方法,它通过存储和比较训练数据中的实例来进行预测。这种方法通常被用于处理复杂的非线性关系或噪声较大的数据集。
Intensity normalization
强度标准化是指对图像的灰度值进行归一化处理,使其具有统一的比例尺度。在图像处理领域,强度标准化通常用于图像增强和预处理中。
Intent classification
意图分类是一种自然语言处理技术,它可以识别出句子或文本中的意图,并将其分类为预定义的类别。在机器学习和自然语言处理中,意图分类通常用于构建聊天机器人。
Interpolation
插值是指在已知数据点之间使用函数来估计缺少数据点的过程。在数据挖掘和机器学习中,插值可以用来填补缺失值,以便于数据的预处理和建模。
Interpretability
可解释性是指机器学习模型能够被人理解和解释的程度。在数据挖掘和机器学习中,可解释性是一个重要的问题,因为解释性的模型更容易被人接受和信任,特别是在高风险领域如医疗和金融中。
Inverse document frequency (IDF)
逆文档频率是一种用于加权文本特征的技术。IDF通过惩罚在所有文档中出现频率较高的单词,提高那些在文档中出现频率较低的单词的权重。在文本挖掘和自然语言处理中,IDF通常与TF(词频)结合使用,形成TF-IDF特征,以评估文档中单词的重要性。
Inverse probability weighting (IPW)
反向概率加权是一种估计因果效应的技术。在数据挖掘和机器学习中,因果效应是指一个变量对另一个变量的影响,反向概率加权可以通过对受影响的变量进行加权来纠正选择性偏倚,从而更准确地估计因果效应。
Isolation Forest
孤立森林是一种基于树的异常检测算法。在数据挖掘中,异常检测是指检测不符合预期模式的数据点的过程。孤立森林通过将数据点随机分配到多个树中,并利用树的深度来评估数据点的异常程度。
Jaccard similarity
杰卡德相似度是一种用于计算集合相似性的指标。在数据挖掘和机器学习中,杰卡德相似度通常用于计算两个集合的相似程度,例如在文本挖掘中计算两个文档之间的相似度。
Jensen-Shannon divergence
Jensen-Shannon散度是一种用于比较两个概率分布之间差异的指标。在数据挖掘和机器学习中,Jensen-Shannon散度通常用于衡量两个分布之间的距离,例如在文本挖掘中衡量两个文档之间的相似度。
K-Means Clustering
K-Means Clustering是一种无监督学习算法,可以将数据点分成K个不同的组。算法通过最小化数据点与它们所属组的质心之间的距离来实现。在Kaggle和数据挖掘中,K-Means Clustering常用于聚类分析和数据探索。
K-Nearest Neighbors (KNN)
K-Nearest Neighbors是一种分类和回归算法,它使用训练数据中的最近邻居来预测新数据点的类别或值。KNN算法基于相似性度量来计算数据点之间的距离,并根据距离对最近的K个数据点进行投票来预测新数据点的类别或值。在Kaggle和数据挖掘中,KNN算法通常用于分类和回归问题。
K-fold cross-validation
K-fold交叉验证是一种评估模型性能的方法,它将数据集分成K个不同的子集。然后,算法使用其中的K-1个子集来训练模型,使用剩余的1个子集来测试模型。重复这个过程K次,每次选择不同的测试集。最后,计算所有K次测试的平均误差,作为模型的性能指标。在Kaggle和数据挖掘中,K-fold交叉验证通常用于评估模型的性能和避免过拟合。
K-nearest neighbors
K-nearest neighbors是一种分类和回归算法,它使用训练数据中的最近邻居来预测新数据点的类别或值。KNN算法基于相似性度量来计算数据点之间的距离,并根据距离对最近的K个数据点进行投票来预测新数据点的类别或值。在Kaggle和数据挖掘中,KNN算法通常用于分类和回归问题。
KL divergence
KL散度是一种度量两个概率分布之间差异的指标。它基于信息论概念,可以衡量两个分布之间的信息丢失程度。在Kaggle和数据挖掘中,KL散度常用于比较两个分布之间的相似性和差异性。
Kaggle Kernels
Kaggle Kernels是Kaggle平台上的一个功能,允许用户创建和共享数据科学代码笔记本。它可以用于构建,训练和测试机器学习模型,还可以可视化和探索数据集。
Keras
Keras是一个用于构建和训练深度学习模型的高级API,它可以在TensorFlow,CNTK或Theano等深度学习框架之上运行。它提供了一些高级的神经网络层,使得深度学习模型的构建变得更加容易和快速。
Kernel method
Kernel方法是一种在机器学习中广泛使用的技术,用于将非线性问题转换为线性问题。它通过对数据进行核变换来扩展数据的特征空间,从而在更高维度的空间中计算线性超平面来分离不同类别的数据。
L1 and L2 regularization
L1和L2正则化是用于避免机器学习模型过拟合的技术。它们通过向损失函数添加一个正则化项来实现,该项对模型中的权重施加惩罚,以鼓励权重值接近于零。L1正则化通常导致权重向量中的某些条目变为零,因此可以用于特征选择。L2正则化会让权重向量中的所有条目变小,但不会变为零。
LSTM
LSTM(长短时记忆)是一种特殊的循环神经网络(RNN),主要用于处理序列数据,其通过使用门控单元(gate)来控制遗忘、更新和输出的信息流动,从而能够更好地捕捉长期依赖关系。
Label encoding
标签编码是将分类变量转换为机器学习算法可读的格式的一种方法。通过将每个分类值分配一个唯一的数字编码,可以将分类数据转换为数值型数据,以便更好地进行分析和建模。
Label leakage
标签泄露是指在模型训练过程中,将测试集中的信息意外地泄漏到模型中,从而导致模型在测试阶段表现得比预期更好。这通常是由于在数据预处理和特征工程阶段中使用了测试集数据所致,因此应该避免这种情况的发生。
Language modeling
语言建模是一种自然语言处理任务,旨在预测下一个词或字符的概率。它通常使用循环神经网络(RNN)或转换器(Transformer)等模型进行建模,可用于许多NLP应用,如语音识别、机器翻译、文本生成等。
Lasso
Lasso(Least Absolute Shrinkage and Selection Operator)是一种用于线性回归的正则化方法,旨在通过对模型系数进行惩罚来避免过拟合。与L2正则化不同,Lasso正则化使用L1范数作为惩罚项,可以产生稀疏系数向量,有利于特征选择和解释。
Lasso Regression
Lasso回归是使用Lasso正则化的线性回归模型,旨在提高模型的泛化能力和解释性。
Latent Dirichlet Allocation (LDA)
LDA(Latent Dirichlet Allocation)是一种生成式统计模型,用于将文档转换为话题分布的表示形式。在LDA模型中,每个话题都由单词的概率分布表示,而每个文档则由话题的概率分布表示。LDA模型可用于文本分类、主题建模等领域。
LeNet
LeNet是一个早期的卷积神经网络,由LeCun等人在1998年提出,用于手写数字识别任务。
LeNet-5
LeNet-5是LeNet的一种变体,具有5层卷积神经网络结构,由LeCun等人在1998年提出,也用于手写数字识别任务。
Leaderboard
在Kaggle等数据科学竞赛中,领导榜是一个显示参与者分数和排名的表格。通常有公共和私人领导榜,公共榜可以显示所有参与者的排名和得分,而私人榜则仅在竞赛结束时显示参赛者的得分和排名,以避免通过分析其他人的模型来提高排名的情况。
Learning rate
学习率是一个在梯度下降算法中使用的超参数,用于控制参数在每次迭代中更新的步长。较高的学习率可能导致算法无法收敛,而较低的学习率可能导致算法收敛缓慢。通常需要对学习率进行调整以获得最佳结果。
LightGBM
LightGBM是一种基于决策树的梯度提升框架,由Microsoft开发,旨在提高速度和效率。它具有高效的并行训练、稀疏数据支持和准确率高等优点,在Kaggle等数据挖掘竞赛中广泛应用。
Linear regression
线性回归是一种广泛使用的统计学习方法,用于预测数值型目标变量和一个或多个自变量之间的线性关系。它通常使用最小二乘法来估计自变量和目标变量之间的线性关系。
Linguistic features
语言特征是指文本数据中与语言和语法有关的特征。这些特征通常是NLP中使用的特征之一,可以包括词汇、词性、语法结构和语言模型等。
Log-loss
Log loss 是一种分类模型的损失函数,用于度量模型对概率预测的准确性。对于二元分类问题,log loss 量化了模型预测的标签与实际标签之间的差异,log loss 越小代表模型预测越准确。
Logistic regression
Logistic regression 是一种用于分类问题的线性模型。该模型使用 sigmoid 函数将线性输出转化为概率,以预测一个样本属于不同类别的概率。
Loss function
损失函数是用于衡量机器学习模型预测与实际标签之间差异的函数。训练过程中,模型通过优化损失函数来尽可能地减少这种差异。
Loss functions
损失函数是用于衡量机器学习模型预测与实际标签之间差异的函数。不同的任务和模型可能使用不同的损失函数,比如分类任务常用的交叉熵损失函数、回归任务常用的均方误差损失函数等。
MLP (Multilayer Perceptron)
多层感知机是一种前馈神经网络,由多个全连接的神经层组成。在 MLP 中,每个神经元接收来自上一层神经元的输出,经过加权和与激活函数的处理后,再传递给下一层神经元。
Markov Chain Monte Carlo (MCMC)
马尔可夫链蒙特卡罗是一种采样方法,常用于从概率分布中抽取样本。在机器学习中,MCMC 可以用于求解后验分布,特别是在贝叶斯统计中非常有用。
Matplotlib
Matplotlib 是一种用于绘制数据可视化图形的 Python 库。它提供了大量的绘图函数,可以创建线图、散点图、直方图、条形图等多种图形。
Maximum Entropy Model
最大熵模型(Maximum Entropy Model)是一种分类模型,它是基于最大熵原理的学习方法。最大熵原理认为,当我们知道的信息越多,未知的部分就越少,我们所做的预测就越可靠。在自然语言处理领域,最大熵模型常用于文本分类、命名实体识别、情感分析等任务。
Maximum likelihood estimation (MLE)
最大似然估计(Maximum likelihood estimation,MLE)是一种参数估计方法。给定一组观测数据,我们可以使用最大似然估计来确定生成这些数据的概率分布的参数。在机器学习中,最大似然估计通常用于确定模型参数,使得模型生成给定数据的概率最大化。
Mean absolute error
平均绝对误差(Mean absolute error,MAE)是一种用于评估模型预测值与实际值之间误差的度量。它计算模型预测值与实际值之差的绝对值的平均值。MAE越小,表示模型的预测越准确。
Mean encoding
均值编码(Mean encoding)是一种特征编码方法,通常用于处理分类特征。均值编码将每个类别映射为该类别的目标变量(如二分类任务中的标签)的均值。这样做可以帮助模型更好地利用分类变量中的信息。
Mean squared error
均方误差(Mean squared error,MSE)是一种用于评估模型预测值与实际值之间误差的度量。它计算模型预测值与实际值之差的平方的平均值。MSE越小,表示模型的预测越准确。
Mean-shift Clustering
均值漂移聚类(Mean-shift Clustering)是一种非参数聚类方法。它通过在数据点中不断移动一个窗口,使得窗口中的数据点密度最大化,从而将数据点分为不同的簇。
Metrics
度量(Metrics)是指用于评估模型性能的度量标准,如准确率、精确率、召回率、F1-score等。在Kaggle等数据科学竞赛中,模型性能通常使用某些度量进行评估。
Mini-batch gradient descent
小批量梯度下降(Mini-batch gradient descent)是一种用于训练机器学习模型的优化算法。它将训练数据划分为多个小批量,每次使用一个小批量的数据来计算梯度并更新模型参数。
Minkowski距离
Minkowski距离是一种用于衡量两个向量之间的距离的度量方法。Minkowski距离是欧几里得距离和曼哈顿距离的一般化。
Mixture density networks (MDNs)
混合密度网络是一种用于建模复杂概率分布的神经网络。它可以用来预测具有多个可能输出的连续值,例如通过一个单一输入来预测不同概率的输出值。MDN可以在训练期间自适应地确定混合成分的数量和各自的权重,因此可以适应于各种数据分布,例如双峰分布。
MobileNet
MobileNet是一种轻量级的卷积神经网络,主要设计用于在移动设备上进行实时图像分类和目标检测。MobileNet使用深度可分离卷积代替标准卷积操作,减少了参数量,从而降低了计算复杂度和内存消耗。
Model architecture
模型架构指的是神经网络的结构,包括层数、每层的节点数、激活函数、损失函数等。模型架构的设计是深度学习中非常重要的一步,不同的架构可能适用于不同的任务,因此需要对数据和任务进行分析和理解,选择适当的架构。
Model evaluation
模型评估是指对训练好的模型在测试集或交叉验证集上进行性能评估,以衡量模型的泛化能力和预测效果。常见的评估指标包括准确率、召回率、F1分数、ROC曲线和AUC值等。
Model interpretability
模型可解释性指的是对于一个模型而言,人们可以理解和解释它的预测结果是如何得出的。在一些场景中,模型的可解释性非常重要,例如医学领域和金融领域。提高模型的可解释性有助于提高模型的信任度和应用价值。
Monte Carlo tree search
蒙特卡罗树搜索(Monte Carlo tree search, MCTS) 是一种搜索算法,用于在带有随机因素的游戏中寻找最佳的移动步骤,是 AlphaGo 使用的算法之一。
Multi-head attention
多头自注意力(Multi-head attention) 是一种深度学习模型中的机制,通常用于自然语言处理任务中,如机器翻译和文本摘要。它允许模型在不同的位置和尺度上注意输入的不同方面,从而提高了模型的性能。
Multi-task learning
多任务学习(Multi-task learning) 是指在一个模型中同时学习多个相关的任务。通过这种方式,模型可以共享不同任务之间的特征,从而提高整体性能。
Multiclass classification
多类分类(Multiclass classification) 是一种分类问题,其中数据点可以被分为多个不同的类别之一。在 Kaggle 上的许多竞赛中,都涉及多类分类问题。
Multilayer Perceptron (MLP)
多层感知器(Multilayer Perceptron, MLP) 是一种基于前馈神经网络的机器学习算法。它由至少三层神经元组成,其中输入层将输入传递给隐藏层,最后通过输出层输出结果。
N-gram
N-gram是一种自然语言处理技术,用于将文本分成连续的n个字母或单词组合,这些组合被称为“n元组”。N-gram通常用于文本分类和语音识别等任务。
NLP (Natural Language Processing)
自然语言处理(Natural Language Processing, NLP) 是一种计算机科学领域,旨在帮助计算机理解、解释和生成人类语言的形式。
Naive Bayes
朴素贝叶斯是一个简单但常用的分类算法。该算法基于贝叶斯定理,假设每个特征之间相互独立,因此称为“朴素”。在Kaggle和数据挖掘中,朴素贝叶斯算法通常用于文本分类和情感分析等任务。
Named entity recognition (NER)
命名实体识别是指从文本中识别出具有特定意义的实体,如人名、地名、组织机构名等。在Kaggle和自然语言处理中,NER通常被用于信息提取、文本分类和实体关系识别等任务。
Natural Language Generation (NLG)
自然语言生成是指计算机生成自然语言文本的过程。在Kaggle和自然语言处理中,NLG通常被用于自动摘要、机器翻译、对话系统等任务。
Natural Language Understanding (NLU)
自然语言理解是指计算机理解自然语言文本的过程。在Kaggle和自然语言处理中,NLU通常被用于文本分类、情感分析、命名实体识别、关系抽取等任务。
Natural language processing
自然语言处理是指将自然语言与计算机科学结合起来,旨在使计算机能够理解、处理、生成自然语言。在Kaggle中,自然语言处理应用广泛,如文本分类、情感分析、机器翻译、问答系统等。
Nearest neighbor
最近邻算法是一种简单的分类和回归算法。该算法基于“近朱者赤、近墨者黑”的原则,即将新实例分配给已知类别中最接近它的实例。在Kaggle中,最近邻算法通常用于图像分类、推荐系统等任务。
Nearest neighbor search
最近邻搜索是指在数据集中查找与目标数据最相似的数据。在Kaggle中,最近邻搜索通常用于图像检索、相似性匹配等任务。
Negative log likelihood (NLL)
负对数似然是训练神经网络模型时常用的损失函数之一。该函数可以衡量模型预测的概率分布与真实分布之间的差异。在Kaggle和深度学习中,NLL通常被用于分类、回归等任务。
Neural Architecture Search (NAS)
神经架构搜索是一种自动化的方法,用于在给定数据集上搜索最佳神经网络结构。在Kaggle和深度学习中,NAS通常被用于图像分类、目标检测等任务。
Noise injection
噪声注入是一种通过向数据中添加噪声来防止模型过拟合的方法。它可以增加模型的鲁棒性,并且可以帮助模型更好地泛化到未见过的数据。
Non-maximum suppression (NMS)
非极大值抑制是一种在对象检测中用于抑制冗余边界框的技术。在边界框的置信度重叠时,非极大值抑制可以选择最优的边界框,从而减少检测结果的数量并提高检测准确率。
Non-negative matrix factorization
非负矩阵分解是一种线性代数技术,用于将一个矩阵分解为两个非负矩阵的乘积。它可以用于特征提取和降维,也可以用于文本挖掘和图像处理等应用。
Normal distribution
正态分布是一种常见的概率分布,它在自然界和社会科学中经常出现。正态分布是一种连续分布,通常用于描述一组随机变量的分布情况,其概率密度函数呈钟形曲线。
Normalization
归一化是一种常用的数据预处理技术,用于缩放数据集中的特征值以消除数量级不同的问题,以便更好地训练机器学习模型。
Numerical optimization
数值优化是指寻找函数在给定约束条件下的最优解的过程。在数据挖掘和机器学习中,常常需要使用数值优化方法来调整模型参数以达到最佳性能。
Object detection
目标检测是指从图像或视频中检测出特定目标的位置和类别。在Kaggle和计算机视觉领域中,目标检测是一个重要的任务,常用的方法包括基于深度学习的检测器(如YOLO,Faster R-CNN)和基于传统计算机视觉技术的方法(如Haar级联分类器)。
Objectivity
客观性是指对现实世界客观事物的认识和表述不受个人情感、主观意识、价值取向等影响的程度。在数据挖掘和机器学习中,客观性是一个非常重要的概念,因为它关乎着数据分析结果的可信度和可靠性。
One-Class SVM
One-Class SVM是一种用于异常检测的支持向量机算法,它可以训练出一个模型,将正常数据和异常数据分别区分开来。在Kaggle和数据挖掘中,异常检测是一个常见的任务,One-Class SVM是一个常用的算法。
One-hot encoding
One-hot编码是指将离散变量转换成向量形式的编码方法,其中每个变量取值对应向量中的一个维度,取值为1,其余维度取值为0。在机器学习中,One-hot编码是一个常用的数据预处理方法,用于将离散变量转换为机器学习算法可以处理的数字形式。
Online learning
在线学习是指对数据流进行实时处理,动态地对模型进行学习和调整的过程。在Kaggle和数据挖掘中,由于数据量非常大,对于某些场景,使用在线学习可以有效地提高模型的准确性和效率。
Optimization
优化是指在满足特定约束条件下,寻找使某个目标函数取得最优值的过程。在机器学习和数据挖掘中,优化是一个非常重要的概念,因为模型的训练通常可以看作一个优化问题。
Outlier detection
异常检测是指从数据中检测出异常值的过程。在Kaggle和数据挖掘中,异常检测是一个常见的任务,因为异常值通常会对模型的准确性和性能产生负面影响。
PCA (主成分分析)
PCA是一种用于数据降维的技术。它通过计算数据的主要特征(即主成分)来实现。在Kaggle或数据挖掘中,PCA经常用于处理高维数据和减少噪声,从而提高模型的性能和泛化能力。
Pandas
Pandas是一个基于NumPy的Python数据处理库,广泛用于数据科学中。它提供了DataFrame数据结构,可以处理结构化数据,支持数据清洗、分析、操作、可视化等功能。
Parameter tuning
参数调整是一种优化模型性能的技术,通过调整模型的超参数(如学习率、正则化系数等)来找到最佳的参数组合。在Kaggle或数据挖掘中,参数调整是提高模型性能的重要步骤之一。
Part-of-speech (POS) tagging
POS标记是一种语言处理技术,用于标注给定文本中每个单词的词性。在Kaggle或数据挖掘中,POS标记通常用于文本分类、信息提取等任务。
Perceptron
感知器是一种二分类的线性分类器,它可以对输入数据进行二元分类。在Kaggle或数据挖掘中,感知器通常用于简单的分类任务。
Performance metrics
性能指标是用于评估模型质量的指标,包括精确度、召回率、F1分数、AUC等等。在Kaggle或数据挖掘中,选择合适的性能指标对于评估模型性能和优化模型至关重要。
Permutation feature importance
排列特征重要性是一种用于评估特征重要性的技术,它基于在将特征顺序随机排列时模型性能的变化来计算特征的重要性。在Kaggle或数据挖掘中,排列特征重要性是一种常用的特征选择技术。
Phrase matching
短语匹配是一种文本处理技术,用于从给定的文本中匹配和提取特定的短语或关键词。在Kaggle或数据挖掘中,短语匹配通常用于文本分类、信息提取等任务。
Pipelines
管道是一种自动化数据处理工具,用于串联数据处理步骤和机器学习算法。在Kaggle或数据挖掘中,管道通常用于整合数据处理和机器学习流程,并简化数据科学家的工作流程。
Plotly
Plotly是一个交互式数据可视化库,可以创建丰富的图形、图表和可视化分析,支持Python、R、JavaScript等多种编程语言。
Pointwise mutual information (PMI)
点互信息是一个用于衡量两个离散随机变量之间关联度的度量方法,用于自然语言处理中的词汇统计中。
Poisson distribution
泊松分布是一种用于离散随机变量的概率分布,表示在一段固定时间内某个事件发生次数的概率分布。
Poisson regression
泊松回归是一种用于建模计数数据的回归分析方法,它假设数据服从泊松分布,用于预测某个事件在一段时间内发生的次数。
Policy gradients
策略梯度是一种用于强化学习中的优化算法,通过直接优化策略函数来提高智能体的性能。
Porter stemmer
波特词干提取器是一种用于将英文单词转换为其基本形式的自然语言处理算法,例如将“running”转换为“run”。
Precision
精确率是分类模型性能指标之一,指被模型正确预测为正例的样本数占所有被预测为正例的样本数的比例。
Precision-recall curve
精确率-召回率曲线是分类模型性能评估方法之一,通过在不同的分类阈值下绘制出精确率和召回率的关系曲线。
Predictive modeling
预测建模是一种通过构建数学模型来预测未来事件的方法,通常用于基于数据的决策和业务应用。
Preprocessing
数据预处理是指在对数据进行建模之前对其进行清理、转换、归一化等操作,以提高模型的准确性和性能。
Pretrained models
预训练模型,指在大型数据集上先训练好的模型,然后可以通过微调来进行特定任务的训练,通常能够加快模型收敛速度和提高模型表现。
Privacy preservation
隐私保护,指在数据处理和共享过程中采取措施保护数据主体的隐私信息,如加密、匿名化等方法。
Private leaderboard
私有排行榜,指Kaggle竞赛中的排行榜,只对参赛者可见,用于评估模型在未知数据上的表现。
Probabilistic graphical models
概率图模型,是用图表示变量之间依赖关系的概率模型,主要包括贝叶斯网络和马尔可夫随机场。
Probability density function (PDF)
概率密度函数,是一个用来描述随机变量取值概率分布的函数。
Profiling
分析程序性能瓶颈的过程,通常包括程序运行时间、内存占用等方面的分析。
Progressive resizing
渐进式大小调整,指训练模型时从较小的图像尺寸开始训练,逐渐增加图像尺寸,从而提高模型性能。
Prophet
Facebook开发的时间序列预测库,适用于快速建立准确的时间序列预测模型。
Public leaderboard
公共排行榜,指Kaggle竞赛中的排行榜,对所有人可见,用于展示参赛者在测试集上的表现。
PyTorch
PyTorch是一个基于Python的机器学习框架,专注于强化学习和计算机视觉领域,也可用于自然语言处理等其他领域。
Python
Python是一种高级编程语言,具有易读易学和简洁的语法。在数据科学和机器学习领域,Python是最流行的编程语言之一。
Q-learning
Q-learning是一种强化学习算法,用于处理与环境交互的任务。Q-learning通过尝试最大化累积奖励来学习有效的行动策略。
Quantile regression
Quantile regression是一种回归分析方法,用于预测因变量的不同分位数。相比于普通的最小二乘回归,它能够提供更加鲁棒的预测结果。
Quantum machine learning
Quantum machine learning是指将量子计算方法应用于机器学习任务中。由于量子计算的并行性能力,量子机器学习有可能加速某些机器学习任务的计算速度。
Quasi-Newton methods
Quasi-Newton方法是一类数值优化方法,用于求解无约束优化问题。相比于基本的梯度下降方法,Quasi-Newton方法具有更快的收敛速度和更好的全局收敛性。
Query expansion
Query expansion是指对用户查询语句进行扩展,以便更好地匹配相关文档。在信息检索领域,Query expansion是一种常见的技术手段。
Question-answering
Question-answering是指通过计算机程序回答人类提出的自然语言问题的任务。在自然语言处理领域,Question-answering是一个重要的研究领域。
Quick dive
Quick dive是Kaggle平台上提供的一种数据探索工具,用于快速了解数据集的统计特征、变量间的关系以及异常值等信息。
R-squared
R-squared是一种常用的回归模型性能度量方法,用于衡量模型预测结果与实际结果之间的相关性。R-squared值越高,表示模型的拟合效果越好。
RBM (Restricted Boltzmann Machine)
限制玻尔兹曼机是一种用于生成模型的概率图模型,通常用于降维,特征学习,协同过滤和建模等任务。
RNN (Recurrent Neural Network)
循环神经网络是一种神经网络架构,能够处理序列数据,例如时间序列或文本。其可以对序列中的先前数据进行记忆,以帮助更好地处理当前输入。
RNN: Recurrent Neural Network
循环神经网络是一种神经网络架构,能够处理序列数据,例如时间序列或文本。其可以对序列中的先前数据进行记忆,以帮助更好地处理当前输入。
ROC curve
ROC曲线是一种用于二元分类问题的可视化工具,它显示了不同的分类阈值下真阳性率和假阳性率之间的关系。该曲线的面积被称为AUC,表示分类器的性能。
Random Forest
随机森林是一种基于决策树的集成学习方法,它在训练过程中使用随机选择的特征子集和训练集子集,以提高模型的泛化能力和抗过拟合能力。
Random forest
随机森林是一种基于决策树的集成学习方法,它在训练过程中使用随机选择的特征子集和训练集子集,以提高模型的泛化能力和抗过拟合能力。
Random forests
随机森林是一种基于决策树的集成学习方法,它在训练过程中使用随机选择的特征子集和训练集子集,以提高模型的泛化能力和抗过拟合能力。
Random search
随机搜索是一种超参数调优方法,它在给定的超参数空间内随机选择超参数组合,并评估每个超参数组合的性能,以找到性能最佳的超参数组合。
Randomness
随机性是指某个事件的结果是由概率因素决定的,即其结果是随机的或具有不确定性的。
Ranking
排名是指将一组对象或数据按其某种属性进行排序的过程。在数据科学中,排名通常用于排序搜索引擎结果或推荐系统中的建议。
ReLU (Rectified Linear Unit)
ReLU是一种激活函数,常用于神经网络中。ReLU函数输出与输入相等或者0,通常用于加快神经网络训练速度,避免梯度消失等问题。
Recall
Recall是一个分类器的性能指标之一,指实际为正例的样本中被分类器预测为正例的比例。
Recommender System
推荐系统是一种利用用户历史行为数据和物品特征信息等,为用户推荐合适的商品、服务、内容等的系统。在Kaggle比赛中,推荐系统通常是为了预测用户对某些物品的偏好度和预测用户行为,以提高营收和用户满意度等指标。
Recurrent neural networks
循环神经网络是一种神经网络,主要用于处理序列数据。它能够记住过去的信息,并将其应用于当前的输入,从而提高模型的预测准确性。
Regression
回归是一种监督学习的方法,主要用于预测连续型变量的值。回归模型通常通过训练样本中的输入特征和目标输出之间的关系来进行建模,以便预测新输入特征对应的目标输出。
Regularization
正则化是一种常用于降低过拟合风险的技术,通过向损失函数添加惩罚项,鼓励模型参数保持较小的值。这样可以避免模型过度拟合训练数据,从而提高模型在新数据上的泛化能力。
Reinforcement Learning (RL)
强化学习是一种机器学习的分支,主要用于解决智能体在环境中学习最优行为的问题。强化学习通过试错来优化决策,并通过反馈奖励来指导学习方向。在Kaggle比赛中,强化学习通常用于解决与游戏和机器人等相关的问题。
Reinforcement learning
强化学习是一种机器学习的分支,主要用于解决智能体在环境中学习最优行为的问题。强化学习通过试错来优化决策,并通过反馈奖励来指导学习方向。
Resampling
Resampling指的是一种从原始数据集中随机抽取样本的方法,通常用于解决数据不平衡的问题。在Kaggle或数据挖掘中,经常需要对数据进行Resampling来平衡训练数据集中的正负样本比例。
Residual Neural Network (ResNet)
ResNet是深度神经网络中的一种常用的结构,它采用了残差学习的思想,可以有效地解决深度神经网络中的梯度消失和梯度爆炸问题,提高网络的训练效率和泛化性能。
Residuals
Residuals指的是预测值与实际值之间的差异,也就是模型的预测误差。在回归模型中,我们通常会计算Residuals的平均值或均方误差来衡量模型的预测准确度。
Restricted Boltzmann Machine (RBM)
RBM是一种基于能量模型的无监督学习算法,通常用于特征提取和数据降维。在深度学习中,RBM常常被用作生成式模型和预训练网络中的一部分。
Ridge regression
Ridge regression是一种常用的回归分析方法,它通过对系数加上L2正则化项,可以有效地避免过拟合问题。在Kaggle或数据挖掘中,Ridge regression常常被用于线性回归和特征选择等任务。
Rocchio algorithm
Rocchio算法是一种基于向量空间模型的文本分类算法,它通过计算样本向量之间的距离和类别之间的权重,来判断测试文本的类别。Rocchio算法简单高效,通常用于处理大规模文本分类问题。
Root mean squared error
Root mean squared error(RMSE)是一种常用的回归模型性能指标,它计算预测值与实际值之间的平均误差的平方根。RMSE越小,模型的预测效果越好。
Root mean squared error (RMSE)
同上。
SAE (Stacked Autoencoder)
SAE是一种无监督学习算法,它采用多层的自编码器来进行特征提取和降维。在深度学习中,SAE通常被用作预训练网络的一部分,或者作为其他深度学习模型的前置处理。
SGD (Stochastic Gradient Descent)
SGD是一种常用的优化算法,通常用于深度神经网络的训练中。它通过计算每个样本的损失函数来更新模型的参数。
SHAP values
SHAP(SHapley Additive exPlanations)值是一种解释模型预测的方法,用于分析模型中每个特征对于预测结果的贡献度。SHAP值是基于Shapley值的概念,通过考虑所有特征取值的组合来确定每个特征的贡献度。
SIFT (Scale-Invariant Feature Transform)
SIFT是一种用于检测和描述图像中局部特征的算法,该算法具有尺度不变性和旋转不变性,可以应用于计算机视觉领域的很多任务,例如图像匹配、目标识别等。
SMOTE (Synthetic Minority Over-sampling Technique)
SMOTE是一种用于解决类别不平衡问题的技术,该技术通过生成合成样本来增加少数类样本的数量,以达到平衡不同类别之间的样本数量。SMOTE算法是一种非常流行的方法,通常被应用于分类任务。
SOTA: State-of-the-art
SOTA表示“State-of-the-art”,是指当前领域中最先进的技术或方法。在数据科学和机器学习领域,SOTA通常用来表示最先进的模型或算法,是衡量算法性能和进步的重要指标。
Sampling
Sampling指从总体中选择部分样本的过程,通常是为了获得样本的代表性和可行性。在数据科学中,样本的质量和数量对于建立高质量的模型至关重要。
Sampling bias
Sampling bias指在样本选择过程中引入的偏差,从而导致样本不具有代表性。如果样本选择不当,那么建立的模型可能会有很大的偏差,从而影响模型的预测性能。
Scikit-learn
Scikit-learn是一个流行的Python机器学习库,提供了各种算法和工具,包括分类、回归、聚类等,被广泛应用于数据科学和机器学习领域。
Scipy
Scipy是一个开源的Python科学计算库,提供了许多数学、科学和工程领域的算法和工具,包括统计分析、优化、插值、信号处理等。
Seaborn
Seaborn是一个基于matplotlib的Python数据可视化库,提供了一些高级绘图函数,可以帮助用户更容易地创建复杂的可视化效果,被广泛应用于数据科学和数据可视化领域。
Sentiment analysis
情感分析是一种自然语言处理技术,用于确定给定文本中的情绪或主观性,并将其分类为正面、负面或中性。
Sequence labeling
序列标注是指对一个序列中的每个元素进行分类或标注,通常应用于自然语言处理中的命名实体识别、词性标注等任务。
Shake
Shake是一种正则化技术,通过对权重矩阵的分割和随机丢弃操作来减少过拟合风险。
Shapley values
Shapley值是一种用于衡量特征对于模型预测结果的重要性的方法,它基于合作博弈理论,考虑了特征之间的相互作用,可以用于解释模型的预测结果。
ShuffleNet
ShuffleNet是一种轻量级卷积神经网络结构,使用分组卷积和通道随机重排等技术来降低模型参数量和计算复杂度。
Siamese network
Siamese网络是一种神经网络结构,它通过共享权重来比较两个输入序列或图像,通常应用于图像检索、人脸识别等任务。
Sigmoid
Sigmoid函数是一种常用的非线性激活函数,常用于神经网络中。
Significance testing
显著性检验是指使用统计学方法来确定观察到的差异是否显著,通常用于比较实验组和对照组之间的差异。
Silhouette score
轮廓系数是一种用于评估聚类质量的指标,通过计算样本到簇内距离和样本到最近簇距离之间的比率来评估聚类的紧密度和分离度。
Similarity metrics
相似度度量是指衡量两个对象之间相似程度的方法。在数据挖掘中,常用的相似度度量包括欧氏距离、余弦相似度、Jaccard相似度等。它们在聚类、分类、推荐系统等领域得到广泛应用。
Singular value decomposition
奇异值分解(Singular Value Decomposition, SVD)是一种矩阵分解方法,将一个矩阵分解成三个矩阵的乘积,其中一个矩阵是对角矩阵,其余两个矩阵是正交矩阵。SVD在数据挖掘中有广泛应用,例如在推荐系统中的协同过滤算法中,SVD被用于降低用户-物品矩阵的维度。
SmoothL1 loss
Smooth L1 Loss是一种回归损失函数,它在输入接近于0时比L1 Loss更加光滑,在输入远离0时比L2 Loss更加光滑。Smooth L1 Loss可以缓解 L2 Loss 带来的梯度爆炸问题和 L1 Loss 带来的不可导性问题。在深度学习中,Smooth L1 Loss常用于物体检测和边框回归等任务。
Social network analysis
社交网络分析是研究人与人之间的社会关系及其演化的学科。在数据挖掘中,社交网络分析被广泛应用于社交网络的社区发现、影响力分析、广告投放、用户推荐等领域。
Softmax
Softmax函数将一个K维的实数向量转换为K维的概率分布。在深度学习中,Softmax函数常用于分类问题的多分类模型中。其输出值表示每个类别的概率,通常选取概率最大的类别作为模型的预测结果。
Spatial transformer network (STN)
空间变换网络(Spatial Transformer Network, STN)是一种可以在神经网络内部进行空间变换的模块,其可以对输入数据进行平移、旋转、缩放等变换,从而提高网络对输入数据的鲁棒性。在计算机视觉领域,STN常用于图像分类、目标检测等任务。
Spectral clustering
谱聚类是一种基于图论的聚类算法,可以将数据集中的数据点分成不同的组或簇。它利用数据集中数据点之间的相似性构建一个图,然后将这个图分解为若干个特征向量,并根据这些特征向量对数据点进行聚类。
Speech recognition
语音识别是将人的语音信号转换为文本或指令的过程。在数据挖掘中,语音识别通常是指使用机器学习算法自动识别和理解人类语言的过程。它是人工智能领域中自然语言处理的一部分。
Splitting
在数据挖掘中,拆分是将原始数据集分成两个或多个子集的过程。这个过程通常是为了进行模型训练和测试,其中一个子集用于训练模型,另一个子集用于测试模型性能。
Squeeze
Squeeze是一种神经网络操作,用于减少卷积神经网络中张量的通道数量,从而降低模型的参数数量。Squeeze操作通常与Excitation(Excitation)操作组合使用,以增加网络中不同通道的注意力。
StackNet
StackNet是一种集成学习方法,它将不同类型的学习器堆叠在一起形成一个层次化的结构,以提高模型性能。StackNet结合了堆叠和并行结构,可以在具有高度异构性的数据上实现高效的模型融合。
Stacking
堆叠是一种模型集成技术,它使用多个模型的预测结果作为输入,然后训练另一个模型来将这些预测结果组合起来以获得更准确的结果。堆叠通常涉及到两个级别的模型,第一级模型生成预测结果,第二级模型使用这些预测结果来生成最终的输出。
Standard deviation
标准差是一种用来描述数据分布的统计量,它反映了数据的离散程度。标准差越小,数据点越集中,反之则越分散。
State-of-the-art (SOTA)
SOTA指最先进的技术或方法,是当前领域中表现最好的技术或方法。在数据挖掘中,SOTA通常用来描述在某个任务上表现最好的模型或算法。
Structural similarity index (SSIM)
结构相似性指数(SSIM)是一种测量图像相似度的指标,用于比较两个图像的结构内容,包括亮度、对比度和结构。
Supervised learning
监督学习是一种机器学习方法,通过给模型提供带标签的训练数据集,使模型能够学习输入数据和相应输出标签之间的关系,从而进行预测或分类任务。
Support vector machine (SVM)
支持向量机是一种用于分类和回归的机器学习算法。SVM基于将训练数据映射到高维空间中,并在该空间中寻找最佳分类边界,以实现对新数据的分类或回归。
Support vector machines (SVMs)
支持向量机是一种用于分类和回归的机器学习算法。SVM基于将训练数据映射到高维空间中,并在该空间中寻找最佳分类边界,以实现对新数据的分类或回归。
Synthetic data
合成数据是一种人工生成的数据,其特征和分布可以控制和调整。合成数据通常用于机器学习任务中,例如数据增强和数据缺失填充。
T-SNE (t-distributed stochastic neighbor embedding)
t分布随机邻域嵌入(t-SNE)是一种非线性降维技术,可将高维数据映射到二维或三维空间中,以便进行可视化或聚类分析。
Transfer learning
迁移学习是指在一个任务上训练好的模型在另一个任务上继续训练或者应用。通过利用一个预训练模型在大量数据上学习到的特征,可以加快新任务的训练,并且有助于解决数据量较小的新任务。
Transformers
Transformer是一种基于自注意力机制(self-attention)的神经网络结构,常用于自然语言处理领域中的语言建模任务。Transformer通过将输入序列中的所有位置进行自注意力计算,从而在不增加计算复杂度的前提下捕获输入序列中的长距离依赖关系。
Tree-based models
基于树的模型是一种广泛应用于机器学习中的算法家族,包括决策树、随机森林、梯度提升决策树(Gradient Boosting Decision Tree,GBDT)等。这些模型基于将特征空间划分为一系列区域,并通过对每个区域赋予不同的预测值来对数据进行建模。
U-Net
U-Net是一种用于图像分割的卷积神经网络结构,由编码器和解码器两部分组成,它们之间通过跨层连接将高级别特征信息传递到解码器中,以便于获得更精确的分割结果。
Unbalanced data
指在一个二分类或多分类问题中,不同类别的样本数目差异很大。对于不平衡数据,需要采用一些特殊的算法来处理,例如欠采样(undersampling)和过采样(oversampling)等。
Underfitting
指模型无法在训练集上达到足够低的误差,表现为模型在训练集和测试集上的误差都较高。这通常是由于模型过于简单或者数据过于复杂导致的,需要调整模型的复杂度或者增加更多的训练数据。
Unsupervised learning
无监督学习是指在没有标签的情况下对数据进行建模,通过对数据内在的结构和关系进行学习,以便于发现数据的潜在模式和规律。
Value function approximation
值函数逼近(Value function approximation)是强化学习中的一个概念,指的是通过一系列状态-动作对的奖励,逼近出一个函数,用于预测不同状态下采取各个动作的期望回报,从而指导智能体做出正确的决策。
Vanishing gradient problem
梯度消失问题(Vanishing gradient problem)是指在深度神经网络训练中,由于梯度在传播过程中被不断地乘以小于1的数,导致梯度越来越小,从而使得底层神经元的权重更新非常缓慢,进而影响整个网络的训练效果。
Variance
方差(Variance)是描述一组数据离散程度的统计量,用于衡量数据集中数据值与其平均值之间的差异程度,值越大表示数据越分散。
Vector quantization
向量量化(Vector quantization)是指将连续的向量空间分成若干个离散的子空间,对每个子空间赋予一个代表向量,从而将原始的连续向量转换为离散的向量。
Vector space model
向量空间模型(Vector space model)是信息检索领域中一种基于向量表示文本的方法,将文本表示为向量,从而可以用向量间的距离来度量文本之间的相似性。
Vectorization
向量化(Vectorization)指将计算过程中的数据以向量形式表示,从而可以通过向量运算实现高效计算,常用于机器学习中的特征提取和模型训练过程中。
Very Deep Convolutional Networks (VGG)
VGG网络是深度学习中一种经典的卷积神经网络模型,由牛津大学的研究团队提出,具有极深的层数和小的卷积核,被广泛用于图像识别和分类等任务。
Visual question answering (VQA)
视觉问答(Visual question answering,VQA)是指通过对一幅图像提问并回答问题的任务,结合了计算机视觉和自然语言处理两个领域的技术。
Word2Vec
Word2Vec是一种词嵌入技术,用于将单词映射到低维向量空间中。在Kaggle和数据挖掘中,Word2Vec通常用于自然语言处理任务,例如文本分类、情感分析和聚类。
WordNet
WordNet是一个英语词汇数据库和语义网络,用于计算机自然语言处理。在Kaggle和数据挖掘中,WordNet通常用于构建文本特征和词汇相似度度量。
XGBoost
XGBoost是一种梯度提升算法,常用于处理结构化数据。它具有高效、可扩展和准确的预测能力,是Kaggle竞赛中常用的机器学习算法。
Xception
Xception是一种深度卷积神经网络,通过将标准卷积层替换为深度可分离卷积层,实现了更高的模型性能。在Kaggle和数据挖掘中,Xception常用于计算机视觉任务,如图像分类和目标检测。
YAML: YAML Ain't Markup Language
YAML是一种轻量级数据序列化格式,它的名称YAML Ain't Markup Language意味着它不是一种标记语言。在Kaggle和数据挖掘中,YAML通常用于配置文件和元数据的编写和读取。
YOLO (You Only Look Once)
YOLO是一种实时目标检测算法,它在一张图像中同时检测多个目标。在Kaggle和数据挖掘中,YOLO常用于计算机视觉任务,如车辆检测、行人检测等。
Zero-shot learning
零样本学习是指在没有任何训练样本的情况下进行学习和推理。在Kaggle和数据挖掘中,零样本学习通常用于计算机视觉任务,如图像分类、目标检测等。
Zipf定律
Zipf定律,又称Zipf定律分布,是一种经验定律,描述了自然语言中单词出现频率与其排名之间的关系。即在一个语料库中,一个单词出现的频率与它的排名成反比。在Kaggle或数据挖掘中,Zipf定律也常用于分析其他类型数据的分布情况,如用户点击次数、商品销售量等。


最新文章