技术原理

2020年你必须知道的顶级深度学习面试问题

“KDSP”深度学习是2019-20年最热门的话题之一,原因很充分。这个行业已经取得了许多进步,现在是机器或计算机程序真正取代人类的时候了。到2020年,人工智能将创造230万个工作岗位,为了破解这些面试难题,我提出了一套深入学习的面试问题。我将本文分为两个部分:

基础深度学习面试题推进深度学习面试题基础深度学习面试题

Q1。区分人工智能,机器学习和深度学习。

人工智能是一种使机器能够模仿人类行为的技术。

机器学习是人工智能技术的一个子集,它使用统计方法使机器能够随着经验而改进。

AI Timeline - Deep Learning Interview Questions - Edureka

深度学习是ML的一个子集,ML使多层神经网络的计算成为可能。它使用神经网络来模拟人类的决策。

Q2。你认为深度学习比机器学习好吗?如果是,为什么?”

虽然传统的ML算法解决了我们的很多问题,但是在处理高维数据时,这些算法并不有用,因为我们有大量的输入和输出。例如,在手写识别的情况下,我们有大量的输入,其中我们将有不同类型的输入与不同类型的手写体相关。

Need for Deep Learning - Deep Learning Interview Questions

第二个主要挑战是告诉计算机它应该寻找哪些功能,这些功能将在预测结果以及实现更好的效果方面发挥重要作用这样做的准确性。

Q3。什么是感知器?它是如何工作的?”

如果我们关注生物神经元的结构,它有树突用来接收输入。这些输入在细胞体中汇总,并使用轴突将其传递给下一个生物神经元,如下所示。

neuron-Deep Learning Interview Questions

树突:接收来自其他神经元的信号细胞体:汇总所有输入轴突:它用于将信号传输到其他细胞

类似,感知器接收多个输入,应用各种变换和函数,并提供输出。感知器是用于二值分类的线性模型。它对一个有一组输入的神经元进行建模,每个输入都有一个特定的权重。神经元计算这些加权输入的一些函数并给出输出。

Perceptron- Deep Learning Interview Questions

Q4。权重和偏差的作用是什么?”

对于感知器,可以有一个称为偏差的输入。当权重决定分类器线的斜率时,bias允许我们向左或向右移动线。通常,偏差被视为输入值为x0.

Weights and Bias

Q5的另一个加权输入。激活功能是什么?”

激活函数将输入转换为输出。激活函数通过计算加权和并进一步加上偏差来决定是否激活神经元。激活函数的目的是将非线性引入神经元的输出中。

可以有许多激活函数,如:

线性或恒等式单元或二阶Sigmoid或Logistic Tanh ReLU Softmax

Q6。解释感知器的学习。

初始化权值和阈值。提供输入并计算输出。更新权重。重复步骤2和3

perceptron-learning-deep-learning-interview-questions

Wj(t 1)–更新重量Wj(t)–旧重量d–期望输出y–实际输出x–输入

Q7。成本/损失函数的重要性是什么?”

成本函数是对给定训练样本和期望值的神经网络精度的度量updates.append([p,p-g*lr])返回更新更新=新加坡元(成本,参数)perparameters是在训练前设置的。

隐层数网络权值初始化激活函数学习速率动量数时代批量大小

Q20。解释与网络和训练相关的不同超参数。

网络超参数

AI Timeline - Deep Learning Interview Questions - Edureka2”

隐藏层的数量:使用正则化技术的层内许多隐藏单元可以提高精度。较小的单元数可能会导致不适。

网络权重初始化:理想情况下,最好根据每个层上使用的激活函数使用不同的权重初始化方案。主要使用均匀分布。

激活函数:激活函数用于将非线性引入模型,它允许深度学习模型学习非线性预测边界。

训练超参数

AI Timeline - Deep Learning Interview Questions - Edureka3”

学习速率:学习速率定义网络更新其参数的速度。低学习速率减慢学习过程,但收敛平稳。较大的学习速率会加快学习速度,但可能不会收敛。

动量:动量有助于根据前面步骤的知识了解下一步的方向。它有助于防止振荡。动量的典型选择是在0.5到0.9之间。

epochs的数目:epochs的数目是训练时整个训练数据向网络显示的次数。增加段数,直到验证精度开始降低,即使训练精度增加(过度拟合)。

批大小:Mini Batch size是在参数更新之后提供给网络的子样本数。批处理大小的良好默认值可能是32。也可以尝试32、64、128、256等等。

Q21。什么是辍学?”

辍学是一种避免过度拟合从而提高泛化能力的正则化技术。一般来说,我们应该使用20%-50%的神经元的一个小的辍学值,20%提供了一个很好的起点。概率太低影响最小,值太高会导致网络学习不足。

dropout

使用更大的网络。当在更大的网络上使用dropout时,您可能会获得更好的性能,从而使模型更有机会学习独立表示。

Q22。在训练神经网络时,你会注意到在几个起始阶段损失并没有减少。原因可能是什么?”

的原因可能是:

的学习速率低,正则化参数高,卡在局部极小值

Q23。列举几个深度学习框架

TensorFlow Caffe The Microsoft Cognitive Toolkit/CNTK Torch/PyTorch MXNet Chainer Keras

Q24。什么是张量?”

张量只不过是在深度学习中表示数据的事实。它们只是多维数组,允许您表示具有更高维度的数据。一般来说,深入学习是处理高维数据集,其中维是指数据集中的不同特性。

Tensors - Deep Learning Interview Questions - Edureka

Q25。列出TensorFlow的一些优点?

TensorFlow - Edureka

它具有平台灵活性,易于在CPU和GPU上进行分布式计算培训。TensorFlow具有自动区分功能,它对线程、异步计算和队列es具有高级支持。它是一个可定制的开放源码。”

Q26。什么是计算图?”

计算图是在图中作为节点排列的一系列张量流运算。每个节点以零个或多个张量作为输入,并产生一个张量作为输出。

Computational Graph- Deep-Learning-Interview-Questions

基本上,可以认为计算图是一种替代方法与标准的前馈神经网络一样,LSTM具有反馈连接,使其成为“通用计算机”。它不仅可以处理单个数据点,而且可以处理整个数据序列。

它们是一种特殊的递归神经网络,能够学习长期依赖关系。

Q34。胶囊中的胶囊是什么神经网络?”

胶囊是一个向量,指定对象的特征及其可能性。这些特性可以是任何实例化参数,如位置、大小、方向、变形、速度、色调、纹理等等。

capsule-neural-network

胶囊还可以指定其属性,如角度和大小,以便它可以表示相同的通用信息。现在,就像神经网络有多层的神经元一样,胶囊网络也有多层的胶囊。

现在,让我们继续这个深入学习的访谈问题,转到自动编码器和RBMs部分。

Q35。解释自动编码器及其用途。

自动编码器神经网络是一种无监督的机器学习算法,应用反向传播,将目标值设置为等于输入。自动编码器用于将输入的大小缩小为更小的表示形式。如果任何人需要原始数据,他们可以从压缩数据中重建它。

Autoencoders

Q36。在降维方面,自动编码器与PCA有何不同?”

“一个自动编码器可以学习具有非线性激活函数和多层的非线性变换。它不需要学习密集层。它可以使用卷积层来学习哪个更适合视频、图像和序列数据。使用自动编码器学习多个层比使用PCA学习一个巨大的变换更有效。自动编码器提供每一层作为输出的表示。它可以利用来自另一个模型的预训练层来应用传输学习来增强编码器/解码器。”

“”PCA vs Autoencoders“”

“”

“”

Q37。给出一些可以应用自动编码器的实际例子。

图像着色:自动编码器用于将任何黑白图片转换为彩色图像。根据照片上的内容,可以判断颜色应该是什么。

特征变化:它只提取图像所需的特征,并通过消除任何噪声或不必要的干扰来生成输出。

维度降低:重建图像与我们的输入相同,但维度降低。它有助于提供像素值降低的类似图像。

去噪图像:自动编码器看到的输入不是原始输入,而是随机损坏的版本。因此,去噪自动编码器被训练成从噪声版本重建原始输入。

Q38。自动编码器的不同层是什么?”

自动编码器由三层组成:

编码器代码解码器

Autoencoders Tutorial - Autoencoders Architecture

Q39。解释自动编码器的体系结构。

编码器:网络的这一部分将输入压缩为潜在空间表示。编码器层将输入图像编码为压缩的表示形式,以减小尺寸。压缩图像是原始图像的扭曲版本。

代码:网络的这一部分表示输入到解码器的压缩输入。

解码器:这一层将编码图像解码回原始尺寸。解码后的图像是原始图像的有损重建,它是从潜在空间表示

Q40重建的。自动编码器的瓶颈是什么?为什么要使用它?”

编码器和解码器之间的层,即代码也被称为瓶颈。这是一种设计良好的方法,可以决定哪些方面观测数据的相关信息和哪些方面可以被丢弃。

Bottleneck

它通过平衡两个标准来做到这一点:

表示的紧凑性,测量为压缩性。它从输入中保留了一些与行为相关的变量。”

“”

“”

“第41页。有自动编码器的变体吗?”卷积自编码器稀疏自编码器深度自编码器压缩自编码器

Q42。什么是深度自动编码器?”

简单自动编码器的扩展是Deep自动编码器。Deep自动编码器的第一层用于原始输入中的一阶特征。第二层用于与一阶特征的外观中的图案相对应的二阶特征。深层自动编码器的深层往往学习更高阶的特性。

Autoencoders Tutorial - Deep Autoencoders

深层自动编码器由两个对称的深层信任网络组成:

前四或五个浅层表示网络的编码一半。第二组四层或五层组成了解码的一半。”

“”

“”

“Q43。什么是受限制的玻尔兹曼机器?”

受限Boltzmann机是近年来在深度学习框架中发挥重要作用的无向图形模型。它是一种用于降维、分类、回归、协同过滤、特征学习和主题建模的算法。

Restricted Boltzmann Machine- Deep-Learning-Interview-Questions

Q44。RBM与自动编码器有何不同?”

自动编码器是一个简单的三层神经网络,输出单元直接连接回输入单元。通常,隐藏单元的数量远小于可见单元的数量。训练的任务是最小化错误或重建,即找到输入数据的最有效的紧凑表示。

Restricted Boltzmann Machine - edureka

RBM有类似的想法,但它使用具有特定分布的随机单元,而不是确定性分布。训练的任务是找出这两组变量实际上是如何相互连接的。

RBM区别于其他自动编码器的一个方面是它有两个偏差。隐藏的偏见有助于RBM在前传球上产生激活,而可见层的偏见有助于RBM在后传球上学习重建。

现在,进入“深度学习面试问题”系列的最后一个问题。

Q45。深度学习有什么局限性?”“深度学习”通常需要大量的训练数据。深层神经网络很容易上当。深度学习的成功纯粹是经验的,深度学习算法被批评为难以理解的“黑匣子”。到目前为止,深度学习尚未与先前的知识很好地结合起来。”所以,带着这个,我们来结束这篇深度学习面试题的文章。我希望这一系列的问题足以破解任何深度学习面试,但如果你申请的是任何特定的工作,那么你也需要对该行业有很好的了解,因为这些工作大多是为专家而设。

你还可以查看Edureka的人工智能和Tensorflow深度学习,一家值得信赖的在线学习公司,拥有遍布全球的250000多名满意的学习者。本认证培训由行业专业人员根据行业要求和需求进行策划。您将掌握诸如SoftMax函数、自动编码器神经网络、受限Boltzmann机器(RBM)等概念,并与Keras&TFLearn等库一起工作。

有问题要问我们吗?请在评论部分提到它,我们会给你回复的

你也可能喜欢

发表评论

您的电子邮件地址不会被公开。 必填项已用 * 标注

提示:点击验证后方可评论!

插入图片
人工智能培训优选猎维 投稿者
我还没有学会写个人说明!
最近文章
  • * 没有更多文章了
  • 热门搜索

    分类目录