Comments Helpful
问题:画GRU结构图 0 0%
Attention机制的作用 0 0%
Relu比Sigmoid的效果好在哪里? 0 0%
问题:神经网络中权重共享的是? 0 0%
问题:神经网络激活函数? 0 0%
训练过程中,若一个模型不收敛,那么是否说明这个模型无效?导致模型不收敛的原因有哪些? 0 0%
图像处理中锐化和平滑的操作 0 0%
VGG使用3*3卷积核的优势是什么? 0 0%
什么是RNN 0 0%
什么是Group Convolution 0 0%
BatchNormalization的作用 0 0%
梯度消失 0 0%
循环神经网络,为什么好? 0 0%
简述神经网络的发展史? 0 0%
深度学习常用方法? 0 0%
简单说说CNN常用的几个模型? 0 0%
什么样的资料不适合深度学习? 0 0%
如何解决梯度消失和梯度膨胀? 0 0%
广义线性模型是怎么被应用在深度学习中? 0 0%
深度学习中的Batch Normalization? 0 0%
为什么在LSTM模型中既存在sigmoid函数又存在tanh两种激活函数,二不是选择区中单独的一组?这样做的目的是什么? 0 0%
如何解决RNN梯度爆炸和弥散的问题? 0 0%
为什么要引入非线性激励函数? 0 0%
神经网路中使用relu函数要好过tanh和sigmoid函数? 0 0%
LSTM结果推导,为什么比RNN好? 0 0%
简单介绍一下tensorflow的计算流图? 0 0%
你有哪些deep learning(rnn、cnn)调参的经验? 0 0%
CNN最成功的应用是在CV,那为什么NLP和Speech的很多问题也可以用CNN解出来?为什么AlphaGo里也用了CNN?这几个不相关的问题的相似性在哪里?CNN通过什么手段抓住了这个共性? 0 0%
梯度下降算法的一般步骤 ? 0 0%
全连接层的作用? 0 0%
卷积神经网络的卷积是什么意思? 0 0%
什么是RNN 0 0%
什么是LSTM网络? 0 0%
详细说说CNN工作原理 0 0%
什么样的资料集不适合深度学习? 0 0%
如何解决梯度消失和梯度爆炸? 0 0%
梯度爆炸会引发什么? 0 0%
relu为何好过sigmoid和tanh? 0 0%
为什么LSTM中既存在tanh和sigmoid,而不同意采用一样的? 0 0%
如何解决RNN梯度消失和弥散的情况? 0 0%
为什么引入非线性激活函数? 0 100%
LSTM为什么比RNN好? 0 0%
Sigmiod、Relu、Tanh三个激活函数的缺点和不足,有没有更好的激活函数? 0 0%
请介绍下tensorflow的计算图? 0 0%
deeplearning 调参经验? 0 0%
CNN为什么可以应用在CV、NLP、SPEECH乃至ALPHA GO中? 0 0%
什么是卷积? 0 0%
什么是CNN的池化 0 0%
简述下什么是生成对抗网络? 0 0%
请用js写出几种常见的排序算法? 0 0%