面试题目系列又上线了,AI学员们收藏关注不迷路~
没有废话,直接上硬菜了~嘻嘻
问题:深度学习和过往的神经网络训练方法有什么区别?列举几种深度学习的loss function ,并说明意义
答案:深度学习是一种方法,神经网络是个模型,深度学习方法呢可以有效解决层数多的神经网络不好学习的问题,为了让层数较多的多层神经网络可以训练,能够起作用并演化出来的一系列的 新的结构和新的方法;
结构:一般分为两大阵营,CNN,RNN,感觉这里欠妥,请指正。
方法:权重初始化方法(逐层初始化,XAVIER 等),损失函数,防止过拟合方法(Dropout, BN 等)。
这些方面主要都是为了解决传统的多层神经网络的一些不足:梯度消失,过拟合等。
分类问题常用的损失函数:
(1)交叉熵损失函数,也称作softmax 损失函数,可用于解决多分类问题,通过指数化将输出转换成概率的形式;
(2)合页损失函数,一般情况下,交叉熵损失函数的效果优于合页损失函数;
(3)坡道损失函数,对离群点或者噪声的抗干扰能力强,是一种鲁棒性的损失函数,对误差较大的区域会进行截断;
(4)大间隔损失函数,保证能够正确分类的同时,还满足增大类间的差异,提升了特征的分辨能力,防止网络发生过拟合;
(5)中心损失函数,保证能够正确分类的同时,还满足减少类内的差异,提升了特征的分辨能力;
回归问题常用的损失函数:
(1)l1 损失函数,衡量的是预测值与真实值之间的偏差;
(2)l2 损失函数,效果 优于l1;
(3)tukey‘s biweight 损失函数,是一种具有鲁棒性的损失函数;
其他任务的损失函数:
KL 散度损失函数,衡量的是样本标记分布与真是标记分布的差异,可用于年龄估计等。
问题:什么是卷积神经网络?请说明卷积的意义
答案:分开看就明确了,“卷积” 和 “神经网络”.
卷积也就是说神经网络不再是对每个像素的输入信息做处理了,而是图片上每一小块像素区域进行处理, 这种做法加强了图片信息的连续性. 使得神经网络能看到图形, 而非一个点. 这种做法同时也加深了神经网络对图片的理解.
具体来说, 卷积神经网络有一个批量过滤器, 持续不断的在图片上滚动收集图片里的信息,每一次收集的时候都只是收集一小块像素区域, 然后把收集来的信息进行整理, 这时候整理出来的信息有了一些实际上的呈现, 比如这时的神经网络能看到一些边缘的图片信息, 然后在以同样的步骤, 用类似的批量过滤器扫过产生的这些边缘信息, 神经网络从
这些边缘信息里面总结出更高层的信息结构,比如说总结的边缘能够画出眼睛,鼻子等等.
卷积的重要的物理意义是:一个函数(如:单位响应)在另一个函数(如:输入信号)上的加权叠加,这就是卷积的意义:加权叠加,不同的卷积核提供了不同的加权方式,从而得到鲁棒的特征,进行参数共享,大大减少了参数量,避免过拟合;
问题:什么是中文分词 ?列举出几种你所知的分词方法
答案:中文分词就是将中文按语义分出词语来
原文链接:https://blog.csdn.net/weixin_39669265/article/details/112963500?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522171851498716800186542559%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fblog.%2522%257D&request_id=171851498716800186542559&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~blog~first_rank_ecpm_v1~times_rank-11-112963500-null-null.nonecase&utm_term=AI%E9%9D%A2%E8%AF%95