人工智能大数据,工作效率生产力
Ctrl + D 收藏本站,更多好用AI工具
当前位置:首页 » AI资讯

AI面试总结_20190511

2024-07-06 55

一、随感

第一次AI面试结束,结果GG。想了想,感觉总得记录下些什么,毕竟也尝试了、争取了、更清楚的审视了当下的自己。

第一次AI面试源于公司的内部转岗申请,感谢领导给了机会,这不是客套话,真的感谢( ̄▽ ̄)。这里废话一句:机会都是自己争取的;面试是一个检验自己和认识自己的好方式。由于是内部转岗,就拿到了面试老师的评价,很客观:
1 深度学习基本的概念是知道的,常用的网络层损失函数也清楚,但网络训练的原理和一些常用超参数都还不是很明白
2 自己做过一个字符识别的project,从采集数据,标图到训练,流程还比较清楚,用的keras来训练
3 检测算法没有仔细了解,常用的分类网络没有训练经验
4 caffe和tf几乎是没有使用过
5 有根据github做过一个简单的手机端模型部署,后端部署不了解
整体来说,基础知识还不够扎实,训练经验比较少,处于自己学习的阶段。按照社招的标准是远远不够的,按照应届生的标准属于中上游。不过感觉上他还比较好学

结果也显而易见,由于是内部转岗,岗位又那么火,没有两把刷子真的是不行啊,要不然大家都转岗了,不便于公司管理,所以我后面又争取了,依然GG。

综上所述,自己当下还是有点菜。AI之路路漫漫其修远兮啊,不扯了,对照着面试不足继续坚持吧,期待下一个阶段的自己。

1、Conv:

(1)提取图像特征;缩小输出特征图尺寸;

(2)1*1卷积核用来模型的升维和降维操作(没有对图像做聚合,当前层和下一层为多层时起到一个跨通道的聚合作用)。

2、激活层:增强模型的非线性化。卷积层、全连接层后面

3、MaxPooling:

(1)全部使用卷积层模型较复杂,池化层简化模型,图像下采样

(2)一般跟在卷积层+激活层后面,一定程度上保证平移、旋转不变性

(3)放在模型的后端便于充分卷积操作提取图像特征,SqueeseNet中相比论文将MaxPooling提前了几层,提前进行降维操作较少模型计算量

4、全连接层:通过卷积层、激活函数、池化层提取特征,全连接层将特征整合在一起用于分类

(1)SqueezeNet采用1*1卷积层+AveragePooling替代全连接层

(2)卷积层实现全连接操作

14*14*512[(14*14*512)*2626]—>2626

14*14*512[14*14*512*2626]—>2626

5、BN

(1)使得输入层趋于正态分布,收敛过程大大加快,提升训练速度

(2)防止过拟合

(3)简化调参,初始化要求没那么高,而且可以使用大学习率

6、DO

7、NMS

预测框中选取置信度最大的矩形框M加入到输出矩形框中,同时遍历计算矩形框M与预测框IOU值,并删除预测框中小于IOU阈值的矩形框

8、交叉熵

熵是是所有信息量的期望,事件越不确定,熵越大(信息量和概率成反比)。交叉熵是衡量两个概率分布的差异,交叉熵损失一般用来求目标与预测值之间差距。

9、mAP

(1)准确率precision:预测正样本中真正正样本比例

召回率recall:GT正样本中被检测出来的真正正样本比例

(2)针对单个类别,根据不同的分类置信度阈值得到预测正样本(TP+FP)和预测负样本(TN+FN),再根据与GT标注框IOU阈值得到TP,FP,TN,FN,算出准确率和召回率;采用不同的分类置信度阈值得到不同准确率和召回率,绘制准确率、召回率曲线;置信度阈值越低,准确率越低,召回率越高

(3)根据横坐标recall等分:

设定[0,0.1,0.2…1]阈值,recall>阈值,取最大准确率,11个准确率取平均

根据正样本个数M设定阈值[1/M…],recall>阈值,取最大准确率,M个准确率取平均

10.1、过拟合原因

(1)数据不平衡

(2)训练集样本过于简单,不具备代表性

10.2、解决过拟合方法

(1)是否使用正则化:DO

(2)学习率是否过大

(3)模型是否过于复杂

(4)增加训练集数据样本

11、数据不平衡

数据层面:增加少的类别样本(数据增强),减少多的数据样本(随机删除)

算法层面:增加少的类别样本的损失权重

12、目标检测中one stage和two stage的区别

two stage是采用两个模型分别先进行目标的矩形框检测,再进行目标类别的识别
one stage是采用一个模型完成目标的矩形框检测和类别识别

13、学习率

(1)学习率过大:损失值震荡,无法收敛;学习率过小:训练过慢,无法找到全局最小值

(2)定值学习率;学习率连续衰减;学习率分段衰减

14、梯度动量:梯度变化越快,补偿值越小;梯度变化越平缓,补偿值越大

15、为什么用交叉熵损失做分类损失函数

交叉熵对参数的偏导数没有激活函数的导数

16、梯度为什么会消失,如何避免消失?

激活函数趋于饱和时梯度趋于0;采用梯度趋于饱和时梯度不趋于0的激活函数,如ReLu

17、反向传播链式法则

18、YOLO

原文链接:https://blog.csdn.net/sinat_29634715/article/details/89784778?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522171851498716800184179110%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fblog.%2522%257D&request_id=171851498716800184179110&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~blog~first_rank_ecpm_v1~times_rank-22-89784778-null-null.nonecase&utm_term=AI%E9%9D%A2%E8%AF%95

相关推荐

阅读榜

hellenandjeckett@outlook.com

加入QQ群:849112589

回顶部