B站:啥都会一点的研究生
公众号试读:啥都会一点的研究生
目录
- 说说你项目中怎么选择开发平台的?
- 说说你怎么进行超参数调优的?
- 说说为什么需要Batch Size?
- 说说归一化的目的?
- 说说局部最优与全局最优?
- 说说监督学习与非监督学习的区别?
- 说说监督学习有哪些步骤?
- 说说为什么神经网络越来越深?
- 说说神经网络变深的意义?
- 说说为什么深度神经网络较浅层网络难以训练?
- 说说超参数搜索过程?
- 说说什么是模型微调Fine tuning?
- 说说Fine tuning时是否会更新网络参数,为什么?
- 说说Fine tuning模型有哪些方法?
- 说说误差、噪声、偏差、方差的区别与联系?
- 说说熵是什么?
- 说说梯度消失、爆炸的解决方案?
- 说说深度学习为什么不用二阶优化?
- 说说什么是TOP5错误率?
说说你项目中怎么选择开发平台的?
1.与现有编程平台、技能整合的难易程度。
2.与相关机器学习、数据处理生态整合的紧密程度。是否具有方便的数据预处理工具,是否支持可视化、统计推断、数据分析。
3.对数据量及硬件的要求和支持。
4.平台的成熟度,定期维护以及社区活跃。
5.平台利用是否多样,移植性好。
注:现有的AI开源平台主要有 Caffe, PyTorch, MXNet, CNTK, Theano, TensorFlow, Keras, fastai等。
说说你怎么进行超参数调优的?
1.猜测和检查:根据经验或直觉,选择参数,一直迭代。
2.网格搜索:让计算机尝试在一定范围内均匀分布的一组值。
3.随机搜索:让计算机随机挑选一组值。
4.贝叶斯优化:使用贝叶斯优化超参数,会遇到贝叶斯优化算法本身就需要很多的参数的困难。
原文链接:https://blog.csdn.net/zzh516451964zzh/article/details/123068619?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522171851498716800184179110%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fblog.%2522%257D&request_id=171851498716800184179110&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~blog~first_rank_ecpm_v1~times_rank-20-123068619-null-null.nonecase&utm_term=AI%E9%9D%A2%E8%AF%95