人工智能大数据,工作效率生产力
Ctrl + D 收藏本站,更多好用AI工具
当前位置:首页 » AI资讯

人工智能、深度学习、机器学习常见面试题121~140

2024-07-08 62

121.逻辑斯蒂回归能否解决非线性分类问题?

人工智能、深度学习、机器学习常见面试题121~140插图

122.SVM的主要特点 

(1)非线性映射-理论基础 
(2)最大化分类边界-方法核心 
(3)支持向量-计算结果 
(4)小样本学习方法 
(5)最终的决策函数只有少量支持向量决定,避免了“维数灾难” 
(6)少数支持向量决定最终结果—->可“剔除”大量冗余样本+算法简单+具有鲁棒性(体现在3个方面) 
(7)学习问题可表示为凸优化问题—->全局最小值 
(8)可自动通过最大化边界控制模型,但需要用户指定核函数类型和引入松弛变量 
(9)适合于小样本,优秀泛化能力(因为结构风险最小) 
(10)泛化错误率低,分类速度快,结果易解释

123.SVM为什么采用间隔最大化?

当训练数据线性可分时,存在无穷个分离超平面可以将两类数据正确分开。
感知机利用误分类最小策略,求得分离超平面,不过此时的解有无穷多个。
线性可分支持向量机利用间隔最大化求得最优分离超平面,这时,解是唯一的。另一方面,此时的分隔超平面所产生的分类结果是最鲁棒的,对未知实例的泛化能力最强。
然后应该借此阐述,几何间隔&#

原文链接:https://blog.csdn.net/ccsss22/article/details/126339266?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522171851498716800213068334%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fblog.%2522%257D&request_id=171851498716800213068334&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~blog~first_rank_ecpm_v1~times_rank-20-126339266-null-null.nonecase&utm_term=AI%E9%9D%A2%E8%AF%95

相关推荐

阅读榜

hellenandjeckett@outlook.com

加入QQ群:849112589

回顶部