博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
机器学习中的正则化和范数规则化
阅读量:7168 次
发布时间:2019-06-29

本文共 1251 字,大约阅读时间需要 4 分钟。

正则化和范数规则化

文章安排:文章先介绍了正则化的定义,然后介绍其在机器学习中的规则化应用L0、L1、L2规则化范数和核范数规则化,最后介绍规则化项参数的选择问题。

正则化(regularization)来源于线性代数理论中的不适定问题,求解不适定问题的普遍方法是:用一族与原不适定问题相“邻近”的适定问题的解去逼近原问题的解,这种方法称为正则化方法。如何建立有效的正则化方法是反问题领域中不适定问题研究的重要内容。通常的正则化方法有基于变分原理的Tikhonov正则化、各种迭代方法以及其它的一些改进方法,这些方法都是求解不适定问题的有效方法,在各类反问题的研究中被广泛采用,并得到深入研究。

在欧式空间中,两个空间等价是可以建立一一映射关系,但在现实世界中,我们得到的数据往往是病态的(比如用户评价数据中很多的空值),这时就无法建立这样的映射。而数学讲究退而求其次的思想,比如降低维度或加入一些约束参数,使其可以建立这样的映射。详细数学理论:

机器学习中的正则化来源于数据训练。若训练数据数量少儿特征多,容易出现过拟合。直观来讲,防止过拟合目的就是训练出来的模型不要过分依赖某一维(或几维)的特征。而规则化项的引入,在训练(最小化cost)的过程中,当某一维的特征所对应的权重过大时,而此时模型的预测和真实数据之间距离很小,通过规则化项就可以使整体的cost取较大的值,从而,在训练的过程中避免了去选择那些某一维(或几维)特征的权重过大的情况,即过分依赖某一维(或几维)的特征。

正则化在某种意义上来讲引入了参数的先验分布,减少参数的选择空间,放到广义线性模型中,就是对一些基函数作了取舍(参数不至于过大,那么对应的基函数对最终结果的贡献也就很小,通俗来讲就是不完全依赖数据集,有了自我的一些判断与选择)------->避免了过拟合。

关于机器学习中正则化的来源、原理可以参照吴立德老师的深度学习课程,不断强调可以在Loss函数后面加上正则化项以优化问题最小解,这对学习过程的训练目标函数很有效,详细可以参考:

(1)

(2)

(3)

(4)

(5)

(6)

(7)

(8)

(9)

(10)

(11)

(12)

关于正则化的应用典型例子就是最近很热的稀疏编码,相关链接

其原理很简单,将特征表示问题通过建模转化成目标优化问题,鉴于原始优化函数的非凸性质,陷入局部最优、难以求解等问题,于是提出了L1正则化,巧妙地得到稀疏项,成为特征表达的基函数。相关原理可以查看:09文中引用的nips06-sparsecoding.Pdf文章;博客可以查看下面链接:

Sparsityand Some Basics of L1 Regularization

 

下面针对机器学习中常用的规则化L0、L1与L2范数做详细的解释。(来源于博主,我做了相关整合和理解,若有侵犯博主,非常抱歉

具体原理可以查看链接文档:

机器学习中的范数规则化之L0、L1与L2范数 

L1 norm (稀疏编码的优化原理)

 

来源于:

转载地址:http://usmwm.baihongyu.com/

你可能感兴趣的文章
一些以太网非核心功能的标准
查看>>
oracle EBS 克隆之数据库克隆
查看>>
大型网站技术架构(八)网站的安全架构
查看>>
关于深度学习中优化问题的一些感受
查看>>
又写了一段Perl
查看>>
多态的静态绑定(CRTP手法)
查看>>
【python2】commands模块getstatusoutput函数的小问题
查看>>
oracle常用sql
查看>>
iOS之隐藏状态栏
查看>>
Script:ASM修复脚本,寻找LISTHEAD和Kfed源数据
查看>>
mysql ERROR 1045 (28000): Access denied for user解决方法
查看>>
locale::facet::_S_create_c_locale name not valid
查看>>
shell 中的常用技巧
查看>>
25个增强iOS应用程序性能的提示和技巧--中级篇
查看>>
java反射机制
查看>>
Quartz结合SPRING多任务定时调用
查看>>
Twitter的API使用方法
查看>>
inotify实时监控程序安装
查看>>
关于springmvc中DispatcherServlet问题
查看>>
Pentaho6.1 CCC/CDE tool 的Extension points属性详解
查看>>