藏书吧 通过搜索各大小说站为您自动抓取各类小说的最快更新供您阅读!

白盒模型和黑盒模型,就是人工智能的两种算法,白盒顾名思义,可以用人的理解,就是决策树,叶子大于5放左边,叶子小于五放右边,然后继续往下一层,就是无限的分类,可以理解,而黑盒模型就不一样了,是机器学习,多层神经网络,每个层的一定数量神经元全连接,数据反复自己的调参,加权重,也就是什么数据重要,什么不重要,但都要,只是分量不一样,然后还会根据结果是否准确率高再删除一些数据,再进行反向调参,正向叫线性编程,反向就是回归,反正就是倒腾几百万次,数据变来变去,人无法理解,最后出来一个模型,就可以跟现有数据高度吻合

这是一个白盒模型,决策树,可以一层层的分类,容易理解。

正则化(Regularization):原理、方法与应用

在机器学习和深度学习中,过拟合(overfitting) 是模型训练的核心挑战之一 —— 模型在训练数据上表现极佳,但在未见过的测试数据上泛化能力差。正则化正是解决这一问题的关键技术,其核心思想是通过在损失函数中引入 “惩罚项”,限制模型参数的复杂度,迫使模型学习更简单、更具泛化性的特征,而非死记硬背训练数据中的噪声。

一、正则化的核心目标与本质

1. 核心目标

平衡 “模型拟合能力” 与 “泛化能力”:避免模型因过度追求训练误差最小化,而忽略对新数据的适应性。

控制模型复杂度:复杂度过高的模型(如高次多项式、深层神经网络)易学习训练数据中的噪声,正则化通过约束参数规模降低复杂度。

2. 本质理解

正则化的本质是 **“奥卡姆剃刀原理” 在机器学习中的体现 **—— 在多个能拟合数据的模型中,选择 “最简单”(参数更简洁、特征更通用)的模型,其泛化能力通常更强。例如:用多项式拟合数据时,一次函数(y=ax+b)比五次函数(y=ax?+bx?+...+e)更简单,若两者在训练数据上误差接近,一次函数对新数据的预测更稳定。

二、经典正则化方法(针对传统机器学习)

传统机器学习(如线性回归、逻辑回归、支持向量机)中,正则化主要通过对模型参数的 “范数惩罚” 实现,常见有 L1、L2 正则化,以及两者结合的 Elastic Net。

1. L2 正则化(岭回归,Ridge Regression)

原理

L2 正则化通过在损失函数中加入参数的平方和惩罚项,限制参数的 “整体规模”(避免参数值过大)。以线性回归为例:

原始损失函数(均方误差 mSE加入 L2 正则后的损失函数:其中:(正则化强度):控制惩罚力度,时退化为原始模型,越大惩罚越强(参数越接近 0):模型的权重参数(不含偏置项,因偏置项仅影响整体偏移,不直接导致过拟合):为了求导后抵消系数,简化计算(非必需,仅影响的数值尺度)。

核心特点

参数 “收缩”(Shrinkage)

:L2 惩罚会让所有参数向 0 靠近,但不会将参数直接置为 0(参数值整体变小,但保留所有特征)。

抗噪声能力强

:参数值减小后,模型对输入数据的微小波动(噪声)更不敏感,泛化性提升。

适用场景

:特征之间存在相关性、不希望删除任何特征的场景(如医学特征,每个指标都可能有意义)。

2. L1 正则化(套索回归,Lasso Regression)

原理

L1 正则化通过在损失函数中加入参数的绝对值和惩罚项,实现 “参数稀疏化”(即强制部分参数变为 0,相当于删除冗余特征)。以线性回归为例,加入 L1 正则后的损失函数:核心特点

参数稀疏化

:L1 的绝对值惩罚会导致部分参数被 “压缩” 到 0,从而自动完成 “特征选择”(删除对模型贡献极小的特征)。例:用 Lasso 处理 “房价预测” 数据时,若 “小区绿化率” 的参数被置为 0,说明该特征对房价影响可忽略,模型训练时无需考虑。

计算挑战:绝对值函数在处不可导,传统梯度下降无法直接使用,需用 “次梯度下降”“坐标下降” 等特殊优化方法。

适用场景

:特征维度高、存在大量冗余特征的场景(如文本分类中的词袋模型,特征数可能达数万,需筛选核心词汇)。

3. L1 与 L2 的对比:为什么 L1 能稀疏化?

L1 和 L2 的核心差异源于惩罚项的 “几何形状”,可通过 “约束域” 直观理解:假设模型仅含两个参数和,正则化等价于在 “参数空间” 中加入一个约束域,损失函数的最优解需落在 “约束域与损失函数等高线的切点” 上:

L2 的约束域是圆形:切点通常不在坐标轴上,因此参数不会为 0;

L1 的约束域是正方形:正方形的顶点在坐标轴上(如,切点更易落在顶点,导致某一参数为 0。

对比维度

L1 正则化(Lasso)

L2 正则化(Ridge)

惩罚项形式(绝对值和)(平方和)参数效果部分参数置为 0(稀疏化 \/ 特征选择)

所有参数缩小,不置为 0

抗多重共线性

弱(可能删除相关特征中的一个)

强(通过缩小参数缓解相关性影响)

优化难度

高(不可导,需特殊方法)

低(可导,支持梯度下降)

适用场景

高维、冗余特征数据

特征均有意义、需保留所有特征

4. Elastic Net(弹性网络):L1 与 L2 的结合

为兼顾 L1 的 “特征选择” 和 L2 的 “抗共线性”,Elastic Net 同时引入 L1 和 L2 惩罚项,损失函数为:其中控制 L1 强度,控制 L2 强度。适用场景:特征维度极高且存在多重共线性的场景(如基因数据,特征数远大于样本数,且基因间存在相关性)。

三、深度学习中的正则化方法

深度学习模型(如 cNN、transformer)参数规模庞大(动辄千万级),过拟合风险更高,除了上述 L1\/L2,还需针对性的正则化技术。

1. 权重衰减(weight decay)

本质

:深度学习中 L2 正则化的常用实现方式,通过在优化器中直接对参数进行 “按比例衰减”(如 SGd、Adam 优化器均支持weight_decay参数)。

原理

:每次参数更新时,先将参数乘以一个小于 1 的系数(如 0.99),再进行梯度下降,等价于在损失函数中加入 L2 惩罚项。

注意

:权重衰减仅作用于权重参数,不作用于偏置项和 batchNorm 的参数(因这些参数对模型复杂度影响小)。

2. dropout(随机失活)

原理

(以全连接层为例):训练时,随机 “关闭”(置为 0)一部分神经元(比例由参数p控制,通常取 0.2~0.5),迫使模型不依赖某一特定神经元,学习更鲁棒的特征;测试时,不关闭任何神经元,而是将所有神经元的输出乘以

就是(或对权重进行缩放),保证输出分布一致。

示例

:一个含 100 个神经元的全连接层,p=0.5时,每次训练迭代会随机选择 50 个神经元置为 0,仅用剩余 50 个神经元计算;测试时,100 个神经元全部激活,输出乘以 0.5。

核心作用

:避免 “神经元共适应”(即多个神经元依赖彼此的错误特征),模拟 “集成学习”(每次训练都是一个不同的小模型,测试时融合所有小模型的预测)。

3. batch Normalization(批量归一化,bN)

原理

:对每一层的输入数据进行 “标准化”(使数据均值为 0、方差为 1),并引入可学习的缩放参数和偏移参数,增强模型灵活性。

正则化效果

:训练时,bN 使用 “批次内数据的均值和方差”,测试时使用 “训练过程中移动平均的均值和方差”,这种差异会给模型带来微小的噪声,间接抑制过拟合。

附加价值

:加速模型收敛(避免梯度消失 \/ 爆炸),允许使用更高的学习率,是深度学习的 “标配” 技术之一(虽非专门为正则化设计,但正则化效果显着)。

4. 早停(Early Stopping)

原理

:训练过程中,持续监控模型在验证集上的性能(如准确率、损失);当验证集性能不再提升(甚至下降)时,立即停止训练,避免模型继续学习训练数据中的噪声。

本质

:通过限制训练迭代次数,防止模型 “过度训练”,相当于在 “模型复杂度随训练次数增长” 的过程中,选择 “泛化能力最强” 的中间状态。

操作步骤

将数据分为训练集、验证集、测试集;

每次迭代后,计算验证集损失;

若验证集损失连续k次(如 10 次)未下降,停止训练,保存此时的模型参数。

5. 数据增强(data Augmentation)

原理

:通过对训练数据进行 “随机变换”(不改变标签),人工扩大训练集规模,让模型接触更多样化的样本,减少对原始数据噪声的依赖。

常见手段

(以图像数据为例):

几何变换:随机裁剪、翻转、旋转、缩放;

像素变换:随机调整亮度、对比度、饱和度、添加高斯噪声;

高级变换:mixUp(将两张图像按比例混合)、cutmix(将一张图像的部分区域替换为另一张图像)。

核心优势

:不增加模型复杂度,仅通过数据层面的优化提升泛化能力,是计算机视觉、NLp(如文本同义词替换)中最常用的正则化方法之一。

6. 其他深度学习正则化技术

Label Smoothing(标签平滑)

:将硬标签(如分类任务的 [0,1,0])替换为软标签(如 [0.1,0.8,0.1]),避免模型对 “正确标签” 过度自信,缓解过拟合。

mixUp\/cutmix

:通过样本混合,让模型学习更通用的特征(如 mixUp 将 “猫” 和 “狗” 的图像混合,标签按比例分配,迫使模型关注 “毛发”“耳朵” 等通用特征而非噪声)。

知识蒸馏(Knowledge distillation)

:用 “复杂教师模型” 的输出指导 “简单学生模型” 训练,学生模型在继承教师模型泛化能力的同时,保持低复杂度。

四、正则化的关键实践要点

正则化强度的选择是正则化的核心超参数,需通过交叉验证(cross-Validation) 确定:

尝试多个值(如 0.001, 0.01, 0.1, 1, 10);

对每个,用 K 折交叉验证(如 5 折)训练模型,计算验证集平均性能;

选择使验证集性能最优的

过大易导致 “欠拟合”,即模型过于简单,无法拟合数据规律)。

数据预处理的影响L1\/L2 正则化对特征尺度敏感(如 “收入”(万元级)和 “年龄”(十位数)的参数规模差异大,惩罚时会偏向缩小 “收入” 参数),因此需先对特征进行标准化(Standardization) 或归一化(Normalization),使所有特征处于同一尺度。

不同模型的正则化选择

传统线性模型:优先尝试 L2(Ridge),若特征冗余多则用 L1(Lasso)或 Elastic Net;

深度学习模型:基础组合为 “权重衰减 + dropout + 数据增强”,bN 通常作为标配,复杂任务可加入 Label Smoothing 或 mixUp;

小样本任务:数据增强和早停的效果更显着(因数据量少,模型易过拟合)。

五、总结

正则化是机器学习的 “防过拟合利器”,其核心是 “通过约束模型复杂度,提升泛化能力”。不同场景下需选择合适的正则化方法:

传统模型:L1(特征选择)、L2(抗共线性)、Elastic Net(兼顾两者);

深度学习:权重衰减、dropout、数据增强、早停等组合使用;

关键超参数

需通过交叉验证优化,避免欠拟合或过拟合。

掌握正则化技术,是从 “训练出高准确率模型” 到 “训练出稳定泛化模型” 的关键一步。

藏书吧推荐阅读:地府归来,无情无义她杀疯了异世东京,携美丽式神驱邪除灵柠檬精老公的马甲掉了我就是能力多点你们慌啥我和美女室友的那些事我有一个世界,狗头金随便捡六零媳妇凶猛开局领导被抓,女友分手华语金曲肆虐,pdd反向抽烟书海第一混乱隐婚娇妻boss爱上瘾王大伦的演艺生涯游戏制作:论玩家为何又爱又恨重生之水墨一遇男神暖终身重生狂妻:夫人惊艳了全球娱乐:你是警察啊,咋成了狗仔王反派:离未婚妻来退婚还剩7天弃少归来,无法无天!左手黑剑,右手白剑,爆杀一切穿越八零:帝少老公VS俏农媳带上五岁妹妹走天下一不小心穿越成了老天爷东莞的爱情总让人意难平影视反派:从攻略欢乐颂开始支付九十九元:为你缔造神秘葬礼高武世界:那个书呆子居然开挂!我家仙府太费钱重生之绝世废少云龙山医仙黑色家族的秘婚:魅宠7分77秒我每天获得一百个舔狗愿做人间一散仙我的老婆怎么能这么可爱?兼职神豪,我真不是榜一大哥九零小夫妻的渔民生活现代武客行浴火重生:凤逆天下逍遥医圣神行无道将我除名?特种部队跪求我加入!重生八六幸福军婚徒儿太强了,九个师娘求放过重生80:我带全家起飞!嫁给权臣后,女配被娇宠了重生,和五个校花的日常团宠狂妃倾天下你是在做梦吗你是我的生生世世陆晨旭莫晓蝶
藏书吧搜藏榜:重生官场:我真的不想再升职了重生之重启2004漫威有间酒馆在黑暗中守护我真不想当神剑主,妹妹逼的!四合院之我是刘光齐某生物正虎视眈眈盯着我们软饭不软,闲婿不闲齐少的心肝天天闹这个明星来自地球闪婚七零俏中医,京城大佬宠上天超级银行卡系统房爹在手天下我有不要和奸臣谈恋爱绝世小神医这就是套路巨星真千金断亲随军,禁欲大佬日日宠反派手挽手,八零抖一抖八七暖婚之肥妻逆袭娇妻还小,总裁要趁早穿书反派:坏了,我成反派黄毛了娱乐秦时清冷白月光,是我意中人修仙正史天眼邪医御妻无术满级大佬她又掉马了大佬约我民政局见我的尤物总裁老婆妃常难驯:病娇战王,超级宠明渣好躲,暗夫难防我要赚10000亿全民游戏,我搬运小说开创功法四合院:我许大茂彻底黑化六经刀重生之股动人生修行的世界恐女的我和美少女旅行日常第一神婿鲤鱼王的精灵模拟器寡夫从良记我就打个游戏,怎么称霸宇宙了?我与极品美女特卫:中南海保镖穿越后,我成了国民女神道童下山,诸神退位止域主宰全系异能,我的天赋强到战力崩塌祈愿夏可嫡妃的逆袭豪门新欢
藏书吧最新小说:末世修仙,普通人逆袭成仙开局透视眼:赌场封神千王路科技突围:从省委大院开始成年人的无奈不屈中华从表面上我应该是个武者的哥逆袭:从方向盘到财富榜逆袭万界四合院异能逆袭官场诱惑灵气复苏:我靠炼器无敌都市异能之逆袭平行蓝星,准备摆烂却又被套牢!地核里面淘点金华夏无神?我捡的少女是西王母!神之手:执掌万物蓝图开局支援藏西,我成了封疆大吏第十医院,专治异能病服务员?不,我是京圈小少爷抗战之海棠血泪诸天万界人生体验开局觉醒顶级异能,我要爽活一世娱乐:顶流小花怀里钻,我摊牌了欢喜:系统加持,校花房东太温柔港片:系统加持,舞女献媚尽风流香江的亚洲时代重返1979:从赤脚医生到国医时空守墓者高武:从琴姨上门道歉开始无敌重生:回到1983当富翁权欲之涡重庆谍战:敌特在行动激活万倍返还后,女神绷不住了死神当保镖!冰山总裁她心动了重生后,我从医神开始登上神坛我在不存在的古代行佛废土纪元:我的御兽有亿点特殊抗日战争之东方战场傻子得道成医仙高武:破灭虚空签到!从穷鬼到都市神话我的肉身是熔炉,神明也是燃料御兽之神:两个神级天赋就是狂!被首富认亲,修仙者身份藏不住了开局一颗海王珠,无边大海任逍遥都市修真:神医归来,已天下无敌重生:跟丈母娘搭伙,赶山致富!开局十连抽,我获得万倍天赋情绪共享之神民国:我是大泼皮