机器学习:如何理解机器学习中的逻辑回归?逻辑回归和线性回归的区别 机器学习
本文目录
- 机器学习:如何理解机器学习中的逻辑回归
- 逻辑回归和线性回归的区别 机器学习
- 各种机器学习算法的应用场景分别是什么(比如朴素贝叶斯、决策树、K近邻、SVM、逻辑回归最大熵模型)
- 机器学习故事汇-逻辑回归算法
- 弱分类器的强势体 逻辑回归算法与推导
- 机器学习中的损失函数
- 请问逻辑回归中的偏导数推导
- 为什么逻辑回归用z test
机器学习:如何理解机器学习中的逻辑回归
线性回归要求因变量必须是连续性数据变量;逻辑回归要求因变量必须是分类变量,二分类或者多分类的;比如要分析性别、年龄、身高、饮食习惯对于体重的影响,如果这个体重是属于实际的重量,是连续性的数据变量,这个时候就用线性回归来做;如果将体重分类,分成了高、中、低这三种体重类型作为因变量,则采用logistic回归。延展回答: 逻辑回归又称logistic回归分析,是一种广义的线性回归分析模型,常用于数据挖掘,疾病自动诊断,经济预测等领域。例如,探讨引发疾病的危险因素,并根据危险因素预测疾病发生的概率等。以胃癌病情分析为例,选择两组人群,一组是胃癌组,一组是非胃癌组,两组人群必定具有不同的体征与生活方式等。线性回归是利用数理统计中回归分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法,运用十分广泛。其表达形式为y = w’x+e,e为误差服从均值为0的正态分布。回归分析中,只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。在统计学中,线性回归(Linear Regression)是利用称为线性回归方程的最小平方函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。这种函数是一个或多个称为回归系数的模型参数的线性组合。只有一个自变量的情况称为简单回归,大于一个自变量情况的叫做多元回归。
逻辑回归和线性回归的区别 机器学习
逻辑回归:y=sigmoid(w’x)线性回归:y=w’x也就是逻辑回归比线性回归多了一个sigmoid函数,sigmoid(x)=1/(1+exp(-x)),其实就是对x进行归一化操作,使得sigmoid(x)位于0~1逻辑回归通常用于二分类模型,目标函数是二类交叉熵,y的值表示属于第1类的概率,用户可以自己设置一个分类阈值。线性回归用来拟合数据,目标函数是平法和误差
各种机器学习算法的应用场景分别是什么(比如朴素贝叶斯、决策树、K近邻、SVM、逻辑回归最大熵模型)
应用场景和算法不是一个绝对的依赖关系。
应用场景落地如果需要取得比较理想的效果,需要依赖算法,算力,数据等多方面的条件结合。
下面东方林语列出了一个数据场景技术的7区域评估模型可以参考一下,对每个区域,需要注意的关键点也做了一个说明:
所以,无论是朴素贝叶斯,决策树,K近邻,SVM,逻辑回归等,都是传统机器学习算法的某一种。在不同的数据和场景条件下,会发挥不同的价值,但仍旧需要具体问题具体分析,很难界定出一个与场景相匹配的算法条件与标准。
另外,专家规则的价值,在现阶段仍旧非常重要。
人工智能技术,也还包括了深度学习,强化学习,迁移学习,联邦学习,自监督学习等多个分支。
最重要的是,很多场景,需要多种技术结合,才能真正发挥更大的价值。
比如,以用户画像为例,为了做好目标用户的实时精准画像,需要机器学习,统计学,信息检索,NLP,大数据存储,大数据实时计算等多项技术的综合技能。
任何一项技术如果存在短板,都会影响场景落地最终价值的效果。
所以,各种机器学习算法和框架,相当于是场景落地的“发动机”,但要打造成一辆真正有价值的“汽车”,还需要各种工程化的环节相结合,才能真正发挥出相应的价值。
机器学习故事汇-逻辑回归算法
机器学习故事汇-逻辑回归算法今天我们要来讨论的一个分类算法-逻辑回归(你有没有搞错,这不还是回归吗,虽然名字带上了回归其实它是一个非常实用的分类算法)。,适合对数学很头疼的同学们,小板凳走起! 先来吹一吹逻辑回归的应用,基本上所有的机器学习分类问题都可以使用逻辑回归来求解,当前拿到一份数据想做一个分类任务的时候第一手准备一定要拿逻辑回归来尝试(虽然有很多复杂的模型比如神经网络,支持向量机的名气更大,但是逻辑回归却更接地气,用的最多的还是它)!在机器学习中无论是算法的推导还是实际的应用一直有这样的一种思想,如果一个问题能用简单的算法去解决那么绝对没必要去套用复杂的模型。 在逻辑回归中最核心的概念就是Sigmoid函数了,首先我们先来观察一下它的自变量取值范围以及值域,自变量可以是任何实数(这没啥特别的!)但是我们观察值域的范围是不就恰好是这个概率吗! 在这里我们的预测函数还是跟线性回归没有多大差别,只不过我们将结果又输入到Sigmoid函数中,这样得到了数据属于类别的概率值。在推导过程中,我们假定分类是两个类别的(逻辑回归是经典的而分类器)。设定y(标签)要么取0要么取1,这样就可以把两个类别进行整合,得到一个更直观的表达。 对于逻辑回归的求解,已然沿用我们上次跟大家讨论的梯度下降算法。给出似然函数,转换对数似然(跟线性回归一致),但是我们现在的优化目标却跟之前不太一样了,线性回归的时候我们要求解的是最小值(最小二乘法),但是现在我们想得到的却是使得该事件发生得最大值,为了沿用梯度下降来求解,可以做一个简单的转换添加一个负号以及一个常数很简单的两步就可以把原始问题依然转换成梯度下降可以求解的问题。 此处求导过程看起来有些长,但也都是非常非常基本的运算了,感兴趣拿起一支笔来实际算算吧! 最终就是参数更新了,迭代更新是机器学习的常规套路了。但是我们来简单想一想另外的一个问题,现在我们说的逻辑回归是一个二分类算法,那如果我的实际问题是一个多分类该怎么办呢?这个时候就需要Softmax啦,引入了归一化机制,来将得分值映射成概率值。最后一句话总结一下吧,任何时候(没错就是这么狠)当我们一个实际任务来了,第一个算法就是逻辑回归啦,可以把它当成我们的基础模型,然后不断改进对比!
弱分类器的强势体 逻辑回归算法与推导
弱分类器的强势体:逻辑回归算法与推导逻辑回归的函数表达式为 用极大似然估计求解每个样本发生的后验概率为则所以样本发生总概率即似然函数为L(θ)即为目标函数,-L(θ)即为loss函数,求-L(θ)最小对数L(θ)函数为 对θ求导,即无法求解。用梯度下降法逼近最佳值,这里用的是梯度上升法,因为要求L(θ)最大值,其实道理一样。整体梯度上升算法:初始化wT=1重复直至收敛:计算整体梯度(?l(θ)/?θ)根据θ+α*(?l(θ)/?θ)来更新回归系数wT随机梯度上升算法:初始化wT=1重复直至收敛:计算随机每个样本梯度(?l(θ)/?θ)根据θ+α*(?l(θ)/?θ)来更新回归系数wT逻辑回归的优点是实现简单,分类快。缺点是容易欠拟合,只能处理二分类问题(加上softmax优化可用于多分类),但是必须是线性可分的数据。
机器学习中的损失函数
机器学习中的损失函数损失函数(loss function)是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。模型的结构风险函数包括了经验风险项和正则项,通常可以表示成如下式子: 其中,前面的均值函数表示的是经验风险函数,L代表的是损失函数,后面的是正则化项(regularizer)或者叫惩罚项(penalty term),它可以是L1,也可以是L2,或者其他的正则函数。整个式子表示的意思是找到使目标函数最小时的值。下面主要列出几种常见的损失函数。一、log对数损失函数(逻辑回归)有些人可能觉得逻辑回归的损失函数就是平方损失,其实并不是。平方损失函数可以通过线性回归在假设样本是高斯分布的条件下推导得到,而逻辑回归得到的并不是平方损失。在逻辑回归的推导中,它假设样本服从伯努利分布(0-1分布),然后求得满足该分布的似然函数,接着取对数求极值等等。而逻辑回归并没有求似然函数的极值,而是把极大化当做是一种思想,进而推导出它的经验风险函数为:最小化负的似然函数(即max F(y, f(x)) —-》 min -F(y, f(x)))。从损失函数的视角来看,它就成了log损失函数了。log损失函数的标准形式:L(Y,P(Y|X))=?logP(Y|X)L(Y,P(Y|X))=?log?P(Y|X)刚刚说到,取对数是为了方便计算极大似然估计,因为在MLE中,直接求导比较困难,所以通常都是先取对数再求导找极值点。损失函数L(Y, P(Y|X))表达的是样本X在分类Y的情况下,使概率P(Y|X)达到最大值(换言之,就是利用已知的样本分布,找到最有可能(即最大概率)导致这种分布的参数值;或者说什么样的参数才能使我们观测到目前这组数据的概率最大)。因为log函数是单调递增的,所以logP(Y|X)也会达到最大值,因此在前面加上负号之后,最大化P(Y|X)就等价于最小化L了。逻辑回归的P(Y=y|x)表达式如下:P(Y=y|x)=11+exp(?yf(x))P(Y=y|x)=11+exp(?yf(x))将它带入到上式,通过推导可以得到logistic的损失函数表达式,如下:L(y,P(Y=y|x))=log(1+exp(?yf(x)))L(y,P(Y=y|x))=log?(1+exp(?yf(x)))逻辑回归最后得到的目标式子如下: 如果是二分类的话,则m值等于2,如果是多分类,m就是相应的类别总个数。这里需要解释一下:之所以有人认为逻辑回归是平方损失,是因为在使用梯度下降来求最优解的时候,它的迭代式子与平方损失求导后的式子非常相似,从而给人一种直观上的错觉。这里有个PDF可以参考一下:Lecture 6: logistic regression.pdf.二、平方损失函数(最小二乘法, Ordinary Least Squares )最小二乘法是线性回归的一种,OLS将问题转化成了一个凸优化问题。在线性回归中,它假设样本和噪声都服从高斯分布(为什么假设成高斯分布呢?其实这里隐藏了一个小知识点,就是中心极限定理,可以参考【central limit theorem】),最后通过极大似然估计(MLE)可以推导出最小二乘式子。最小二乘的基本原则是:最优拟合直线应该是使各点到回归直线的距离和最小的直线,即平方和最小。换言之,OLS是基于距离的,而这个距离就是我们用的最多的欧几里得距离。为什么它会选择使用欧式距离作为误差度量呢(即Mean squared error, MSE),主要有以下几个原因:简单,计算方便;欧氏距离是一种很好的相似性度量标准;在不同的表示域变换后特征性质不变。平方损失(Square loss)的标准形式如下:(Y,f(X))=(Y?f(X))2L(Y,f(X))=(Y?f(X))2当样本个数为n时,此时的损失函数变为:Y-f(X)表示的是残差,整个式子表示的是残差的平方和,而我们的目的就是最小化这个目标函数值(注:该式子未加入正则项),也就是最小化残差的平方和(residual sum of squares,RSS)。而在实际应用中,通常会使用均方差(MSE)作为一项衡量指标,公式如下:MSE=1n∑i=1n(Yi~?Yi)2MSE=1n∑i=1n(Yi~?Yi)2上面提到了线性回归,这里额外补充一句,我们通常说的线性有两种情况,一种是因变量y是自变量x的线性函数,一种是因变量y是参数的线性函数。在机器学习中,通常指的都是后一种情况。三、指数损失函数(Adaboost)学过Adaboost算法的人都知道,它是前向分步加法算法的特例,是一个加和模型,损失函数就是指数函数。在Adaboost中,经过m此迭代之后,可以得到: Adaboost每次迭代时的目的是为了找到最小化下列式子时的参数 和G: 而指数损失函数(exp-loss)的标准形式如下 可以看出,Adaboost的目标式子就是指数损失,在给定n个样本的情况下,Adaboost的损失函数为: 关于Adaboost的推导,可以参考Wikipedia:AdaBoost或者《统计学习方法》P145.四、Hinge损失函数(SVM)在机器学习算法中,hinge损失函数和SVM是息息相关的。在线性支持向量机中,最优化问题可以等价于下列式子:下面来对式子做个变形,令:于是,原式就变成了:如若取,式子就可以表示成:可以看出,该式子与下式非常相似: 前半部分中的就是hinge损失函数,而后面相当于L2正则项。Hinge 损失函数的标准形式可以看出,当|y|》=1时,L(y)=0。更多内容,参考Hinge-loss。补充一下:在libsvm中一共有4中核函数可以选择,对应的是-t参数分别是:0-线性核;1-多项式核;2-RBF核;3-sigmoid核。五、其它损失函数除了以上这几种损失函数,常用的还有:0-1损失函数绝对值损失函数下面来看看几种损失函数的可视化图像,对着图看看横坐标,看看纵坐标,再看看每条线都表示什么损失函数,多看几次好好消化消化。OK,暂时先写到这里,休息下。最后,需要记住的是:参数越多,模型越复杂,而越复杂的模型越容易过拟合。过拟合就是说模型在训练数据上的效果远远好于在测试集上的性能。此时可以考虑正则化,通过设置正则项前面的hyper parameter,来权衡损失函数和正则项,减小参数规模,达到模型简化的目的,从而使模型具有更好的泛化能力。
请问逻辑回归中的偏导数推导
我们求最大似然函数参数的立足点是步骤C,即求出每个参数方向上的偏导数,并让偏导数为0,最后求解此方程组。由于中参数数量的不确定,考虑到可能参数数量很大,此时直接求解方程组的解变的很困难。于是,我们用随机梯度上升法,求解方程组的值。
为什么逻辑回归用z test
logit模型以极大似然法估计出参数及其标准差,这两个估计量之比并不服从t分布。1.logit模型以极大似然法估计出参数及其标准差,这两个估计量之比并不服从t分布。并且clogit与nlogit给出的也是z统计量。 2.Cambridge University Press-Microeconometrics Methods and Applications(2006) 书上的介绍用什么检验统计量,需要推导公式的。ols的线性回归的系数是t。计量书上有专门的对到t统计量的构筑过程。而ML估计后的参数的检验的统计量一般是wald统计量。
更多文章:

debian安装docker(如何在docker中安装ubuntu系统)
2025年3月3日 07:30

kubuntu和ubuntu(直接安装kubuntu和先装ubuntu再装个KDE桌面有什么区别)
2025年2月17日 04:10

安卓app下载链接(安卓手机除了迅雷什么还可以下载磁力链接国内的软件)
2025年2月16日 05:20

数据库文档生成工具(如何使用动软代码生成器连接oracle生成数据库设计文档)
2025年4月1日 09:50

android难学吗(android好学么没有基础可以学习android开发吗)
2025年4月2日 07:20

visualsvn server使用教程(linux怎么visualsvn server)
2025年2月14日 08:20

4块硬盘做raid5还是10(做raid时,应该选哪几个硬盘)
2025年3月6日 08:10

使命召唤ol(codol)体验服怎么进去!?codol算不算动视暴雪
2025年3月2日 04:50