首页  

机器学习基础     所属分类 AI 浏览量 592
逻辑回归 LR Logistic Regression 
机器学习常见的两类问题 分类和回归
常见的分类问题可以简化为数学问题
Y 分类类别  n 类别数
X 特征集合  m 特征总量
分类问题的本质是学习一个函数映射f(X;w) =Y, w为模型的参数

假设X和Y之间存在线性关系,即Y∝ wX,wX∈(-∞ ,∞)

分类问题中yi 为离散型数据,比如二分类问题,yi ={-1, 1}, 
在wX上添加一个sigmoid函数,该函数将(-∞ ,∞)之间的数字“压缩”到(0, 1)之间
这个压缩值可以看做是模型的置信度

f(X,w)=sigmoid(wX)

LR模型针对每个样本会输出样本对应的置信度
一般 如果f(xi,Θ)>=0.5, yi =1 , 反之yi = -1

参数Θ的学习可以转化为优化问题
LR 模型 损失函数
l(w) = log(1+exp(-ywTx))
常见的参数求解方法为随机梯度下降

随机梯度下降法求参的步骤
1 给定一个优化目标函数f(X, w)、迭代次数T以及学习率lr, 随机初始化参数w0
2 设定初始迭代次数t=0
3 for t = 0, 1, 2, ..., T:
4 计算g=fw’(X,w)
5 更新w : wt+1 = wt - lr *g

上一篇     下一篇
docker挂载本地目录

机器学习一般流程

docker镜像导入导出

python http server docker 镜像制作

Python pip 安装

python pip 配置国内镜像