回归与聚类算法系列⑤:逻辑回归

目录

1、介绍

2、原理

输入

激活函数

3、损失及其优化

损失函数

优化

4、API

5、案例:乳腺癌肿瘤预测

数据集

代码


🍃作者介绍:双非本科大三网络工程专业在读,阿里云专家博主,专注于Java领域学习,擅长web应用开发、数据结构和算法,初步涉猎Python人工智能开发。

🦅主页:@逐梦苍穹

📕回归聚类算法系列

①:概念简述

②:线性回归

③:欠拟合与过拟合

④:回归

🍔您的一键三连,是我创作的最大动力🌹

1、介绍

目标

说明逻辑回归的损失函数

说明逻辑回归的优化方法

说明sigmoid函数

知道逻辑回归的应用场景

知道精确率、召回率指标的区别

知道F1-score指标说明召回率的实际意义

说明如何解决样本不均衡情况下的评估

了解ROC曲线的意义说明AUC指标大小

应用classification_report实现精确率、召回率计算

应用roc_auc_score实现指标计算

应用:癌症患者预测

逻辑回归(Logistic Regression)是一种在统计学和机器学习领域常用于解决二分类问题的模型。它虽然带有“回归”这个名字,但实际上用于分类任务。以下是逻辑回归与二分类问题的专业介绍:

1. 逻辑回归模型:

  • 模型形式: 逻辑回归是一种广义线性模型(Generalized Linear Model,GLM)。它使用一个逻辑函数(也称为Sigmoid函数)来建模输出变量与输入特征之间的关系。逻辑函数将线性组合的输入特征映射到0和1之间的概率值。
  • 模型假设: 逻辑回归假设输入特征与输出变量之间存在一种对数线性关系,而且输出变量服从伯努利分布,即二分类问题中的两个类别。
  • 模型参数: 逻辑回归模型的参数包括权重系数(也称为回归系数)和截距项。这些参数需要通过最大似然估计或其他优化方法来拟合训练数据。

2. 二分类问题:

  • 问题定义: 二分类问题是指将数据集中的样本分为两个不同的类别或标签,通常是正类别(Positive Class)和负类别(Negative Class)。这类问题通常涉及判断一个观测是否属于某个类别,如垃圾邮件检测(垃圾邮件或非垃圾邮件)或疾病诊断(患有疾病或健康)等。
  • 评估指标: 在二分类问题中,常用的评估指标包括准确率(Accuracy)、精确率(Precision)、召回率(Recall)、F1分数(F1-Score)和ROC曲线(Receiver Operating Characteristic Curve)等。这些指标用于衡量模型在不同类别的分类性能。
  • 类别不平衡: 在某些情况下,正类别和负类别的样本分布可能不平衡,这意味着一个类别的样本数量远远大于另一个类别。这时需要特别关注模型的性能评估,以避免偏向样本数量多的类别。

3. 逻辑回归在二分类中的应用:

  • 广泛应用: 逻辑回归在实际应用中非常广泛,包括医学诊断、金融风险评估、自然语言处理中的情感分析、广告点击率预测等领域。
  • 概率输出: 逻辑回归不仅可以用于分类,还可以输出样本属于正类别的概率。这使得它在需要估计概率的场景中非常有用。

总之,逻辑回归是一种强大的工具,用于解决二分类问题,并且在理解分类问题、评估模型性能和实际应用中都具有重要作用。

2、原理

输入

eq?h%28w%29%3Dw_1x_1+w_2x_2+w_3x_3+%5Ccdots+b

逻辑回归的输入就是一个线性回归的结果

激活函数

逻辑回归使用逻辑函数,也称为Singmoid函数,来建模输入特征与输出的关系。

Sigmoid函数的数学表达式:eq?%5Csigma%28z%29%3D%5Cfrac%7B1%7D%7B1+e%5E%7B-z%7D%7D

其中,z 是输入的线性组合,即:eq?z%3D%5Cbeta_0+%5Cbeta_1x_1+%5Cbeta_2x_2+%5Ccdots+%5Cbeta_nx_n

在这里:

  • σ(z) 表示Sigmoid函数的输出,是一个介于0和1之间的概率值。
  • e 是自然对数的底数。
  • x1,x2,…,xn 是输入特征。
  • β0,β1,β2,…,βn 是模型的参数,需要估计。

逻辑回归最终的分类是通过属于某个类别的概率值来判断是否属于某个类别,

并且这个类别默认标记为1(正例),另外的一个类别会标记为0(反例)。(方便损失计算)

之前的线性回归预测结果我们用均方误差衡量,那如果对于逻辑回归,我们预测的结果不对该怎么去衡量这个损失呢?我们来看这样一张图:

630c2ddfce934ad2900c9f1ced5e3939.png

3、损失及其优化

损失函数

逻辑回归的损失,称之为对数似然损失,公式如下:

①分开类别:eq?cost%28h_%5Ctheta%28x%29%2Cy%29%3D%5Cleft%5C%7B%5Cbegin%7Bmatrix%7D%20-log%28h_%5Ctheta%28x%29%29%5Chspace%7B0.1cm%7D%2C%5Chspace%7B0.1cm%7Dy%3D1%5C%5C%20-log%281-h_%5Ctheta%28x%29%29%5Chspace%7B0.1cm%7D%2C%5Chspace%7B0.1cm%7Dy%3D0%20%5Cend%7Bmatrix%7D%5Cright.

②综合完整损失函数:eq?cost%28h_%5Ctheta%28x%29%2Cy%29%3D%5Csum_%7Bi%3D1%7D%5E%7Bm%7D%28-y_ilog%28h_%5Ctheta%28x%29%29-%281-y_i%29log%281-h_%5Ctheta%28x%29%29%29

当y=1时:

7d7d42daa31e4750a3cd4fbf5b1885ea.png

优化

同样使用梯度下降优化算法,去减少损失函数的值。

这样去更新逻辑回归前面对应算法的权重参数,提升原本属于1类别的概率,降低原本是0类别的概率。

4、API

sklearn.linear_model.LogisticRegression(solver='liblinear', penalty='l2', C = 1.0)

solver:优化求解方式(默认开源的liblinear库实现,内部使用了坐标轴下降法来迭代优化损失函数)

sag:根据数据集自动选择,随机平均梯度下降

penalty:正则化的种类

C:正则化力度

默认将类别数量少的当做正例

LogisticRegression方法相当于 SGDClassifier(loss="log", penalty=" "),SGDClassifier实现了一个普通的随机梯度下降学习,也支持平均随机梯度下降法(ASGD),可以通过设置average=True。

而使用LogisticRegression(实现了SAG)

5、案例:乳腺癌肿瘤预测

数据集

c72779aad6e0484685fedd0f6b1054f8.png

原始数据的下载地址:https://archive.ics.uci.edu/ml/machine-learning-databases/

数据描述

(1)699条样本,共11列数据,第一列用语检索的id,后9列分别是与肿瘤

相关的医学特征,最后一列表示肿瘤类型的数值。

(2)包含16个缺失值,用"?"标出。

代码

分析:

  • 缺失值处理
  • 标准化处理
  • 逻辑回归预测

源码:

python"># -*- coding: utf-8 -*-
# @Author:︶ㄣ释然
# @Time: 2023/9/12 21:45
import pandas as pd
import numpy as np
from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler


def logisticregression():
    """
    逻辑回归进行癌症预测
    :return: None
    """
    # 1、读取数据,处理缺失值以及标准化
    column_name = ['Sample code number', 'Clump Thickness', 'Uniformity of Cell Size', 'Uniformity of Cell Shape',
                   'Marginal Adhesion', 'Single Epithelial Cell Size', 'Bare Nuclei', 'Bland Chromatin',
                   'Normal Nucleoli', 'Mitoses', 'Class']

    data = pd.read_csv("https://archive.ics.uci.edu/ml/machine-learning-databases/breast-cancer-wisconsin/breast-cancer-wisconsin.data",
                       names=column_name)

    # 删除缺失值
    data = data.replace(to_replace='?', value=np.nan)

    data = data.dropna()

    # 取出特征值
    x = data[column_name[1:10]]

    y = data[column_name[10]]

    # 分割数据集
    x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.3)

    # 进行标准化
    std = StandardScaler()

    x_train = std.fit_transform(x_train)

    x_test = std.transform(x_test)

    # 使用逻辑回归
    lr = LogisticRegression()

    lr.fit(x_train, y_train)

    print("得出来的权重:", lr.coef_)

    # 预测类别
    print("预测的类别:", lr.predict(x_test))

    # 得出准确率
    print("预测的准确率:", lr.score(x_test, y_test))


if __name__ == '__main__':
    logisticregression()

运行结果:

c019f22384b849f3adbce3a0c9693b49.png


http://www.niftyadmin.cn/n/5022265.html

相关文章

SpringbootDay1

创建新项目:使用idea创建springboot项目_ideal 创建一个springboot 项目_素心如月桠的博客-CSDN博客 1. ResponseBody是针对返回值是String进行的 2. 如果HelloController中的大部分方法的返回值都是String类型,那么ResponseBody就可以加在最外层&#…

第七章,相似矩阵及其应用,5-正定二次型

第七章,相似矩阵及其应用,5-正定二次型 惯性定理定理(惯性定理) 正(负)定二次型定义判定标准形系数判别法顺次主子式判别法 应用示例 玩转线性代数系列的最后一篇: 玩转线性代数(40)正定二次型…

【SG滤波】三阶滤波、五阶滤波、七阶滤波(Matlab代码实现)

💥💥💞💞欢迎来到本博客❤️❤️💥💥 🏆博主优势:🌞🌞🌞博客内容尽量做到思维缜密,逻辑清晰,为了方便读者。 ⛳️座右铭&a…

leetcode做题笔记135. 分发糖果

n 个孩子站成一排。给你一个整数数组 ratings 表示每个孩子的评分。 你需要按照以下要求,给这些孩子分发糖果: 每个孩子至少分配到 1 个糖果。相邻两个孩子评分更高的孩子会获得更多的糖果。 请你给每个孩子分发糖果,计算并返回需要准备的…

PackML 学习笔记(2) OPCUA /PackML

2020年11月11日,OPC 基金会发布了PackML 的配套规范(OPC 30050: PackML - Packaging Control)。意味着可以使用OPCUA 信息模型来构建PackML 模型了。 如果写一篇技术简介往往是简单的,要去实现这门技术却很难。首先,OP…

人工智能:神经细胞模型到神经网络模型

人工智能领域中的重要流派之一是:从神经细胞模型(Neural Cell Model)到神经网络模型(Neural Network Model)。 一、神经细胞模型 第一个人工神经细胞模型是“MP”模型,它是由麦卡洛克、匹茨合作&#xff0…

Delphi、C# 和 TypeScript 之父 Anders Hejlsberg(安德斯·海尔斯伯格,海神)赶潮AI

自2022年11月ChatGPT横空出世,一波由AIGC引发的热潮轰轰烈烈持续传播。 全球各国政府及大型互联网企业都在积极布局人工智能解决方案,抢占人工智能高地,推动人工智能产业健康发展。 Delphi、C# 和 TypeScript 之父,位列Microsof…

芯科蓝牙BG27开发笔记6-精简第一个程序

1. 这些IO的控制代码在哪里? 还是蓝牙点灯程序: 首先需要对pinout做一些精简: 为了简化工程,去掉了不必要的IO。 至于PTI接口是什么,怎么用,不知道,现在不考虑: 但是提出以下问题…