python的自变量选择(所有子集回归,后退法,逐步回归)

 更新时间:2022年06月30日 16:18:00   作者:嘟嘟肚腩仔  
这篇文章主要介绍了python的自变量选择(所有子集回归,后退法,逐步回归),文章围绕主题展开详细的内容介绍,具有一定的参考价值,感兴趣的小伙伴可以参考一下

1、为什么需要自变量选择?

一个好的回归模型,不是自变量个数越多越好。在建立回归模型的时候,选择自变量的基本指导思想是少而精。丢弃了一些对因变量y有影响的自变量后,所付出的代价就是估计量产生了有偏性,但是预测偏差的方差会下降。因此,自变量的选择有重要的实际意义。

2、自变量选择的几个准则

(1)自由度调整复决定系数达到最大

(2)赤池信息量AIC达到最小

3、所有子集回归

(1)算法思想

 所谓所有子集回归,就是将总的自变量的所有子集进行考虑,查看哪一个子集是最优解。

(2)数据集情况

(3)代码部分

import pandas as pd
import numpy as np
import statsmodels.api as sm
import statsmodels.formula.api as smf
from itertools import combinations
def allziji(df):
    
    list1 = [1,2,3]
    n = 18
    R2 = []
    names = []
    #找到所有子集,并依次循环
    for a in range(len(list1)+1):
        for b in combinations(list1,a+1):
            p = len(list(b))
 
            data1 = pd.concat([df.iloc[:,i-1] for i in list(b) ],axis = 1)#结合所需因子
            
            name = "y~"+("+".join(data1.columns))#组成公式
            
            data = pd.concat([df['y'],data1],axis=1)#结合自变量和因变量
            
            result = smf.ols(name,data=data).fit()#建模
            #计算R2a
            r2 = (n-1)/(n-p-1)
            r2 = r2 * (1-result.rsquared**2)
            r2 = 1 - r2
            R2.append(r2)
            names.append(name)
    finall = {"公式":names,              "R2a":R2}
    data = pd.DataFrame(finall)
    print("""根据自由度调整复决定系数准则得到:
        最优子集回归模型为:{};
        其R2a值为:{}""".format(data.iloc[data['R2a'].argmax(),0],data.iloc[data['R2a'].argmax(),1]))
    result = smf.ols(name,data=df).fit()#建模
    print()
    print(result.summary())
df = pd.read_csv("data5.csv")
allziji(df)

(4)输出结果

4、后退法

(1)算法思想

后退法与前进法相反,通常先用全部m个变量建立一个回归方程,然后计算在剔除任意一个变量后回归方程所对应的AIC统计量的值,选出最小的AIC值所对应的需要剔除的变量,不妨记作x1;然后,建立剔除变量x1后因变量y对剩余m-1个变量的回归方程,计算在该回归方程中再任意剔除一个变量后所得回归方程的AIC值,选出最小的AIC值并确定应该剔除的变量;依此类推,直至回归方程中剩余的p个变量中再任意剔除一个 AIC值都会增加,此时已经没有可以继续剔除的自变量,因此包含这p个变量的回归方程就是最终确定的方程。

(2)数据集情况

(3)代码部分

import pandas as pd
import numpy as np
import statsmodels.api as sm
import statsmodels.formula.api as smf
 
def backward(df):
    all_bianliang = [i for i in range(0,9)]#备退因子
    ceshi = [i for i in range(0,9)]#存放加入单个因子后的模型
    zhengshi = [i for i in range(0,9)]#收集确定因子
    data1 = pd.concat([df.iloc[:,i+1] for i in ceshi ],axis = 1)#结合所需因子
    name = 'y~'+'+'.join(data1.columns)
    result = smf.ols(name,data=df).fit()#建模
    c0 = result.aic #最小aic
    delete = []#已删元素
    while(all_bianliang):
        aic = []#存放aic
 
        for i in all_bianliang:
            ceshi = [i for i in zhengshi]
            ceshi.remove(i)
            data1 = pd.concat([df.iloc[:,i+1] for i in ceshi ],axis = 1)#结合所需因子
            name = "y~"+("+".join(data1.columns))#组成公式
            data = pd.concat([df['y'],data1],axis=1)#结合自变量和因变量
            result = smf.ols(name,data=data).fit()#建模
            aic.append(result.aic)#将所有aic存入
 
        if min(aic)>c0:#aic已经达到最小
            data1 = pd.concat([df.iloc[:,i+1] for i in zhengshi ],axis = 1)#结合所需因子
            name = "y~"+("+".join(data1.columns))#组成公式
            break
        else:
            zhengshi.remove(all_bianliang[aic.index(min(aic))])#查找最小的aic并将最小的因子存入正式的模型列表当中
 
        c0 = min(aic)
        delete.append(aic.index(min(aic)))
        all_bianliang.remove(all_bianliang[delete[-1]])#删除已删因子
 
    name = "y~"+("+".join(data1.columns))#组成公式
    print("最优模型为:{},其aic为:{}".format(name,c0))
    result = smf.ols(name,data=df).fit()#建模
    print()
    print(result.summary())
df = pd.read_csv("data3.1.csv",encoding='gbk')
backward(df)

(4)结果展示

5、逐步回归

(1)算法思想

逐步回归的基本思想是有进有出。R语言中step()函数的具体做法是在给定了包含p个变量的初始模型后,计算初始模型的AIC值,并在此模型基础上分别剔除p个变量和添加剩余m-p个变量中的任一变量后的AIC值,然后选择最小的AIC值决定是否添加新变量或剔除已存在初始模型中的变量。如此反复进行,直至既不添加新变量也不剔除模型中已有的变量时所对应的AIC值最小,即可停止计算,并返回最终结果。

(2)数据集情况

(3)代码部分

import pandas as pd
import numpy as np
import statsmodels.api as sm
import statsmodels.formula.api as smf
def zhubuhuigui(df):
    forward = [i for i in range(0,4)]#备选因子
    backward = []#备退因子
    ceshi = []#存放加入单个因子后的模型
    zhengshi = []#收集确定因子
    delete = []#被删因子

    while forward:
        forward_aic = []#前进aic
        backward_aic = []#后退aic

        for i in forward:
            ceshi = [j for j in zhengshi]
            ceshi.append(i)
            data1 = pd.concat([df.iloc[:,i] for i in ceshi ],axis = 1)#结合所需因子
            name = "y~"+("+".join(data1.columns))#组成公式
            data = pd.concat([df['y'],data1],axis=1)#结合自变量和因变量
            result = smf.ols(name,data=data).fit()#建模
            forward_aic.append(result.aic)#将所有aic存入

        for i in backward:
            if (len(backward)==1):
                pass

            else:
                ceshi = [j for j in zhengshi]
                ceshi.remove(i)
                data1 = pd.concat([df.iloc[:,i] for i in ceshi ],axis = 1)#结合所需因子
                name = "y~"+("+".join(data1.columns))#组成公式
                data = pd.concat([df['y'],data1],axis=1)#结合自变量和因变量
                result = smf.ols(name,data=data).fit()#建模
                backward_aic.append(result.aic)#将所有aic存入

        if backward_aic:
            if forward_aic:
                c0 = min(min(backward_aic),min(forward_aic))

            else:
                c0 = min(backward_aic)

        else:
            c0 = min(forward_aic)

        if c0 in backward_aic:
            zhengshi.remove(backward[backward_aic.index(c0)])
            delete.append(backward_aic.index(c0))
            backward.remove(backward[delete[-1]])#删除已删因子
            forward.append(backward[delete[-1]])
        else:
            zhengshi.append(forward[forward_aic.index(c0)])#查找最小的aic并将最小的因子存入正式的模型列表当中
            forward.remove(zhengshi[-1])#删除已有因子
            backward.append(zhengshi[-1])
 
    name = "y~"+("+".join(data1.columns))#组成公式
    print("最优模型为:{},其aic为:{}".format(name,c0))
    result = smf.ols(name,data=data).fit()#建模
    print()
    print(result.summary())
df = pd.read_csv("data5.5.csv",encoding='gbk')
zhubuhuigui(df)

(4)结果展示

到此这篇关于python的自变量选择(所有子集回归,后退法,逐步回归)的文章就介绍到这了,更多相关python自变量选择内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

相关文章

  • Python中map,reduce,filter和sorted函数的使用方法

    Python中map,reduce,filter和sorted函数的使用方法

    这篇文章主要介绍了Python中map,reduce,filter和sorted函数的使用方法,是Python入门学习中的基础知识,需要的朋友可以参考下
    2015-08-08
  • python读取当前目录下的CSV文件数据

    python读取当前目录下的CSV文件数据

    这篇文章主要为大家详细介绍了python读取当前目录下的CSV文件数据,文中示例代码介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
    2020-03-03
  • python selenium 获取接口数据的实现

    python selenium 获取接口数据的实现

    这篇文章主要介绍了python selenium 获取接口数据的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2020-12-12
  • django的分页器Paginator 从django中导入类

    django的分页器Paginator 从django中导入类

    这篇文章主要介绍了django的分页器Paginator 从django中导入类,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
    2019-07-07
  • python和shell监控linux服务器的详细代码

    python和shell监控linux服务器的详细代码

    这篇文章主要为大家介绍了使用python和shell监控linux服务器的详细代码,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
    2018-06-06
  • Python3 执行系统命令并获取实时回显功能

    Python3 执行系统命令并获取实时回显功能

    这篇文章主要介绍了Python3 执行系统命令并获取实时回显功能,文中通过两种方法给大家介绍了Python执行系统命令并获得输出的方法,需要的朋友可以参考下
    2019-07-07
  • Python/ArcPy遍历指定目录中的MDB文件方法

    Python/ArcPy遍历指定目录中的MDB文件方法

    今天小编就为大家分享一篇Python/ArcPy遍历指定目录中的MDB文件方法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2018-10-10
  • Python递归函数定义与用法示例

    Python递归函数定义与用法示例

    这篇文章主要介绍了Python递归函数定义与用法,结合具体实例形式分析了Python递归函数的原理、实现技巧与相关注意事项,需要的朋友可以参考下
    2017-06-06
  • Python中的函数作用域

    Python中的函数作用域

    在python中,一个函数就是一个作用域。这篇文章重点给大家介绍python中的函数作用域,感兴趣的朋友一起看看吧
    2018-05-05
  • Deepsort + Yolo 实现行人检测和轨迹追踪的方法

    Deepsort + Yolo 实现行人检测和轨迹追踪的方法

    这篇文章主要介绍了Deepsort + Yolo 实现行人检测和轨迹追踪,本项目通过采用深度学习方法实现YOLO算法行人检测和deepsort算法对人员定位的和轨迹跟踪,需要的朋友可以参考下
    2021-09-09

最新评论