浅谈dataframe两列相乘构造新特征

 更新时间:2021年05月18日 11:40:00   作者:所念皆山海  
这篇文章主要介绍了dataframe两列相乘构造新特征,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧

假如我们要构建新特征b

目的是从a中筛选出数值在4~6之间的数据,如果符合就是True,否则就是False。

那么代码如下

import pandas as pd
lists=pd.DataFrame({'a':[1,2,3,4,5,6,7,8,9]})
lists['b']=(lists['a']<6).mul(lists['a']>4)

补充:dataframe求两列的相乘,再将输出为新的一列

看代码吧~

df["new"]=df3["rate"]*df3["duration"]

new为新的一列的列名

rate和duration为需要相乘的列

加,减,乘,除都适用!

补充:DataFrame衍生新特征操作

1.DataFrame中某一列的值衍生为新的特征

#将LBL1特征的值衍生为one-hot形式的新特征
piao=df_train_log.LBL1.value_counts().index
#先构造一个临时的df
df_tmp=pd.DataFrame({'USRID':df_train_log.drop_duplicates('USRID').USRID.values})
#将所有的新特征列都置为0
for i in piao:
    df_tmp['PIAO_'+i]=0
#进行分组便利,有这个特征就置为1,原数据每个USRID有多条记录,所以分组统计
group=df_train_log.groupby(['USRID'])
for k in group.groups.keys():
    t = group.get_group(k)
    id=t.USRID.value_counts().index[0]
    tmp_list=t.LBL1.value_counts().index
    for j in tmp_list:
        df_tmp['PIAO_'+j].loc[df_tmp.USRID==id]=1

2.分组统计,选出同一USRID下该变量中出现次数最多的值项

group=df_train_log.groupby(['USRID'])
lt=[]
list_max_lbl1=[]
list_max_lbl2=[]
list_max_lbl3=[]
for k in group.groups.keys():
    t = group.get_group(k)
    #通过value_counts找出出现次数最多的项
    argmx = np.argmax(t['EVT_LBL'].value_counts())
    lbl1_max=np.argmax(t['LBL1'].value_counts())
    lbl2_max=np.argmax(t['LBL2'].value_counts())
    lbl3_max=np.argmax(t['LBL3'].value_counts())
    list_max_lbl1.append(lbl1_max)
    list_max_lbl2.append(lbl2_max)
    list_max_lbl3.append(lbl3_max)
    #只留下出现次数最多的项
    c = t[t['EVT_LBL']==argmx].drop_duplicates('EVT_LBL')
    #放入list中
    lt.append(c)
#构造一个新的df
df_train_log_new = pd.concat(lt)
#另外又构造了三个特征,LBL1-LBL3分别出现次数最多的项
df_train_log_new['LBL1_MAX']=list_max_lbl1
df_train_log_new['LBL2_MAX']=list_max_lbl2
df_train_log_new['LBL3_MAX']=list_max_lbl3

3.衍生出某天是否发生的ont-hot新特征

#创造临时df,星期三,星期六,星期七,都默认置为0
df_day=pd.DataFrame({'USRID':df_train_log.drop_duplicates('USRID').USRID.values})
df_day['weekday_3']=0
df_day['weekday_6']=0
df_day['weekday_7']=0
#分组统计,有就置为1,没有置为0
group=df_train_log.groupby(['USRID'])
for k in group.groups.keys():
    t = group.get_group(k)
    id=t.USRID.value_counts().index[0]
    tmp_list=t.occ_dayofweek.value_counts().index
    for j in tmp_list:
        if j==3:
            df_day['weekday_3'].loc[df_tmp.USRID==id]=1
        elif j==6:
            df_day['weekday_6'].loc[df_tmp.USRID==id]=1
        elif j==7:
            df_day['weekday_7'].loc[df_tmp.USRID==id]=1

4.查看用户一共停留在APP上多少秒,共有几天看了APP

#首先将日期转化为时间戳,并赋予一个新特征
tmp_list=[]
for i in df_train_log.OCC_TIM:
    d=datetime.datetime.strptime(str(i),"%Y-%m-%d %H:%M:%S")
    evt_time = time.mktime(d.timetuple())
    tmp_list.append(evt_time)
df_train_log['time']=tmp_list
#每下一行减去上一行,得到app停留时间
df_train_log['diff_time']=df_train_log.time-df_train_log.time.shift(1)
#构造一个新的dataFrame,分组得到查看app的天数
df_time=pd.DataFrame({'USRID':df_train_log.drop_duplicates('USRID').USRID.values})
#有几天查看
df_time['days']=0
group=df_train_log.groupby(['USRID'])
for k in group.groups.keys():
    t = group.get_group(k)
    id=set(t.USRID).pop()
    df_time['days'].loc[df_time.USRID==id]= len(t.occ_day.value_counts().index)
#去掉一些异常时间戳,比如间隔两天的相减,肯定不合适,na的也去掉了
df_train_log=df_train_log[(df_train_log.diff_time>0)&(df_train_log.diff_time<8000)]
#累计停留时间
group_stayTime=df_train_log['diff_time'].groupby(df_train_log['USRID']).sum()
#创造新的df
df_tmp=pd.DataFrame({'USRID':list(group_stayTime.index.values),'stay_time':list(group_stayTime.values)})
#合并成一个新的df
df=pd.merge(df_time,df_tmp,on=['USRID'],how='left')#合并后,缺失的停留时间,置为0df.fillna(0,axis=1,inplace=True)

以上为个人经验,希望能给大家一个参考,也希望大家多多支持脚本之家。

相关文章

  • Python字典的基础操作

    Python字典的基础操作

    这篇文章主要介绍了Python字典的基础操作,Python中的字典数据类型和现实中的字典很像,它是以键值对(键和值的组合)的方式把数据组织到一起,可以通过键找到与之对应的值并进行操作,下面来看文章金额提内容吧,需要的朋友可以参考一下
    2021-11-11
  • Python生成requirements.txt的三种方法

    Python生成requirements.txt的三种方法

    requirements.txt 文件通常用于列出项目所需的所有Python包及其版本,本文主要介绍了Python生成requirements.txt的三种方法,具有一定的参考价值,感兴趣的可以了解一下
    2024-07-07
  • Python 专题五 列表基础知识(二维list排序、获取下标和处理txt文本实例)

    Python 专题五 列表基础知识(二维list排序、获取下标和处理txt文本实例)

    本文主要简单的介绍使用Python处理txt汉字文字、二维列表排序和获取list下标的相关知识。具有很好的参考价值,下面跟着小编一起来看下吧
    2017-03-03
  • Python保存MongoDB上的文件到本地的方法

    Python保存MongoDB上的文件到本地的方法

    这篇文章主要介绍了Python保存MongoDB上的文件到本地的方法,涉及Python调用pymongo模块的gridfs方法来操作MongoDB文件的相关技巧,需要的朋友可以参考下
    2016-03-03
  • python中nuitka使用程序打包的实现

    python中nuitka使用程序打包的实现

    本文主要介绍了python中nuitka使用程序打包的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2025-04-04
  • Django 导出项目依赖库到 requirements.txt过程解析

    Django 导出项目依赖库到 requirements.txt过程解析

    这篇文章主要介绍了Django 导出项目依赖库到 requirements.txt过程解析,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
    2019-08-08
  • 在Python的Flask框架中实现全文搜索功能

    在Python的Flask框架中实现全文搜索功能

    这篇文章主要介绍了在Python的Flask框架中实现全文搜索功能,这个基本的web功能实现起来非常简单,需要的朋友可以参考下
    2015-04-04
  • django开发post接口简单案例,获取参数值的方法

    django开发post接口简单案例,获取参数值的方法

    今天小编就为大家分享一篇django开发post接口简单案例,获取参数值的方法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2018-12-12
  • 人工智能学习Pytorch梯度下降优化示例详解

    人工智能学习Pytorch梯度下降优化示例详解

    这篇文章主要为大家介绍了人工智能学习Pytorch梯度下降优化示例详解,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步早日升职加薪
    2021-11-11
  • pymysql模块的操作实例

    pymysql模块的操作实例

    在本篇文章里小编给大家分享的是关于pymysql模块的简单操作,有需要的朋友们可以参考下。
    2019-12-12

最新评论