python线程类改变类变量的操作代码

 更新时间:2024年01月23日 09:11:17   作者:小神龙q  
这篇文章主要介绍了python线程类改变类变量的操作代码,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下

python线程类改变类变量

python线程类改变类变量

#!/usr/bin/python3
import threading,time
class Rep2(threading.Thread):
    delay = 5
    def __init(self):
        threading.Thread.__init__(self)
        #self.delay = delay
        pass
    @classmethod
    def get_delay(cls):
        print('cls_delay:',cls.delay)
    @classmethod
    def set_delay(cls,delay):
        cls.delay = delay
    def run(self):
        while True:
            time.sleep(1)
            print('run_delay:',self.delay)
# #测试1
a = Rep2()
# 需要调用线程类的start()方法而不是run()方法,调用run()方法类变量delay的值不会改变
a.start() 
print("test1,started")
Rep2.get_delay()
time.sleep(5)
Rep2.delay = 2
Rep2.get_delay()
time.sleep(5)
Rep2.set_delay(222)
Rep2.get_delay()
'''
运行结果1:
test1,started
cls_delay: 5
run_delay: 5
run_delay: 5
run_delay: 5
run_delay: 5
run_delay: 5
cls_delay: 2
run_delay: 2
run_delay: 2
run_delay: 2
run_delay: 2
cls_delay: 222
run_delay: 222
run_delay: 222
run_delay: 222
'''
import threading,time
class Rep2():
    delay = 5
    def __init(self):
        pass
        #self.delay = delay
    @classmethod
    def get_delay(cls):
        print('cls_delay:',cls.delay)
    @classmethod
    def set_delay(cls,delay):
        cls.delay = delay
    def run(self):
        print('run_delay:',self.delay)
a = Rep2()
a.run()
print("test2,started")
Rep2.get_delay()
time.sleep(5)
Rep2.delay = 2
Rep2.get_delay()
time.sleep(5)
Rep2.set_delay(222)
Rep2.get_delay()
a.run()
'''
run_delay: 5
test2,started
cls_delay: 5
cls_delay: 2
cls_delay: 222
run_delay: 222
'''

扩展

python使用标准库logging实现多进程安全的日志模块

前言

原本应用的日志是全部输出到os的stdout,也就是控制台输出。因其它团队要求也要保留日志文件,便于他们用其他工具统一采集,另一方面还要保留控制台输出,便于出问题的时候自己直接看pod日志。具体需求如下:

  • 日志支持同时控制台输出和文件输出
  • 控制台的输出级别可以高点,比如WARNING,个人这边的实际情况是WARNING或ERROR就能判断大部分问题。日志文件的输出级别设置为INFO,如果控制台日志找不到问题,可以具体看日志文件的内容。
  • 因为用到了多进程,所以写文件的时候要保证多进程安全,避免日志内容不会缺失。
  • 日志文件可以设置自动分割,避免长时间不清理导致硬盘存储资源浪费。

因为不允许随便使用第三方包,所以只能用标准库的logging。一开始想的方法比较挫——对文件加锁,但改来改去发现根本不能给别人review。翻python官方文档的时候发现logging库有个QueueHandlerQueueListener,简单试了下感觉逻辑还算清楚,遂简单整理了下代码。

示例代码

目录结构如下,main.py是入口脚本,logs目录和app.log将有程序运行时自动生成,主要日志功能放在pkg/log.py文件中。pkg/__init__.py为空文件,仅用于标识为python包。

.
├── main.py
├── logs
│   └── app.log
└── pkg
    ├── __init__.py
    └── log.py

pkg/log.py内容如下,主要提供logger已经配置好的日志对象,该对象先将日志记录到QueueHandler,然后QueueListener从队列中取日志,并分别输出到控制台和日志文件中。close_log_queue()方法将在主进程结束时调用。

import logging
from logging.handlers import TimedRotatingFileHandler, QueueHandler, QueueListener
import sys
import os
# from queue import Queue
from multiprocessing import Queue
log_queue = Queue(-1)
queue_listener = ""
logdir = "logs"
logfile = f"{logdir}/app.log"
if not os.path.exists(logdir):
    os.makedirs(logdir, exist_ok=True)
def set_formatter():
    """设置日志格式化器"""
    fmt = "%(asctime)s | %(levelname)s | %(name)s | %(filename)s:%(lineno)d | %(funcName)s | %(message)s"
    datefmt = "%Y-%m-%d %H:%M:%S"
    return logging.Formatter(fmt, datefmt=datefmt)
def set_queue_handler():
    # 不要给QueueHandler重复设置formatter, 会引起重复嵌套
    handler = QueueHandler(log_queue)
    handler.setLevel(logging.INFO)
    return handler
def set_stream_handler(formatter: logging.Formatter):
    # 输出到控制台的日志处理器
    handler = logging.StreamHandler(sys.stdout)
    handler.setLevel(logging.WARNING)
    handler.setFormatter(formatter)
    return handler
def set_timed_rotating_file_handler(formatter: logging.Formatter):
    # 输出到文件的日志处理器, 每天生成一个新文件, 最多保留10个文件
    handler = TimedRotatingFileHandler(logfile, when="midnight", backupCount=10, encoding="utf-8")
    handler.setLevel(logging.INFO)
    handler.setFormatter(formatter)
    return handler
def close_log_queue():
    # 关闭队列监听器
    global queue_listener
    if queue_listener:
        queue_listener.stop()
def get_logger(name: str = "mylogger", level: int = logging.INFO):
    logger = logging.getLogger(name)
    logger.setLevel(level)
    formatter = set_formatter()
    stream_handler = set_stream_handler(formatter)
    file_handler = set_timed_rotating_file_handler(formatter)
    queue_handler = set_queue_handler()
    logger.addHandler(queue_handler)
    global queue_listener
    if not queue_listener:
        queue_listener = QueueListener(log_queue, stream_handler, file_handler, respect_handler_level=True)
        queue_listener.start()
    return logger
logger = get_logger()
if __name__ == "__main__":
    logger.info("test")
    close_log_queue()

main.py内容如下,主要是创建子进程调用logger,观察日志输出是否正常。

from multiprocessing import Process
from pkg.log import logger, close_log_queue
import os
class MyProcess(Process):
    def __init__(self, delay):
        self.delay = delay
        super().__init__()
    def run(self):
        for i in range(self.delay):
            logger.info(f"pid: {os.getpid()}, {i}")
if __name__ == '__main__':
    logger.info(f"main process pid: {os.getpid()}")
    for i in range(10):
        p = MyProcess(10000)
        p.start()
        p.join()
    logger.info("main process end")
    close_log_queue()

执行输出大致如下所示:

$ tail logs/app.log 
2024-01-22 23:10:17 | INFO | mylogger | main.py:12 | run | pid: 7908, 1
2024-01-22 23:10:17 | INFO | mylogger | main.py:12 | run | pid: 7908, 2
2024-01-22 23:10:17 | INFO | mylogger | main.py:12 | run | pid: 7908, 3
2024-01-22 23:10:17 | INFO | mylogger | main.py:12 | run | pid: 7908, 4
2024-01-22 23:10:17 | INFO | mylogger | main.py:12 | run | pid: 7908, 5
2024-01-22 23:10:17 | INFO | mylogger | main.py:12 | run | pid: 7908, 6
2024-01-22 23:10:17 | INFO | mylogger | main.py:12 | run | pid: 7908, 7
2024-01-22 23:10:17 | INFO | mylogger | main.py:12 | run | pid: 7908, 8
2024-01-22 23:10:17 | INFO | mylogger | main.py:12 | run | pid: 7908, 9
2024-01-22 23:10:17 | INFO | mylogger | main.py:21 | <module> | main process end

补充

logging还内置很多其它handler,比如按文件大小自动切割,日志通过HTTP请求输出,日志输出到syslog等,可按照自己需求进行定制。

到此这篇关于python使用标准库logging实现多进程安全的日志模块的文章就介绍到这了,更多相关python多进程安全日志模块内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

到此这篇关于python线程类改变类变量的文章就介绍到这了,更多相关python线程类改变类变量内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

相关文章

  • Keras 利用sklearn的ROC-AUC建立评价函数详解

    Keras 利用sklearn的ROC-AUC建立评价函数详解

    这篇文章主要介绍了Keras 利用sklearn的ROC-AUC建立评价函数详解,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2020-06-06
  • Python实现读取文件夹按数字排序功能

    Python实现读取文件夹按数字排序功能

    这篇文章主要介绍了Python读取文件夹按数字排序,代码简单易懂,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下
    2022-09-09
  • 100 个 Python 小例子(练习题四)

    100 个 Python 小例子(练习题四)

    这篇文章主要给大家分享100 个 Python 小例子,前文分享了一二三,本文的四十最后一篇了,这篇就把100道python小练习全分享完了,感兴趣的小伙伴也可以去练习前几期内容,洗碗给这几篇文章给你的学习带来帮助
    2022-01-01
  • python处理excel文件之xlsxwriter 模块

    python处理excel文件之xlsxwriter 模块

    这篇文章主要介绍了python处理excel文件之xlsxwriter 模块,文章围绕主题展开详细的内容介绍,需要的小伙伴可以参考一下,希望对你的学习有所帮助
    2022-05-05
  • 盘点十个超级好用的高级Python脚本

    盘点十个超级好用的高级Python脚本

    这篇文章主要介绍了盘点十个超级好用的高级Python脚本,我们经常会遇到一些大小问题,其中有很多的问题,都是可以使用一些简单的Python代码就能解决,需要的朋友可以参考下
    2023-04-04
  • Python做简单的字符串匹配详解

    Python做简单的字符串匹配详解

    这篇文章主要介绍了Python做简单的字符串匹配详解的相关资料,需要的朋友可以参考下
    2017-03-03
  • 盘点提高 Python 代码效率的方法

    盘点提高 Python 代码效率的方法

    本人用 Python 快两年了,平时只是用它来写点小小的分析脚本,以方便快捷为主,也没怎么考虑代码效率问题。最近想给自己升升级,提高一下代码的档次。于是找了一堆效率相关的文章,做了些实验,总结一下。
    2014-07-07
  • 分享20个实用的Python Excel自动化脚本

    分享20个实用的Python Excel自动化脚本

    这篇文章主要介绍了20个实用的Python Excel自动化脚本,用于自动化处理和分析Excel文件,提高工作效率,从批量填充单元格、设置行高与列宽到生成数据透视表和图表,涵盖了数据处理和分析的各个方面,需要的朋友可以参考下
    2025-02-02
  • 解析python 类方法、对象方法、静态方法

    解析python 类方法、对象方法、静态方法

    这篇文章主要介绍了解析python 类方法、对象方法、静态方法的的相关资料,帮助大家更好的理解和学习python,感兴趣的朋友可以了解下
    2020-08-08
  • pyppeteer执行js绕过webdriver监测方法上

    pyppeteer执行js绕过webdriver监测方法上

    这篇文章主要为大家介绍了pyppeteer执行js绕过webdriver监测方法,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步早日升职加薪
    2022-04-04

最新评论