Python 中的多线程和多进程:并行处理的利器

2024-01-28  本文已影响0人  python与数据分析

写在前面:在我们日常处理大量数据时,比如数据分析、机器学习时,都离不开大量繁杂的数据,处理起来是非常耗时的,今天和大家分享一些高效且实用的小技巧。Python 是一种功能强大的编程语言,提供了多种并行处理的方式,其中包括多线程和多进程。在处理大规模任务或需要同时进行多个操作时,多线程和多进程能够显著提高程序的性能和效率。本文将介绍 Python 中的多线程和多进程,并探讨它们的适用场景和使用方法。

一、什么是多线程?

多线程是指在一个进程内创建多个线程,每个线程独立执行任务。Python 提供了 ThreadPoolExecutor 方法来支持多线程编程。多线程适合处理 I/O 密集型任务,如网络请求和文件操作,因为线程可以在等待 I/O 操作完成时切换到其他线程,从而提高程序的响应性。

二、什么是多进程?

多进程是指在操作系统中创建多个独立的进程,每个进程都有自己的地址空间和系统资源。Python 提供了 ProcessPoolExecutor 方法来支持多进程编程。多进程适合处理 CPU 密集型任务,如数值计算和图像处理,因为多个进程可以在多个 CPU 核心上并行执行任务,充分利用系统资源。

三、代码实现:多线程和多进程

这段代码展示了使用单线程、多线程和多进程来处理一个数据集的计算任务,并计算每种方式的运行时间。让我们逐行解析代码:

#导入所需的模块:
import time
import math
from tqdm import tqdm
from concurrent.futures import ProcessPoolExecutor, ThreadPoolExecutor, as_completed

定义一个装饰器函数 calculate_time,用于计算函数的运行时间:

def calculate_time(func):
    def wrapper(*args, **kwargs):
        start_time = time.time()
        result = func(*args, **kwargs)
        end_time = time.time()
        execution_time = end_time - start_time
        print(f"函数 {func.__name__} 的运行时间为: {execution_time} 秒")
        return result

    return wrapper

定义一个数据集 dataset,包含了 100 个相同的数值:

dataset = [112272535095293] * 100

定义一个函数 process,用于判断给定的数是否为素数:

def process(n):
    if n < 2:
        return False
    if n == 2:
        return True
    if n % 2 == 0:
        return False
    sqrt_n = int(math.floor(math.sqrt(n)))
    for i in range(3, sqrt_n + 1, 2):
        if n % i == 0:
            return False
    return True

定义一个装饰器函数 calculate_time,用于计算函数的运行时间:

@calculate_time
def process_result():
    new_dataset = []
    for data in tqdm(dataset):
        res = process(data)
        new_dataset.append(res)
    print(new_dataset)

定义一个函数 threadpool,使用多线程来处理数据集:

@calculate_time
def threadpool(data):
    with ThreadPoolExecutor(max_workers=4) as exe:
        new_dataset = list(tqdm(exe.map(process, data), total=len(dataset)))
    print(new_dataset)

定义一个函数 processpool,使用多进程来处理数据集:

@calculate_time
def processpool(data):
    with ProcessPoolExecutor(max_workers=4) as exe:
        new_dataset = list(tqdm(exe.map(process, data), total=len(dataset)))
    print(new_dataset)

定义一个函数 processpool1,使用多进程来处理数据集,并手动管理任务的提交和结果的获取(多线程也可以),这种方式更加灵活,这种方式会改变数据原本的顺序,而上面的保持原有顺序,所以从运行效率上,这种方式更快:

@calculate_time
def processpool1(data):
    with ProcessPoolExecutor(max_workers=4) as executor:
        futures = []
        for d in data:
            future = executor.submit(process, d)
            futures.append(future)
        new_dataset = []
        for f in tqdm(list(as_completed(futures)), total=len(data)):
            try:
                result = f.result()
                new_dataset.append(result)
            except Exception as e:
                print(f"任务执行出错: {e}")
    print(new_dataset)

在 if name == 'main' 中,分别调用 process_result()、threadpool(dataset)、processpool1(dataset) 和 processpool(dataset) 来运行不同的处理方式,并输出运行时间。

if __name__ == '__main__':
    process_result()
    threadpool(dataset)
    processpool1(dataset)
    processpool(dataset)

这段代码展示了如何使用多线程和多进程来并行处理任务,以提高程序的运行效率。通过比较不同方式的运行时间,可以了解到多线程和多进程在处理任务时的差异。从下面的结果我们可以看到,对于cpu进行大量计算时,显然多进程更快些。

四、 多线程 vs. 多进程

多线程和多进程在处理任务时具有不同的特点和适用场景。多线程适合处理 I/O 密集型任务,因为线程可以在等待 I/O 操作完成时切换到其他线程,提高程序的响应性。多进程适合处理 CPU 密集型任务,因为多个进程可以在多个 CPU 核心上并行执行任务,充分利用系统资源。

在选择多线程还是多进程时,需要根据任务的性质和需求进行合理的选择。同时,还需要考虑到线程安全性、资源消耗和操作系统调度等因素。

五、结论

多线程和多进程是 Python 中实现并行处理的重要工具。通过合理地使用多线程和多进程,我们可以提高程序的性能和效率,加快任务的执行速度。然而,在编写多线程和多进程的代码时,需要注意线程安全性、共享资源的同步问题和进程间通信等方面,保证程序的正确性和稳定性。

希望我的分享对你有帮助,喜欢记得关注我~

上一篇下一篇

猜你喜欢

热点阅读