
autogluon是一个强大的自动机器学习库,它能够自动化模型选择、特征工程和超参数调优等任务。为了加速训练过程,尤其是在处理大型数据集时,利用gpu资源至关重要。然而,许多用户在尝试配置gpu时会遇到困扰,即使在代码中明确设置了num_gpus=1,nvidia-smi等工具却显示gpu处于空闲状态。
问题分析:为什么num_gpus直接设置无效?当用户在TabularPredictor().fit()方法中直接传入num_gpus=1时,例如:
import pandas as pd
from autogluon.tabular import TabularPredictor
# 假设df是您的训练数据
# df = pd.read_csv("/content/autogluon train.csv")
predictor = TabularPredictor(label='Expense').fit(df, presets='best_quality', verbosity=4, time_limit=70000, num_gpus=1) Autogluon的内部日志可能会显示一些关于GPU资源分配的信息,例如:
Fitting CatBoost_BAG_L1 with 'num_gpus': 1, 'num_cpus': 8
...
Folding resources per job {'num_gpus': 0.5, 'num_cpus': 4}
Fitting with ParallelLocalFoldFittingStrategy (2.0 workers, per: cpus=4, gpus=0, memory=9.85%) 尽管日志中提到了'num_gpus': 1,但后续的并行策略中可能会出现gpus=0的指示,或者实际的nvidia-smi输出显示“No running processes found”。这表明num_gpus作为fit方法的顶级参数,可能主要用于指导Autogluon的整体资源调度器,而不是直接将GPU分配给每一个子模型。Autogluon的集成学习和并行训练策略可能会复杂化资源管理,导致GPU资源未能按预期传递给实际执行计算的底层模型。
解决方案:使用ag_args_fit精确控制模型资源为了确保Autogluon内部训练的各个模型(如CatBoost、LightGBM、XGBoost等)能够正确利用GPU,需要通过ag_args_fit参数将num_gpus指令传递给这些模型。ag_args_fit是一个字典,允许用户为Autogluon内部训练的每个模型指定额外的拟合参数。
以下是修正后的代码示例:
import pandas as pd
from autogluon.tabular import TabularPredictor
import torch
# 确保PyTorch和CUDA环境已正确安装
# pip install torch==2.0.1+cu118 torchvision==0.15.2+cu118 --index-url https://download.pytorch.org/whl/cu118
# pip install autogluon
# 检查CUDA是否可用
if torch.cuda.is_available():
print(f"CUDA is available. Number of GPUs: {torch.cuda.device_count()}")
else:
print("CUDA is not available. Autogluon will run on CPU.")
# 假设df是您的训练数据,这里创建一个简单的示例DataFrame
data = {
'Feature1': [1, 2, 3, 4, 5, 6, 7, 8, 9, 10],
'Feature2': [10, 9, 8, 7, 6, 5, 4, 3, 2, 1],
'Expense': [100, 120, 110, 130, 140, 150, 160, 170, 180, 190]
}
df = pd.DataFrame(data)
# 正确配置GPU的方法:通过ag_args_fit传递num_gpus
predictor = TabularPredictor(label='Expense').fit(
df,
presets='best_quality',
verbosity=4,
time_limit=70000,
ag_args_fit={'num_gpus': 1} # 将num_gpus参数作为ag_args_fit字典的一部分
)
print("Autogluon training complete.") 通过将num_gpus: 1封装在ag_args_fit字典中,Autogluon会尝试将这个参数传递给其内部的各个模型,如CatBoost等,从而指导这些模型在可用时利用GPU进行训练。
注意事项与最佳实践-
CUDA环境与PyTorch安装:
Teleporthq
一体化AI网站生成器,能够快速设计和部署静态网站
182
查看详情
- 在尝试利用GPU之前,务必确保您的系统上已正确安装了CUDA工具包。
- 安装与CUDA版本兼容的PyTorch。Autogluon依赖于PyTorch,PyTorch的CUDA支持是GPU加速的基础。例如,如果CUDA版本是11.8,则应安装torch==2.0.1+cu118。
- 可以使用torch.cuda.is_available()和torch.cuda.device_count()来验证PyTorch是否检测到GPU。
-
模型支持:
- 并非所有Autogluon集成的模型都原生支持GPU加速。例如,CatBoost、XGBoost和一些深度学习模型通常支持GPU,而其他一些传统模型可能仅限于CPU。
- 当ag_args_fit={'num_gpus': 1}被传递时,Autogluon会尝试为支持GPU的模型启用GPU加速。
-
资源分配与并行性:
- Autogluon的ParallelLocalFoldFittingStrategy可能会将单个GPU资源细分为多个“虚拟”GPU份额(如num_gpus: 0.5),以支持并行训练多个折叠(folds)或子模型。即使显示num_gpus: 0.5,如果底层模型支持且配置正确,GPU仍可能被利用。
- 在多GPU环境下,num_gpus也可以设置为大于1的值,或者通过ag_args_fit为特定模型指定使用的GPU数量。
-
验证GPU使用:
- 在训练过程中,打开一个新的终端并运行nvidia-smi命令,可以实时监控GPU的使用情况(进程、显存占用等)。如果配置正确,您应该能看到Python进程或与Autogluon相关的进程在使用GPU。
- 查看Autogluon的详细日志(通过设置verbosity=4或更高),有时也能提供关于模型是否成功加载GPU版本或是否尝试使用GPU的信息。
-
Autogluon版本:
- 确保您使用的是最新稳定版的Autogluon。不同版本可能在GPU资源管理和参数传递方面有所差异。
在Autogluon中实现GPU加速,关键在于理解其内部资源管理机制,并使用ag_args_fit参数将GPU配置准确传递给实际执行计算的底层模型。通过遵循本文提供的正确配置方法和注意事项,用户可以有效利用GPU资源,显著提高Autogluon模型的训练效率。在遇到GPU未被利用的问题时,首先检查PyTorch和CUDA环境,然后重点关注ag_args_fit参数的正确使用,并结合nvidia-smi工具进行验证。
以上就是Autogluon GPU加速配置指南:确保模型有效利用GPU资源的详细内容,更多请关注知识资源分享宝库其它相关文章!
相关标签: python 工具 csv nvidia ai 深度学习 pytorch 为什么 red Python 封装 pytorch 自动化 大家都在看: python如何使用socket进行网络通信_python socket套接字网络编程入门 Python zip 对象与迭代器耗尽:理解及多重遍历策略 Python全局异常处理:抑制控制台默认堆栈输出与Loguru集成 使用Python和pytgcalls创建Telegram机器人实现自动化语音通知 使用 Python 处理大型 Stack Overflow XML 数据






发表评论:
◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。