XGBoost学习
XGBoost广泛应用于推荐系统、信用评分、疾病预测等多个领域。通过实例分析,我们可以直观感受到其在实际问题解决中的强大威力。
(图片来源网络,侵删)
下面是一个使用Python实现的简单XGBoost分类任务示例,包括数据预处理、模型训练、评估和预测的基本步骤。此示例使用了著名的鸢尾花(Iris)数据集,该数据集可以直接从sklearn库获取。代码仅供参考~
# 导入所需库
import xgboost as xgb
from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score
# 加载鸢尾花数据集
iris = datasets.load_iris()
X = iris.data
y = iris.target
# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=123)
# 转换为DMatrix格式,XGBoost的原生数据结构,可以提高效率
dtrain = xgb.DMatrix(X_train, label=y_train)
dtest = xgb.DMatrix(X_test, label=y_test)
# 设置XGBoost参数
param = {
'eta': 0.3,
'max_depth': 3,
'objective': 'multi:softmax', # 多分类问题
'num_class': 3, # 类别数
'eval_metric': 'mlogloss' # 多分类的评价指标
}
# 训练模型
bst = xgb.train(param, dtrain, num_boost_round=10)
# 预测
preds = bst.predict(dtest)
pred_labels = preds.argmax(axis=1) # 获取概率最大的类别作为预测类别
# 计算准确率
accuracy = accuracy_score(y_test, pred_labels)
print("Accuracy: %.2f%%" % (accuracy * 100.0))
————————————————
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
原文链接:https://blog.csdn.net/qq_44214428/article/details/139537082
免责声明:我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自自研大数据AI进行生成,内容摘自(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供学习参考,不准确地方联系删除处理! 图片声明:本站部分配图来自人工智能系统AI生成,觅知网授权图片,PxHere摄影无版权图库和百度,360,搜狗等多加搜索引擎自动关键词搜索配图,如有侵权的图片,请第一时间联系我们,邮箱:ciyunidc@ciyunshuju.com。本站只作为美观性配图使用,无任何非法侵犯第三方意图,一切解释权归图片著作权方,本站不承担任何责任。如有恶意碰瓷者,必当奉陪到底严惩不贷!
