欢迎访问 生活随笔!

生活随笔

当前位置: 首页 > 人工智能 > ChatGpt >内容正文

ChatGpt

从零开始的AI·决策树原来这么好理解(附实例代码)

发布时间:2025/4/5 ChatGpt 52 豆豆
生活随笔 收集整理的这篇文章主要介绍了 从零开始的AI·决策树原来这么好理解(附实例代码) 小编觉得挺不错的,现在分享给大家,帮大家做个参考.

从零开始的AI系列

  • 从零开始的AI·机器学习の基本概念
  • 从零开始的AI·吃透kNN算法,学完我悟了(附实例代码)
  • 从零开始的AI·朴素贝叶斯?拿来吧你(附实例代码)

文章目录

  • 从零开始的AI系列
  • 前言
  • 一、权衡利弊
  • 二、整体感知
  • 三、理论依据
  • 四、具体实现过程及细节


前言

本文理论部分基于Peter Harrington的《机器学习实战》一书

决策树是一种树形结构,其中每个内部节点表示一个属性上的测试,每个分支代表一个测试输出,每个叶节点代表一种类别。分类树决策树是一种十分常用的分类方法。它是一种监督学习。

如果觉得AI学习枯燥,可以选择看一下这个老哥做的网站,趣味性直接拉满>>人工智能教程


一、权衡利弊

  • 优点:计算复杂度不高,输出结果易于理解,对中间值的缺失不敏感,可以处理不相关特征数据。
  • 缺点:可能会产生过度匹配问题。
  • 适用数据类型:数值型和标称型。

二、整体感知


上述对生物种类的划分就可以通过决策树来实现。通过对每种生物特征不断划分,最终实现对生物进行分类的目的。

三、理论依据

如果我们知道依据什么特征,划分数据将会很容易,所以我们的主要工作做在选择特征上。由此我们引出 信息增益,获得信息增益最高的特征就是最好的选择

如何通过计算信息增益确定特征?

信息定义公式


信息熵定义公式

经验熵公式

|D|表示其样本容量

条件熵公式

信息增益

A是某一特征

四、具体实现过程及细节

#导入数据 import pandas as pd Tianic = pd.read_csv(r'train.csv') #划分数据集 from sklearn import model_selection predictors=Tianic.columns[1:2] X_train, X_test, Y_train, Y_test =model_selection.train_test_split(Tianic[predictors],Tianic.z,test_size=0.25,random_state=1234) #构建函数模型并预测 from sklearn import tree from sklearn import metrics CART_Class=tree.DecisionTreeClassifier(max_depth=1,min_samples_leaf=1,min_samples_split=2) decision_tree = CART_Class.fit(X_train,Y_train) pred = CART_Class.predict(X_test) print('准确率:\n',metrics.accuracy_score(Y_test,pred))

总结

以上是生活随笔为你收集整理的从零开始的AI·决策树原来这么好理解(附实例代码)的全部内容,希望文章能够帮你解决所遇到的问题。

如果觉得生活随笔网站内容还不错,欢迎将生活随笔推荐给好友。