“机器学习”系列之决策树

本文介绍决策树的ID3、C4.5和CART三种生成算法。ID3以信息增益划分,有过拟合等缺点;C4.5用信息增益率,改进了缺失值处理等;CART为二叉树,用基尼系数,可分类回归,有独特剪枝和平衡策略。还附ID3实现及sklearn中CART的使用代码。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

“机器学习”系列之决策树 - 创想鸟

“机器学习”系列之决策树

0 前言

决策树是一种机器学习的方法。决策树的生成算法有ID3, C4.5和CART等。决策树是一种树形结构,其中每个内部节点表示一个属性上的判断,每个分支代表一个判断结果的输出,最后每个叶节点代表一种分类结果。算法主要是公式的讲解,如果初学建议先去看一下这方面的图例说明,再回来看此项目。

1 ID3

1.1 思想

从信息论的知识中我们知道:信息熵越大,从而样本纯度越低,。ID3 算法的核心思想就是以信息增益来度量特征选择,选择信息增益最大的特征进行分裂。算法采用自顶向下的贪婪搜索遍历可能的决策树空间(C4.5 也是贪婪搜索)。 其大致步骤为:(1)初始化特征集合和数据集合;(2)计算数据集合信息熵和所有特征的条件熵,选择信息增益最大的特征作为当前决策节点;(3)更新数据集合和特征集合(删除上一步使用的特征,并按照特征值来划分不同分支的数据集合);(4)重复 2,3 两步,若子集值包含单一特征,则为分支叶子节点。

1.2 划分标准

ID3 使用的分类标准是信息增益,它表示得知特征 A 的信息而使得样本集合不确定性减少的程度。数据集的信息熵公式如下:

“机器学习”系列之决策树 - 创想鸟

其中 CkCk 表示集合 D 中属于第 k 类样本的样本子集。针对某个特征 A,对于数据集 D 的条件熵  H(D∣A)H(D∣A) 为:

“机器学习”系列之决策树 - 创想鸟

其中 DiDi 表示 D 中特征 A 取第 i 个值的样本子集, DikDik 表示 DiDi 中属于第 k 类的样本子集。信息增益 = 信息熵 – 条件熵:

“机器学习”系列之决策树 - 创想鸟

信息增益越大表示使用特征 A 来划分所获得的“纯度提升越大”

1.3 缺点

ID3 没有剪枝策略,容易过拟合;信息增益准则对可取值数目较多的特征有所偏好,类似“编号”的特征其信息增益接近于 1;只能用于处理离散分布的特征;没有考虑缺失值。

2 C4.5

C4.5 算法最大的特点是克服了 ID3 对特征数目的偏重这一缺点,引入信息增益率来作为分类标准。

2.1 思想

C4.5 相对于 ID3 的缺点对应有以下改进方式:(1)引入悲观剪枝策略进行后剪枝;(2)引入信息增益率作为划分标准;(3)将连续特征离散化,假设 n 个样本的连续特征 A 有 m 个取值,C4.5 将其排序并取相邻两样本值的平均数共 m-1 个划分点,分别计算以该划分点作为二元分类点时的信息增益,并选择- – (4)信息增益最大的点作为该连续特征的二元离散分类点;

2.2 对于缺失值的处理可以分为两个子问题

(1)问题一:在特征值缺失的情况下进行划分特征的选择?(即如何计算特征的信息增益率)(2)问题二:选定该划分特征,对于缺失该特征值的样本如何处理?(即到底把这个样本划分到哪个结点里)(3)针对问题一,C4.5 的做法是:对于具有缺失值特征,用没有缺失的样本子集所占比重来折算;(4)针对问题二,C4.5 的做法是:将样本同时划分到所有子节点,不过要调整样本的权重值,其实也就是以不同概率划分到不同节点中。

2.3 划分标准

利用信息增益率可以克服信息增益的缺点,其公式如下

“机器学习”系列之决策树 - 创想鸟

HA(D)HA(D)称为特征 A 的固有值。这里需要注意,信息增益率对可取值较少的特征有所偏好(分母越小,整体越大),因此 C4.5 并不是直接用增益率最大的特征进行划分,而是使用一个启发式方法:先从候选划分特征中找到信息增益高于平均值的特征,再从中选择增益率最高的。

2.4 剪枝策略

为什么要剪枝:过拟合的树在泛化能力的表现非常差。

2.4.1 预剪枝

在节点划分前来确定是否继续增长,及早停止增长的主要方法有:(1)节点内数据样本低于某一阈值;(2)所有节点特征都已分裂;(3)节点划分前准确率比划分后准确率高。(4)预剪枝不仅可以降低过拟合的风险而且还可以减少训练时间,但另一方面它是基于“贪心”策略,会带来欠拟合风险。

2.4.2 后剪枝

在已经生成的决策树上进行剪枝,从而得到简化版的剪枝决策树。C4.5 采用的悲观剪枝方法,用递归的方式从低往上针对每一个非叶子节点,评估用一个最佳叶子节点去代替这课子树是否有益。如果剪枝后与剪枝前相比其错误率是保持或者下降,则这棵子树就可以被替换掉。C4.5 通过训练数据集上的错误分类数量来估算未知样本上的错误率。后剪枝决策树的欠拟合风险很小,泛化性能往往优于预剪枝决策树。但同时其训练时间会大的多。

2.5 缺点

剪枝策略可以再优化;C4.5 用的是多叉树,用二叉树效率更高;C4.5 只能用于分类;C4.5 使用的熵模型拥有大量耗时的对数运算,连续值还有排序运算;C4.5 在构造树的过程中,对数值属性值需要按照其大小进行排序,从中选择一个分割点,所以只适合于能够驻留于内存的数据集,当训练集大得无法在内存容纳时,程序无法运行。

3 CART

ID3 和 C4.5 虽然在对训练样本集的学习中可以尽可能多地挖掘信息,但是其生成的决策树分支、规模都比较大,CART 算法的二分法可以简化决策树的规模,提高生成决策树的效率。

3.1 思想

CART 包含的基本过程有分裂,剪枝和树选择。分裂:分裂过程是一个二叉递归划分过程,其输入和预测特征既可以是连续型的也可以是离散型的,CART 没有停止准则,会一直生长下去;剪枝:采用代价复杂度剪枝,从最大树开始,每次选择训练数据熵对整体性能贡献最小的那个分裂节点作为下一个剪枝对象,直到只剩下根节点。CART 会产生一系列嵌套的剪枝树,需要从中选出一颗最优的决策树;树选择:用单独的测试集评估每棵剪枝树的预测性能(也可以用交叉验证)。

3.2 CART 在 C4.5 的基础上进行了很多提升。

C4.5 为多叉树,运算速度慢,CART 为二叉树,运算速度快;C4.5 只能分类,CART 既可以分类也可以回归;CART 使用 Gini 系数作为变量的不纯度量,减少了大量的对数运算;CART 采用代理测试来估计缺失值,而 C4.5 以不同概率划分到不同节点中;CART 采用“基于代价复杂度剪枝”方法进行剪枝,而 C4.5 采用悲观剪枝方法。

3.3 划分标准

熵模型拥有大量耗时的对数运算,基尼指数在简化模型的同时还保留了熵模型的优点。基尼指数代表了模型的不纯度,基尼系数越小,不纯度越低,特征越好。这和信息增益(率)正好相反。

“机器学习”系列之决策树 - 创想鸟

其中k代表类别基尼指数反映了从数据集中随机抽取两个样本,其类别标记不一致的概率。因此基尼指数越小,则数据集纯度越高。基尼指数偏向于特征值较多的特征,类似信息增益。基尼指数可以用来度量任何不均匀分布,是介于 0~1 之间的数,0 是完全相等,1 是完全不相等,当 CART 为二分类,其表达式为:

“机器学习”系列之决策树 - 创想鸟

在平方运算和二分类的情况下,其运算更加简单。当然其性能也与熵模型非常接近。那么问题来了:基尼指数与熵模型性能接近,但到底与熵模型的差距有多大呢?我们知道ln(x)=−1+x+o(x)ln(x)=−1+x+o(x),所以

“机器学习”系列之决策树 - 创想鸟

基尼指数可以理解为熵模型的一阶泰勒展开

“机器学习”系列之决策树 - 创想鸟

3.4 缺失值处理

模型对于缺失值的处理会分为两个子问题:(1)如何在特征值缺失的情况下进行划分特征的选择?(2)选定该划分特征,模型对于缺失该特征值的样本该进行怎样处理?对于问题 1,CART 一开始严格要求分裂特征评估时只能使用在该特征上没有缺失值的那部分数据,在后续版本中,CART 算法使用了一种惩罚机制来抑制提升值,从而反映出缺失值的影响(例如,如果一个特征在节点的 20% 的记录是缺失的,那么这个特征就会减少 20% 或者其他数值)。对于问题 2,CART 算法的机制是为树的每个节点都找到代理分裂器,无论在训练数据上得到的树是否有缺失值都会这样做。在代理分裂器中,特征的分值必须超过默认规则的性能才有资格作为代理(即代理就是代替缺失值特征作为划分特征的特征),当 CART 树中遇到缺失值时,这个实例划分到左边还是右边是决定于其排名最高的代理,如果这个代理的值也缺失了,那么就使用排名第二的代理,以此类推,如果所有代理值都缺失,那么默认规则就是把样本划分到较大的那个子节点。代理分裂器可以确保无缺失训练数据上得到的树可以用来处理包含确实值的新数据。

3.5 剪枝策略

采用一种“基于代价复杂度的剪枝”方法进行后剪枝,这种方法会生成一系列树,每个树都是通过将前面的树的某个或某些子树替换成一个叶节点而得到的,这一系列树中的最后一棵树仅含一个用来预测类别的叶节点。然后用一种成本复杂度的度量准则来判断哪棵子树应该被一个预测类别值的叶节点所代替。这种方法需要使用一个单独的测试数据集来评估所有的树,根据它们在测试数据集熵的分类性能选出最佳的树。首先我们将最大树称为T0T0 ,我们希望减少树的大小来防止过拟合,但又担心去掉节点后预测误差会增大,所以我们定义了一个损失函数来达到这两个变量之间的平衡。损失函数定义如下:

“机器学习”系列之决策树 - 创想鸟

TT 为任意子树,C(T)C(T) 为预测误差, ∣T∣∣T∣ 为子树 TT 的叶子节点个数, aa 是参数, C(T)C(T) 衡量训练数据的拟合程度, ∣T∣∣T∣ 衡量树的复杂度, aa 权衡拟合程度与树的复杂度。那么如何找到合适的 aa 来使得复杂度和拟合度达到最好的平衡点呢,最好的办法就是另 aa 从 0 取到正无穷,对于每一个固定的 aa ,我们都可以找到使得 Ca(T)Ca(T) 最小的最优子树 T(a)T(a) 。当 aa 很小的时候, T0T0 是最优子树;当 aa 最大时,单独的根节点是这样的最优子树。随着 aa 增大,我们可以得到一个这样的子树序列: Ti+1Ti+1 ,这里的子树 T0T1T2…TnT0T1T2…Tn 生成是根据前一个子树 TiTi 剪掉某一个内部节点生成的。Breiman 证明:将 aa 从小增大,0=a0<a1<..<an<无穷0=a0<a1<..<an<无穷 ,在每个区间 [ai,ai+1)[ai,ai+1) 中,子树 TiTi 是这个区间里最优的。这是代价复杂度剪枝的核心思想。每次剪枝都是针对某个非叶节点,其他节点不变,所以我们只需要计算该节点剪枝前和剪枝后的损失函数即可。对于任意内部节点 t,剪枝前的状态,有 ∣Ti∣∣Ti∣ 个叶子节点,预测误差是 C(Ti)C(Ti) ;剪枝后的状态:只有本身一个叶子节点,预测误差是 C(t)C(t) 。因此剪枝前以 t 节点为根节点的子树的损失函数是:

“机器学习”系列之决策树 - 创想鸟

剪枝后的损失函数是

“机器学习”系列之决策树 - 创想鸟

通过 Breiman 证明我们知道一定存在一个 aa 使得 Ca(T)=Ca(t)Ca(T)=Ca(t) ,使得这个值为:

“机器学习”系列之决策树 - 创想鸟

aa 的意义在于, [ai,ai+1)[ai,ai+1) 中,子树 TiTi 是这个区间里最优的。当 aa 大于这个值是,一定有 Ca(T)>Ca(t)Ca(T)>Ca(t) ,也就是剪掉这个节点后都比不剪掉要更优。所以每个最优子树对应的是一个区间,在这个区间内都是最优的。然后我们对 TiTi 中的每个内部节点 t 都计算:

“机器学习”系列之决策树 - 创想鸟

g(t)g(t) 表示阈值,故我们每次都会减去最小的 TiTi 。

3.6 类别不平衡

CART 的一大优势在于:无论训练数据集有多失衡,它都可以将其子冻消除不需要建模人员采取其他操作。CART 使用了一种先验机制,其作用相当于对类别进行加权。这种先验机制嵌入于 CART 算法判断分裂优劣的运算里,在 CART 默认的分类模式中,总是要计算每个节点关于根节点的类别频率的比值,这就相当于对数据自动重加权,对类别进行均衡。对于一个二分类问题,节点 node 被分成类别 1 当且仅当:

“机器学习”系列之决策树 - 创想鸟

比如二分类,根节点属于 1 类和 0 类的分别有 20 和 80 个。在子节点上有 30 个样本,其中属于 1 类和 0 类的分别是 10 和 20 个。如果 10/20>20/80,该节点就属于 1 类。通过这种计算方式就无需管理数据真实的类别分布。假设有 K 个目标类别,就可以确保根节点中每个类别的概率都是 1/K。这种默认的模式被称为“先验相等”。先验设置和加权不同之处在于先验不影响每个节点中的各类别样本的数量或者份额。先验影响的是每个节点的类别赋值和树生长过程中分裂的选择。

3.7 回归树

CART(Classification and Regression Tree,分类回归树),从名字就可以看出其不仅可以用于分类,也可以应用于回归。其回归树的建立算法上与分类树部分相似,这里简单介绍下不同之处。

3.7.1 连续值处理

对于连续值的处理,CART 分类树采用基尼系数的大小来度量特征的各个划分点。在回归模型中,我们使用常见的和方差度量方式,对于任意划分特征 A,对应的任意划分点 s 两边划分成的数据集 D1D1 和 D2D2 ,求出使 D1D1 和 D2D2 各自集合的均方差最小,同时 D1D1 和 D2D2 的均方差之和最小所对应的特征和特征值划分点。表达式为:

“机器学习”系列之决策树 - 创想鸟

其中, c1c1 为 D1D1 数据集的样本输出均值, c2c2 为 D2D2 数据集的样本输出均值。

3.7.2 预测方式

对于决策树建立后做预测的方式,上面讲到了 CART 分类树采用叶子节点里概率最大的类别作为当前节点的预测类别。而回归树输出不是类别,它采用的是用最终叶子的均值或者中位数来预测输出结果。

4 代码实现

4.1 导入相关包

In [1]

import numpy as npimport pandas as pdimport matplotlib.pyplot as plt%matplotlib inlinefrom sklearn.datasets import load_irisfrom sklearn.model_selection import train_test_splitfrom collections import Counterimport mathfrom math import logimport pprint

4.2 数据定义

In [2]

def create_data():    datasets = [['青年', '否', '否', '一般', '否'],               ['青年', '否', '否', '好', '否'],               ['青年', '是', '否', '好', '是'],               ['青年', '是', '是', '一般', '是'],               ['青年', '否', '否', '一般', '否'],               ['中年', '否', '否', '一般', '否'],               ['中年', '否', '否', '好', '否'],               ['中年', '是', '是', '好', '是'],               ['中年', '否', '是', '非常好', '是'],               ['中年', '否', '是', '非常好', '是'],               ['老年', '否', '是', '非常好', '是'],               ['老年', '否', '是', '好', '是'],               ['老年', '是', '否', '好', '是'],               ['老年', '是', '否', '非常好', '是'],               ['老年', '否', '否', '一般', '否'],               ]    labels = [u'年龄', u'有工作', u'有自己的房子', u'信贷情况', u'类别']    # 返回数据集和每个维度的名称    return datasets, labels

In [3]

datasets, labels = create_data()

In [4]

train_data = pd.DataFrame(datasets, columns=labels)

In [5]

train_data
    年龄 有工作 有自己的房子 信贷情况 类别0   青年   否      否   一般  否1   青年   否      否    好  否2   青年   是      否    好  是3   青年   是      是   一般  是4   青年   否      否   一般  否5   中年   否      否   一般  否6   中年   否      否    好  否7   中年   是      是    好  是8   中年   否      是  非常好  是9   中年   否      是  非常好  是10  老年   否      是  非常好  是11  老年   否      是    好  是12  老年   是      否    好  是13  老年   是      否  非常好  是14  老年   否      否   一般  否

4.3 定义计算熵函数

In [6]

# 熵def calc_ent(datasets):    data_length = len(datasets)    label_count = {}    for i in range(data_length):        label = datasets[i][-1]        if label not in label_count:            label_count[label] = 0        label_count[label] += 1    ent = -sum([(p/data_length)*log(p/data_length, 2) for p in label_count.values()])    return ent# 经验条件熵def cond_ent(datasets, axis=0):    data_length = len(datasets)    feature_sets = {}    for i in range(data_length):        feature = datasets[i][axis]        if feature not in feature_sets:            feature_sets[feature] = []        feature_sets[feature].append(datasets[i])    cond_ent = sum([(len(p)/data_length)*calc_ent(p) for p in feature_sets.values()])    return cond_ent# 信息增益def info_gain(ent, cond_ent):    return ent - cond_entdef info_gain_train(datasets):    count = len(datasets[0]) - 1    ent = calc_ent(datasets)    best_feature = []    for c in range(count):        c_info_gain = info_gain(ent, cond_ent(datasets, axis=c))        best_feature.append((c, c_info_gain))        print('特征({}) - info_gain - {:.3f}'.format(labels[c], c_info_gain))    # 比较大小    best_ = max(best_feature, key=lambda x: x[-1])    return '特征({})的信息增益最大,选择为根节点特征'.format(labels[best_[0]])

In [7]

info_gain_train(np.array(datasets))
特征(年龄) - info_gain - 0.083特征(有工作) - info_gain - 0.324特征(有自己的房子) - info_gain - 0.420特征(信贷情况) - info_gain - 0.363
'特征(有自己的房子)的信息增益最大,选择为根节点特征'

4.4 利用ID3算法生成决策树

In [8]

# 定义节点类 二叉树class Node:    def __init__(self, root=True, label=None, feature_name=None, feature=None):        self.root = root        self.label = label        self.feature_name = feature_name        self.feature = feature        self.tree = {}        self.result = {'label:': self.label, 'feature': self.feature, 'tree': self.tree}    def __repr__(self):        return '{}'.format(self.result)    def add_node(self, val, node):        self.tree[val] = node    def predict(self, features):        if self.root is True:            return self.label        return self.tree[features[self.feature]].predict(features)    class DTree:    def __init__(self, epsilon=0.1):        self.epsilon = epsilon        self._tree = {}    # 熵    @staticmethod    def calc_ent(datasets):        data_length = len(datasets)        label_count = {}        for i in range(data_length):            label = datasets[i][-1]            if label not in label_count:                label_count[label] = 0            label_count[label] += 1        ent = -sum([(p/data_length)*log(p/data_length, 2) for p in label_count.values()])        return ent    # 经验条件熵    def cond_ent(self, datasets, axis=0):        data_length = len(datasets)        feature_sets = {}        for i in range(data_length):            feature = datasets[i][axis]            if feature not in feature_sets:                feature_sets[feature] = []            feature_sets[feature].append(datasets[i])        cond_ent = sum([(len(p)/data_length)*self.calc_ent(p) for p in feature_sets.values()])        return cond_ent    # 信息增益    @staticmethod    def info_gain(ent, cond_ent):        return ent - cond_ent    def info_gain_train(self, datasets):        count = len(datasets[0]) - 1        ent = self.calc_ent(datasets)        best_feature = []        for c in range(count):            c_info_gain = self.info_gain(ent, self.cond_ent(datasets, axis=c))            best_feature.append((c, c_info_gain))        # 比较大小        best_ = max(best_feature, key=lambda x: x[-1])        return best_    def train(self, train_data):        """        input:数据集D(DataFrame格式),特征集A,阈值eta        output:决策树T        """        _, y_train, features = train_data.iloc[:, :-1], train_data.iloc[:, -1], train_data.columns[:-1]        # 1,若D中实例属于同一类Ck,则T为单节点树,并将类Ck作为结点的类标记,返回T        if len(y_train.value_counts()) == 1:            return Node(root=True,                        label=y_train.iloc[0])        # 2, 若A为空,则T为单节点树,将D中实例树最大的类Ck作为该节点的类标记,返回T        if len(features) == 0:            return Node(root=True, label=y_train.value_counts().sort_values(ascending=False).index[0])        # 3,计算最大信息增益 同5.1,Ag为信息增益最大的特征        max_feature, max_info_gain = self.info_gain_train(np.array(train_data))        max_feature_name = features[max_feature]        # 4,Ag的信息增益小于阈值eta,则置T为单节点树,并将D中是实例数最大的类Ck作为该节点的类标记,返回T        if max_info_gain < self.epsilon:            return Node(root=True, label=y_train.value_counts().sort_values(ascending=False).index[0])        # 5,构建Ag子集        node_tree = Node(root=False, feature_name=max_feature_name, feature=max_feature)        feature_list = train_data[max_feature_name].value_counts().index        for f in feature_list:            sub_train_df = train_data.loc[train_data[max_feature_name] == f].drop([max_feature_name], axis=1)            # 6, 递归生成树            sub_tree = self.train(sub_train_df)            node_tree.add_node(f, sub_tree)        # pprint.pprint(node_tree.tree)        return node_tree    def fit(self, train_data):        self._tree = self.train(train_data)        return self._tree    def predict(self, X_test):        return self._tree.predict(X_test)

In [9]

datasets, labels = create_data()data_df = pd.DataFrame(datasets, columns=labels)dt = DTree()tree = dt.fit(data_df)

In [10]

tree
{'label:': None, 'feature': 2, 'tree': {'否': {'label:': None, 'feature': 1, 'tree': {'否': {'label:': '否', 'feature': None, 'tree': {}}, '是': {'label:': '是', 'feature': None, 'tree': {}}}}, '是': {'label:': '是', 'feature': None, 'tree': {}}}}

In [11]

dt.predict(['老年', '否', '否', '一般'])
'否'

4.4 利用 sklearn.tree.DecisionTreeClassifier函数用于构建决策树,默认使用CART算法

In [12]

# datadef create_data():    iris = load_iris()    df = pd.DataFrame(iris.data, columns=iris.feature_names)    df['label'] = iris.target    df.columns = ['sepal length', 'sepal width', 'petal length', 'petal width', 'label']    data = np.array(df.iloc[:100, [0, 1, -1]])    # print(data)    return data[:,:2], data[:,-1]X, y = create_data()X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3)

In [13]

from sklearn.tree import DecisionTreeClassifierfrom sklearn.tree import export_graphvizimport graphviz

In [14]

clf = DecisionTreeClassifier()clf.fit(X_train, y_train,)

In [15]

clf.score(X_test, y_test)
0.9

In [16]

tree_pic = export_graphviz(clf, out_file="mytree.pdf")with open('mytree.pdf') as f:    dot_graph = f.read()

In [17]

# 决策树可视化graphviz.Source(dot_graph)

以上就是“机器学习”系列之决策树的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/59720.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月10日 15:48:33
下一篇 2025年11月10日 15:52:25

相关推荐

  • 什么是大饼?如何利用BTC大饼基础定投避开熊市恐慌?

    理解比特币的去中心化、稀缺性及安全性,建立定投计划并坚持执行,利用市场周期性在熊市中低成本积累资产,定期评估以确保纪律性,从而降低平均成本,实现长期投资目标。 币安官网: 币安官方app: 在加密资产领域,“大饼”是对比特币(BTC)的通俗称呼。理解其基本属性,并结合定投策略,可以帮助投资者在市场下…

    2025年12月11日
    000
  • 币安binance交易所APP中文版下载、注册、交易教程 一文详解

    本文提供币安APP使用指南,涵盖下载安装、注册账户、身份认证、交易及提现实操步骤,确保新手安全完成全流程操作。 币安Binance 币安Binance官网入口: 币安BinanceAPP下载链接: 本文旨在为新手用户提供一份详尽的币安交易所APP使用指南,内容涵盖了从下载、注册账户到进行交易和资产提…

    2025年12月11日
    000
  • 派币值多少钱?一文揭秘派币真实价值

    派币当前无统一市场价,其价值主要由社区共识、IOU投机及生态发展决定。主网封闭期间无法在主流平台交易,仅有小范围易货价值;部分平台的IOU价格反映投机预期,风险较高;长期价值取决于用户基数、生态应用、开放主网进展及代币经济模型。 欧易官网: 欧易官方app: 币安官网: 币安官方app: gate.…

    2025年12月11日
    000
  • BF币:比特国际交易所平台币全攻略

    BF%ignore_a_1%是比特国际平台发行的ERC-20代币,具有通缩机制、权益凭证及多种应用场景。平台定期回购销毁BF币以减少流通量,持有者可享交易手续费折扣、参与投票决策和优先认购新项目等权益。用户可通过登录账户,在币币交易区使用USDT等资产兑换BF币,并在资产页面查看持仓详情与交易记录。…

    2025年12月11日
    000
  • 2025年适合新手小白的虚拟货币有什么?适合新手购买的加密货币推荐

    比特币、以太坊、稳定币和BNB是适合新手的入门级加密资产。比特币作为市场基石,具有高流动性与稀缺性,但价格波动大,需评估风险;以太坊不仅是数字资产,更是支持智能合约与DApps的开源平台,生态繁荣,已转向PoS机制,Gas费为其交易成本;稳定币如USDC、USDT锚定美元,提供市场避险功能,选择时应…

    2025年12月11日
    000
  • 2025币安注册领奖金:邀请码激活教程

    注册币安账户时填写邀请码可激活平台奖励。首先通过网页或手机应用进入官网,选择注册并填写邮箱或手机号,在展开的“邀请码(选填)”栏准确输入邀请码,系统将自动验证其有效性,随后设置密码、同意条款并完成身份验证即可成功注册并领取福利。 在币安平台注册账户时,通过填写邀请码来激活相应奖励的流程。这个过程可以…

    2025年12月11日
    000
  • 币安Meme Rush是什么?应该怎么玩?

    币安Meme Rush是限时交易竞赛,用户需在指定时间内完成Meme代币交易任务以瓜分奖励池。参与前须完成身份认证、阅读公告、确认交易对并准备资产;活动期间需报名并交易指定代币对,有效交易量按规则累计,奖励根据个人占比分配,禁止作弊行为,违规者将被取消资格。 币安官网: 币安官方app: 币安Mem…

    2025年12月11日
    000
  • 买币卖币交易平台排名 币圈交易平台推荐

    Binance、OKX、Bybit和Gate.io是四大主流数字资产交易平台,各具特色:Binance交易量大、资产种类全,适合各类用户,建议启用二次验证保障安全;OKX在亚洲影响力强,产品线丰富并设有学习学院,便于新手入门,进行C2C交易时需核对商家认证信息;Bybit以衍生品起家,界面友好,客户…

    2025年12月11日
    000
  • 中国大陆下载注册币安(Binance)交易所指南一文详解

    币安是全球领先的数字资产交易平台,提供BTC、ETH等多种主流与新兴资产交易服务,支持现货交易、合约产品、理财服务及实时市场数据。用户可通过官网注册账户,使用邮箱或手机号完成注册并设置安全密码,随后进行KYC身份认证以解锁全部功能。 币安(binance)作为一家全球知名的综合性数字资产服务平台,为…

    2025年12月11日 好文分享
    000
  • Janction (JCT)币是什么?JCT价格预测2025、2026-2030年

    加密货币世界一直在不断发展。janction (jct) 作为人工智能应用的第二层解决方案脱颖而出。jct 旨在弥合区块链可扩展性和人工智能高计算需求之间的差距。它凭借其gpu市场和智能合约功能吸引了投资者的兴趣。截至2025年11月,jct的价格约为0.0042美元,较前24小时上涨13.82%。…

    2025年12月11日
    000
  • 什么是BOB($BOB)币?有投资价值吗?BOB代币经济学和投资价值分析

    北京时间 11 月 20 日,混合公链项目 bob(build on bitcoin)发布官方博客公布 $bob 代币经济模型,并于美东时间 11 月 20 日发行该代币(tge)。 Binance币安 欧易OKX ️ Huobi火币️ BOB 是比特币 DeFi 生态的最具代表项目,是通往比特币 …

    2025年12月11日 好文分享
    000
  • Turtle(TURLE)币是什么?怎么样?TURLE代币经济与未来前景分析

    Turtle (TURLE) 是部署于 Solana 链的社区驱动型迷因币,1、基于高速低费的 Solana 网络运行;2、围绕“乌龟”文化构建品牌与社区;3、强调社区主导项目发展。 1、币安Binance 币安Binance官网入口: 币安BinanceAPP下载链接: 2、欧易okx 欧易okx…

    2025年12月11日
    000
  • 币安交易所APP中文版下载、注册、出入金交易教程(新手必看)

    币安是全球领先的数字资产交易平台,支持数百种加密货币交易,提供现货、合约及理财服务。用户可通过官方渠道注册账户并完成KYC认证,下载最新版App(v2.85.1)以保障安全使用。平台强调通过正规入口访问,防范钓鱼风险,并推荐欧易OKX、火币Huobi等其他可信平台。 币安(binance)是全球范围…

    2025年12月11日 好文分享
    000
  • 什么是比特币期货ETF?它有何不同?优缺点详细讲解

    比特币期货ETF通过投资期货合约间接追踪比特币价格,无需直接持有或保管数字资产。1、其基础资产为CME等平台的合规比特币期货合约,提供传统账户交易便利与监管透明度;2、相比现货ETF直接持币,期货ETF因展期成本和基差波动存在跟踪误差,尤其在正价差环境下持续侵蚀回报;3、投资者虽规避了私钥管理风险,…

    2025年12月11日
    000
  • 比特币价格历程:从诞生到巅峰

    比特币价格从2010年10,000个买披萨起步,经历2011年32美元、2013年1,163美元、2017年近20,000美元的高峰,2025年因传统金融机构推出投资产品推动价格创历史新高。 比特币自诞生以来,其价格经历了从几乎为零到数万美金的巨大波动。这个过程充满了里程碑式的事件,记录了其价值发现…

    2025年12月11日
    000
  • ANyONe 协议 (ANYONE)币是什么?值不值得购入?代币经济学、价格分析

    最近在隐私方面脱颖而出的项目是 anyone protocol (anyone),这是前身 airtor protocol (ator) 的全新品牌升级。 Binance币安 欧易OKX ️ Huobi火币️ 但ANyONe协议(ANYONE)究竟是什么?它的代币经济学是什么?价格怎么样?这篇指南会…

    2025年12月11日
    000
  • Solana(SOL)币有多少枚?SOL代币流通量、供应量介绍

    Binance币安 欧易OKX ️ Huobi火币️ Solana简介 ‍ 加密货币投资者在研究Solana生态系统时,通常会问的一个主要问题是:“Solana 有多少种代币?” Solana 是一个高性能、快速的区块链平台,旨在实现可扩展性、低交易费用和快速交易吞吐量。其原生代币 SOL 在网络治…

    2025年12月11日
    000
  • RedStone(RED)币预估最高涨到多少?RED币未来价格如何?

    区块链行业的繁荣创建在数据之上,redstone正在为去中心化网络获取实时信息的方式带来创新。redstone是一个模块化区块链预言机,类似于chainlink和pyth network,但它以模块化设计的独特优势脱颖而出。red币则是redstone的内核代币,旨在激励数据提供者并确保网络安全。对…

    2025年12月11日 好文分享
    000
  • 比特币怎样交易 哪些平台可以比特币交易

    比特币交易需在合规平台注册并完成身份验证,熟悉交易界面后选择BTC/USDT等交易对,通过市价单或限价单提交买卖指令,其中市价单成交快但价格不确定,限价单可控制价格但可能不成交;主流平台包括Binance、Coinbase、Kraken和OKX;账户安全须开启双因素认证、设置复杂密码、警惕钓鱼攻击并…

    2025年12月11日
    000
  • AI + Crypto:2025年最值得关注的融合赛道,哪些项目将引领潮流

    AI与加密货币融合预示去中心化智能经济到来,涵盖去中心化算力、链上安全分析与AI代理三大方向,推动Web3创新浪潮。 正规靠谱的主流货币交易所推荐: 欧易OKX: Binance币安: 火币Huobi: Gateio芝麻开门: AI与加密货币的结合正成为2025年最激动人心的技术叙事。这个融合不仅是…

    2025年12月11日
    000

发表回复

登录后才能评论
关注微信