svm支持向量机、高斯朴素叶贝斯和决策树对威斯康星州乳腺癌(诊断)数据集分析实验

这篇具有很好参考价值的文章主要介绍了svm支持向量机、高斯朴素叶贝斯和决策树对威斯康星州乳腺癌(诊断)数据集分析实验。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

总代码:

import pandas as pd  
from sklearn.model_selection import train_test_split  
from sklearn.metrics import accuracy_score  
import matplotlib.pyplot as plt 
import numpy as np 
plt.rcParams['font.sans-serif'] = ['SimHei']  #显示中文

# 读取本地数据集  
data = pd.read_csv('data.csv')  
datas = np.array(data)
x = np.array(data[['radius_mean','texture_mean']])
data['diagnosis'] = data['diagnosis'].map({'M': 1, 'B': 0})  
y = np.array(data['diagnosis'])

#拆分训练集与测试集
X_train,X_test,y_train,y_test = train_test_split(x, y,test_size = 0.2, random_state = 82)

#绘制分类边界线
l,r = x[:,0].min() -1, x[:,0].max() + 1
b,t = x[:,1].min() -1, x[:,1].max() + 1
n = 500 #分界线的光滑程度

#从坐标向量中返回坐标矩阵
grid_x,grid_y = np.meshgrid(np.linspace(1,r,n), np.linspace(b, t,n))

#把 grid_x 与 grid_t 押平了组成模型的输入,预测输出
# ravel()方法将数组维度拉成一维数组
mesh_x = np.column_stack((grid_x.ravel(),grid_y.ravel()))


# In[1]
#基于线性函数的 svm 绘制分类边界
from sklearn.svm import SVC   #支持向量机做分类  监督学习
model = SVC(kernel = 'linear',random_state=42)
model.fit(X_train,y_train)
#模型预测准确率
y_pred1 = model.predict(X_test) 
a1 = accuracy_score(y_pred1, y_test)
print("支持向量机预测精准度: a1= ", a1) 

pred_mesh_y = model.predict(mesh_x)
grid_z = pred_mesh_y.reshape(grid_x.shape)

#绘制这些点
plt.pcolormesh(grid_x, grid_y,grid_z,label = 'dff',cmap = 'gray')
plt.scatter(x[y == 0,0], x[y == 0,1], s = 30, c ='r', label = '良性乳腺癌')
plt.scatter(x[y == 1,0], x[y == 1,1], s = 30, c = 'g', label = '恶性乳腺癌')
plt.title('良恶性乳腺癌-支持向量机',fontsize = 16)
plt.xlabel('radius_mean', fontsize = 12)
plt.ylabel('texture_mean', fontsize = 12)
plt.xlim(l, r)
plt.ylim(b, t)
plt.legend()
plt.show()

# In[1]
#引入高斯函数,高斯朴素叶贝斯做分类  监督学习
from sklearn.naive_bayes import GaussianNB

#实例化
clf = GaussianNB(var_smoothing=0.1)

#训练数据 fit相当于train
clf.fit(X_train,y_train)
#输出单个预测结果
pred = clf.predict(X_test)

#精确度
from sklearn.metrics import accuracy_score
a2 = accuracy_score(pred, y_test)
print(f'贝叶斯分类器预测精确度:a2= {a2}')

pred_mesh_y = clf.predict(mesh_x)
grid_z = pred_mesh_y.reshape(grid_x.shape)

#绘制这些点
plt.pcolormesh(grid_x, grid_y,grid_z,label = 'dff',cmap = 'gray')
plt.scatter(x[y == 0,0], x[y == 0,1], s = 30, c ='r', label = '良性乳腺癌')
plt.scatter(x[y == 1,0], x[y == 1,1], s = 30, c = 'g', label = '恶性乳腺癌')
plt.title('良恶性乳腺癌-贝叶斯',fontsize = 16)
plt.xlabel('radius_mean', fontsize = 12)
plt.ylabel('texture_mean', fontsize = 12)
plt.xlim(l, r)
plt.ylim(b, t)
plt.legend()
plt.show()

# In[1]
from sklearn.tree import DecisionTreeClassifier   #决策树做分类,监督学习
from matplotlib.colors import ListedColormap  #是一个特殊的颜色映射类,允许你从一组预定义的颜色列表中创建一个颜色映射。
from sklearn import tree

#创建决策树算法对象
tree_clf=DecisionTreeClassifier(max_depth=2,random_state=42)
#创建决策树
tree_clf.fit(X_train,y_train)
#绘制决策树结构
tree.plot_tree(tree_clf,filled=True)

from sklearn.tree import export_text
feature_namess = ['radius_mean','texture_mean']
r=export_text(tree_clf,feature_names=feature_namess)
print(r)

l,r = x[:,0].min() -1, x[:,0].max() + 1
b,t = x[:,1].min() -1, x[:,1].max() + 1
n=500  #线光滑程度

#定义绘制决策边界的函数
def plo(clf,x,y,axes=[l,r,b,t],
        datas=True,
        legend=False,
        plot_training=True):
    x1s=np.linspace(axes[0], axes[1],100)
    x2s=np.linspace(axes[2], axes[3],100)
    x1,x2=np.meshgrid(x1s, x2s)
    X_new=np.c_[x1.ravel(),x2.ravel()]
    y_pred=clf.predict(X_new).reshape(x1.shape)
    custom_cmap=ListedColormap(['#a0faa0','#9898ff'])
    plt.contourf(x1, x2,y_pred,alpha=0.3,cmap=custom_cmap)
    if not datas:
        custom_cmap2=ListedColormap(['#a0faa0','#9898ff'])
        plt.contour(x1, x2,y_pred,cmap=custom_cmap2,alpha=0.8)
    if plot_training:
        plt.plot(x[:,0][y==0],x[:,1][y==0],"yo",label="良性乳腺癌")
        plt.plot(x[:,0][y==1],x[:,1][y==1],"bs",label="恶性乳腺癌")
        plt.axis(axes)
    if datas:
        plt.xlabel("radius_mean",fontsize=14)
        plt.ylabel("texture_mean",fontsize=14)
    else:
        plt.xlabel(r"radius_mean",fontsize=14)
        plt.ylabel(r"texture_mean",fontsize=14)
    if legend:
        plt.legend(loc=0,fontsize=14)
        
 
tree_clf1=DecisionTreeClassifier(random_state=42)#没有做剪枝处理 会出现过拟合
 
#减少过拟合
tree_clf2=DecisionTreeClassifier(min_samples_leaf=4,random_state=42)#做剪枝处理
 
tree_clf1.fit(X_train,y_train)
tree_clf2.fit(X_train,y_train)
 
plt.figure(figsize=(12,4))
plt.subplot(121)  #第二左边张图形
plo(tree_clf1,x,y,axes=[l,r,b,t],datas=False)
plt.title('剪枝前良恶性乳腺癌-决策树算法',fontsize = 16)
plt.legend()
 
plt.subplot(122)  #第二右边张图形
plo(tree_clf2,x,y,axes=[l,r,b,t],datas=False)
plt.title('剪枝后良恶性乳腺癌-决策树算法',fontsize = 16)
plt.legend()
plt.show()
print('\n')

#模型准确率
abb1 = tree_clf.score(X_test, y_test)
abb2_1 = tree_clf1.score(X_test, y_test)
abb2_2 = tree_clf2.score(X_test, y_test)
print('第一张图形决策树算法得分:abb1=',abb1)
print('第二张图形左边决策树算法得分:abb2_1=',abb2_1)
print('第二张图形右边决策树算法得分:abb2_2=',abb2_2)

# In[1]
print('\n')
print("-------模型精准度对比--------")
data = {  
      
    '算法': ["支持向量机", "贝叶斯分类器","决策树1", "决策树2","决策树3"],  
    '模型得分': [a1, a2, abb1, abb2_1,abb2_2]
}  
df = pd.DataFrame(data)  
sorted_df = df.sort_values(by='模型得分',ascending=False)  
  
# 打印排序后的DataFrame  
print(sorted_df)

《机器学习项目实践》实验报告

      专业班级:      人工智能2303      

      学    号:      23055090355       

      姓    名:        刘嘉成          

      指导教师:         黄志伟           

实验名称:

svm支持向量机、高斯朴素叶贝斯和决策树对威斯康星州乳腺癌(诊断)数据集分析实验

实验内容:(包括对数据集的描述)

  • 用三种算法对威斯康星州乳腺癌(诊断)数据集中的'radius_mean','texture_mean'两个特征进行模型训练获得模型精准度得分以及分别可视化良恶性分布图形。
  • 通过各算法的参数优化得到的模型精准度得分进行比较分析,确定哪一个算法更适合做'radius_mean','texture_mean'两个特征的实验。
  • 通过对比各算法的可视化图形可知什么模型算法更好。

四、数据集的描述:

1.总样本实例数:569

2.属性数量:32(ID、诊断、30个实值输入特征如下)

svm支持向量机、高斯朴素叶贝斯和决策树对威斯康星州乳腺癌(诊断)数据集分析实验,支持向量机,决策树,算法

3. 诊断(M=恶性,B=良性)

4.分类分布:良性357种,恶性212种

实验方法:

  1. 支持向量机  import sklearn.svm as svm
  2. 贝叶斯分类器  from sklearn.naive_bayes import GaussianNB
  3. 决策树算法  from sklearn.tree import DecisionTreeClassifier
  4. 模块pandas读取数据、train_test_split 分割训练集和测试集、accuracy_score 计算预测精准度、matplotlib.pyplot图形可视化、numpy数据处理转化。

实验过程:(加上源代码)

  • 导入公共模块和显示中文模块
import pandas as pd    
from sklearn.model_selection import train_test_split    
from sklearn.metrics import accuracy_score    
import matplotlib.pyplot as plt   
import numpy as np   
plt.rcParams['font.sans-serif'] = ['SimHei']  #显示中文  
  • 加载公共数据集,用pandas导入数据,并且用numpy转化数组。取'radius_mean','texture_mean'特征经行实验,并且将数据集中的M、B标签替换为1和0。
    # 读取本地数据集    
    data = pd.read_csv('data.csv')    
    datas = np.array(data)  
    x = np.array(data[['radius_mean','texture_mean']])  
    data['diagnosis'] = data['diagnosis'].map({'M': 1, 'B': 0})    
    y = np.array(data['diagnosis']) 
  • 拆分训练集与测试集
    #拆分训练集与测试集  
    X_train,X_test,y_train,y_test = train_test_split(x, y,test_size = 0.2, random_state = 82)
  • 加载公共'radius_mean','texture_mean'特征中的最大值和最小值范围加减1,同时也是为了后面可视化图形的分割线,并且设置分割线的光滑程度为n=500 
#绘制分类边界线  
l,r = x[:,0].min() -1, x[:,0].max() + 1  
b,t = x[:,1].min() -1, x[:,1].max() + 1  
n = 500 #分界线的光滑程度  
  
#从坐标向量中返回坐标矩阵  
grid_x,grid_y = np.meshgrid(np.linspace(1,r,n), np.linspace(b, t,n))  
  
#把 grid_x 与 grid_t 押平了组成模型的输入,预测输出  
# ravel()方法将数组维度拉成一维数组  
mesh_x = np.column_stack((grid_x.ravel(),grid_y.ravel())) 
  • 支持向量机
  1. 导入模型算法
  2. 模型训练
  3. 模型预测
  4. 可视化图形
#基于线性函数的 svm 绘制分类边界  
from sklearn.svm import SVC   #支持向量机做分类  监督学习  
model = SVC(kernel = 'linear',random_state=42)  
model.fit(X_train,y_train)  
#模型预测准确率  
y_pred1 = model.predict(X_test)   
a1 = accuracy_score(y_pred1, y_test)
print("支持向量机预测精准度: a1= ", a1)   
  
pred_mesh_y = model.predict(mesh_x)  
grid_z = pred_mesh_y.reshape(grid_x.shape)  
  
#绘制这些点  
plt.pcolormesh(grid_x, grid_y,grid_z,label = 'dff',cmap = 'gray')  
plt.scatter(x[y == 0,0], x[y == 0,1], s = 30, c ='r', label = '良性乳腺癌')  
plt.scatter(x[y == 1,0], x[y == 1,1], s = 30, c = 'g', label = '恶性乳腺癌')  
plt.title('良恶性乳腺癌-支持向量机',fontsize = 16)  
plt.xlabel('radius_mean', fontsize = 12)  
plt.ylabel('texture_mean', fontsize = 12)  
plt.xlim(l, r)  
plt.ylim(b, t)  
plt.legend()  
plt.show()  
  • 高斯朴素叶贝斯

1、导入模型算法

2、模型训练

3、模型预测

4、可视化图形

#引入高斯函数,高斯朴素叶贝斯做分类  监督学习  
from sklearn.naive_bayes import GaussianNB  
  
#实例化  
clf = GaussianNB(var_smoothing=0.1)  
  
#训练数据 fit相当于train  
clf.fit(X_train,y_train)  
#输出单个预测结果  
pred = clf.predict(X_test)  
  
#精确度  
from sklearn.metrics import accuracy_score 
a2 =  accuracy_score(pred, y_test)
print(f'贝叶斯分类器预测精确度:a2= {a2}')  
  
pred_mesh_y = clf.predict(mesh_x)  
grid_z = pred_mesh_y.reshape(grid_x.shape)  
  
#绘制这些点  
plt.pcolormesh(grid_x, grid_y,grid_z,label = 'dff',cmap = 'gray')  
plt.scatter(x[y == 0,0], x[y == 0,1], s = 30, c ='r', label = '良性乳腺癌')  
plt.scatter(x[y == 1,0], x[y == 1,1], s = 30, c = 'g', label = '恶性乳腺癌')  
plt.title('良恶性乳腺癌-贝叶斯',fontsize = 16)  
plt.xlabel('radius_mean', fontsize = 12)  
plt.ylabel('texture_mean', fontsize = 12)  
plt.xlim(l, r)  
plt.ylim(b, t)  
plt.legend()  
plt.show()  
  • 决策树

1、导入模型算法

2、模型训练(1,2,3)

3、模型预测(1,2,3)

4、定义绘制决策边界的函数

5、可视化图形(1,2,3)

from sklearn.tree import DecisionTreeClassifier   #决策树做分类,监督学习  
from matplotlib.colors import ListedColormap  #是一个特殊的颜色映射类,允许你从一组预定义的颜色列表中创建一个颜色映射。  
from sklearn import tree  
  
#创建决策树算法对象  
tree_clf=DecisionTreeClassifier(max_depth=2,random_state=42)  
#创建决策树  
tree_clf.fit(X_train,y_train)  
#绘制决策树结构  
tree.plot_tree(tree_clf,filled=True)  
  
from sklearn.tree import export_text  
feature_namess = ['radius_mean','texture_mean']  
r=export_text(tree_clf,feature_names=feature_namess)  
print(r)  
  
l,r = x[:,0].min() -1, x[:,0].max() + 1  
b,t = x[:,1].min() -1, x[:,1].max() + 1  
n=500  #线光滑程度  
  
#定义绘制决策边界的函数  
def plo(clf,x,y,axes=[l,r,b,t],  
        datas=True,  
        legend=False,  
        plot_training=True):  
    x1s=np.linspace(axes[0], axes[1],100)  
    x2s=np.linspace(axes[2], axes[3],100)  
    x1,x2=np.meshgrid(x1s, x2s)  
    X_new=np.c_[x1.ravel(),x2.ravel()]  
    y_pred=clf.predict(X_new).reshape(x1.shape)  
    custom_cmap=ListedColormap(['#a0faa0','#9898ff'])  
    plt.contourf(x1, x2,y_pred,alpha=0.3,cmap=custom_cmap)  
    if not datas:  
        custom_cmap2=ListedColormap(['#a0faa0','#9898ff'])  
        plt.contour(x1, x2,y_pred,cmap=custom_cmap2,alpha=0.8)  
    if plot_training:  
        plt.plot(x[:,0][y==0],x[:,1][y==0],"yo",label="良性乳腺癌")  
        plt.plot(x[:,0][y==1],x[:,1][y==1],"bs",label="恶性乳腺癌")  
        plt.axis(axes)  
    if datas:  
        plt.xlabel("radius_mean",fontsize=14)  
        plt.ylabel("texture_mean",fontsize=14)  
    else:  
        plt.xlabel(r"radius_mean",fontsize=14)  
        plt.ylabel(r"texture_mean",fontsize=14)  
    if legend:  
        plt.legend(loc=0,fontsize=14)  
          
   
tree_clf1=DecisionTreeClassifier(random_state=42)#没有做剪枝处理 会出现过拟合  
   
#减少过拟合  
tree_clf2=DecisionTreeClassifier(min_samples_leaf=4,random_state=42)#做剪枝处理  
   
tree_clf1.fit(X_train,y_train)  
tree_clf2.fit(X_train,y_train)  
   
plt.figure(figsize=(12,4))  
plt.subplot(121)  #第二左边张图形  
plo(tree_clf1,x,y,axes=[l,r,b,t],datas=False)  
plt.title('剪枝前良恶性乳腺癌-决策树算法',fontsize = 16)  
plt.legend()  
   
plt.subplot(122)  #第二右边张图形  
plo(tree_clf2,x,y,axes=[l,r,b,t],datas=False)  
plt.title('剪枝后良恶性乳腺癌-决策树算法',fontsize = 16)  
plt.legend()  
plt.show()  
print('\n')  
  
#模型准确率  
abb1 = tree_clf.score(X_test, y_test)  
abb2_1 = tree_clf1.score(X_test, y_test)  
abb2_2 = tree_clf2.score(X_test, y_test)  
print('第一张图形决策树算法得分:abb1=',abb1)  
print('第二张图形左边决策树算法得分:abb2_1=',abb2_1)  
print('第二张图形右边决策树算法得分:abb2_2=',abb2_2)
  • 模型精准度比较大小
print("-------模型精准度对比--------")  
data = {    
        
    '算法': ["支持向量机", "贝叶斯分类器","决策树1", "决策树2","决策树3"],    
    '模型得分': [a1, a2, abb1, abb2_1,abb2_2]  
}    
df = pd.DataFrame(data)    
sorted_df = df.sort_values(by='模型得分',ascending=False)    
    
# 打印排序后的DataFrame    
print(sorted_df)  

-------模型精准度对比--------

算法      模型得分

0   支持向量机  0.921053

1  贝叶斯分类器  0.912281

2    决策树1  0.912281

4    决策树3  0.859649

3    决策树2  0.815789

实验结果与分析

同过三种算法对威斯康星州乳腺癌(诊断)数据集中的'radius_mean','texture_mean'两个特征进行实验。

得到的结果如下

svm支持向量机、高斯朴素叶贝斯和决策树对威斯康星州乳腺癌(诊断)数据集分析实验,支持向量机,决策树,算法

svm支持向量机、高斯朴素叶贝斯和决策树对威斯康星州乳腺癌(诊断)数据集分析实验,支持向量机,决策树,算法

1

svm支持向量机、高斯朴素叶贝斯和决策树对威斯康星州乳腺癌(诊断)数据集分析实验,支持向量机,决策树,算法

2-3

svm支持向量机、高斯朴素叶贝斯和决策树对威斯康星州乳腺癌(诊断)数据集分析实验,支持向量机,决策树,算法

算法精准度排序为:

-------模型精准度对比--------

算法      模型得分

0   支持向量机  0.921053

1  贝叶斯分类器  0.912281

2    决策树1  0.912281

4    决策树3  0.859649

3    决策树2  0.815789

总代码链接:

分析:

  1. 三种算法可视化图形都能较好的区分开良性肿瘤和恶性肿瘤。
  2. 三种算法的模型精准度都达到了0.8以上其中支持向量机达到了0.92。效果都较好,其中支持向量机效果相比其他算法是表现最好的。
  3. 总而言之svm支持向量机、高斯朴素叶贝斯和决策树对威斯康星州乳腺癌(诊断)数据集中的'radius_mean','texture_mean'两各特征都适合做分析实验,效果最好的是svm支持向量机其次到贝叶斯分类器最后是决策树。

提示:本实验不是最好的,仅供参考。文章来源地址https://www.toymoban.com/news/detail-786932.html

到了这里,关于svm支持向量机、高斯朴素叶贝斯和决策树对威斯康星州乳腺癌(诊断)数据集分析实验的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 什么是机器学习?监督学习的定义、概率论的基本概念以及模型选择、过拟合与欠拟合的问题。常见的监督学习算法,包括朴素贝叶斯(Naive Bayes)、决策树(Decision Tree)支持向量机随机森林

    作者:禅与计算机程序设计艺术 什么是机器学习?从定义、发展历程及目前的状态来看,机器学习由3个主要分支组成:监督学习(Supervised Learning),无监督学习(Unsupervised Learning)和强化学习(Reinforcement Learning)。这三类学习都可以使计算机系统根据输入数据自动分析和改

    2024年02月09日
    浏览(52)
  • python机器学习——分类模型评估 & 分类算法(k近邻,朴素贝叶斯,决策树,随机森林,逻辑回归,svm)

    交叉验证:为了让被评估的模型更加准确可信 交叉验证:将拿到的数据,分为训练和验证集。以下图为例:将数据分成5份,其中一份作为验证集。然后经过5次(组)的测试,每次都更换不同的验证集。即得到5组模型的结果,取平均值作为最终结果。又称5折交叉验证。 通常情

    2024年02月03日
    浏览(64)
  • python机器学习决策树和SVM向量机算法实现红酒分类

    经典的红酒分类数据集是指UCI机器学习库中的Wine数据集。该数据集包含178个样本,每个样本有13个特征,可以用于分类任务。 具体每个字段的含义如下: alcohol:酒精含量百分比 malic_acid:苹果酸含量(克/升) ash:灰分含量(克/升) alcalinity_of_ash:灰分碱度(以mEq/L为单位)

    2024年02月08日
    浏览(38)
  • 支持向量机SVM原理

    目录 支持向量机SVM原理 SVM原理 从线性分类器说起 SVM的目标是最大化分类间隔 转化为对偶问题求解                     【数之道】支持向量机SVM是什么,八分钟直觉理解其本质_哔哩哔哩_bilibili      SVM是由Vapnik等人于1995年提出的,在之后的20多年里它都是最具影响力的机

    2024年02月11日
    浏览(39)
  • 机器学习-支持向量机SVM

    在本练习中,我们将使用支持向量机(SVM)来构建垃圾邮件分类器。 我们将从一些简单的2D数据集开始使用SVM来查看它们的工作原理。 然后,我们将对一组原始电子邮件进行一些预处理工作,并使用SVM在处理的电子邮件上构建分类器,以确定它们是否为垃圾邮件。 我们要做

    2024年02月12日
    浏览(50)
  • SVM(支持向量机)-机器学习

    支持向量机(Support Vector Machine,SVM) 是一种用于分类和回归分析的监督学习算法 。它属于机器学习中的一类强大而灵活的模型,广泛应用于模式识别、图像分类、自然语言处理等领域。 基本原理: SVM的基本原理是通过找到能够有效分隔不同类别的超平面来进行分类。在二维

    2024年02月03日
    浏览(48)
  • 机器学习——支持向量机SVM

    支持向量机(SVM)是一种二类分类模型,其基本模型是在特征空间上找到最佳的分离超平面使得训练集上正负样本间隔最大,间隔最大使它有别于感知机,支持向量机也可通过核技巧使它成为非线性分类器。支持向量机的学习策略是间隔最大化,可将其转化为一个求解凸二次

    2024年01月17日
    浏览(51)
  • MATLAB 支持向量机(SVM)

    简单来讲就是如何将两个数据用点、直线、平面分开。。。。。 二维空间中,要分开两个线性可分的点集合,我们需要找到一条分类直线即可, 通俗来讲,在这个二维平面中,可以把两类点的分开的直线有很多条,那么这些直线中,哪一条才是最好的呢?也就是如何选择出

    2024年02月03日
    浏览(35)
  • 一文全解经典机器学习算法之支持向量机SVM(关键词:SVM,对偶、间隔、支持向量、核函数、特征空间、分类)

    之前所介绍的逻辑回归是基于似然度的分类方法,通过对数据概率进行建模来得到软输出。但这种分类方法其实稍加“繁琐”,因为要 估计数据的概率分布作为中间步骤 。这就像当一个人学习英语时,他只要直接报个班或者自己看书就行了,而不需要先学习诘屈聱牙的拉丁

    2024年02月03日
    浏览(59)
  • 【机器学习】支持向量机SVM入门

    相较于之前学习的线性回归和神经网络,支持向量机(Supprot Vector Machine,简称SVM)在拟合复杂的非线性方程的时候拥有更出色的能力,该算法也是十分经典的算法之一。接下来我们需要学习这种算法 首先我们回顾逻辑回归中的经典假设函数,如下图: 对于任意一个实例 (

    2024年02月15日
    浏览(51)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包