【Python机器学习】感知器进行信用分类和使用KNN进行图书推荐实战(附源码和数据集)

这篇具有很好参考价值的文章主要介绍了【Python机器学习】感知器进行信用分类和使用KNN进行图书推荐实战(附源码和数据集)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

需要源码和数据集请点赞关注收藏后评论区留言私信~~~

一、KNN进行图书推荐

KNN算法思想简介

KNN 可以说是最简单的分类算法之一,同时,它也是最常用的分类算法之一。注意:KNN 算法是有监督学习中的分类算法,它看起来和另一个机器学习算法 K-means 有点像(K-means 是无监督学习算法),但却是有本质区别的。

KNN 的全称是 K Nearest Neighbors,意思是 K 个最近的邻居。从这个名字我们就能看出一些 KNN 算法的蛛丝马迹了。K 个最近邻居,毫无疑问,K 的取值肯定是至关重要的,那么最近的邻居又是怎么回事呢?其实,KNN 的原理就是当预测一个新的值 x 的时候,根据它距离最近的 K 个点是什么类别来判断 x 属于哪个类别。

要度量空间中点距离的话,有好几种度量方式,比如常见的曼哈顿距离计算、欧式距离计算等等。不过通常 KNN 算法中使用的是欧式距离。这里只是简单说一下,拿二维平面为例,二维空间两个点的欧式距离计算公式如下:

【Python机器学习】感知器进行信用分类和使用KNN进行图书推荐实战(附源码和数据集)

该如何确定 K 取多少值好呢?答案是通过交叉验证(将样本数据按照一定比例,拆分出训练用的数据和验证用的数据,比如6:4拆分出部分训练数据和验证数据),从选取一个较小的 K 值开始,不断增加 K 的值,然后计算验证集合的方差,最终找到一个比较合适的 K 值。 

【Python机器学习】感知器进行信用分类和使用KNN进行图书推荐实战(附源码和数据集)

 

描述:下面比表7.5中是一个图书网站的数据,有5位用户对4本图书进行了评分。详细评分的值越大表示喜好越强烈。使用KNN模型找出与用户F最相似的用户。

【Python机器学习】感知器进行信用分类和使用KNN进行图书推荐实战(附源码和数据集)

预测结果如下 用户C与用户F喜好最为相似

 【Python机器学习】感知器进行信用分类和使用KNN进行图书推荐实战(附源码和数据集)

部分代码如下

# -*- coding: utf-8 -*-
import numpy as np
from sklearn import neighbors
knn = neighbors.KNeighborsClassifier(1)   #取得 knn 分类器
data = np.array([[1.1, 1.5, 1.4, 0.2],
                 [1.9, 1.0, 1.4 ,0.2],
                 [1.7, 1.2, 1.3, 0.2],
                 [2.6, 2..2]])
labels = np.array(['A','B','C','D','E'])
knn.fit(data)
print("预测结果:",knn.predict(np.array([[1.6, 1.5, 1.2, 0.1]]).reshape(1,-1)))

 二、使用感知器Perceptron进行信用分类

感知机(perceptron),又称“人工神经元”或“朴素感知机”,由Frank Rosenblatt于1957年提出。作为神经网络的起源算法,通过深入学习可以帮助我们更好的理解神经网络的部分工作原理。

感知机接受多个输入信号,输出一个信号。感知机的信号只有“0(不传递信号)”和“1(传递信号)”两种。

单个感知机的局限性就在于它只能表示由一条直线分割的空间,对于非线性问题(即线性不可分问题)仅用单个感知机无法解决。

使用感知器对信用分类结果如下

【Python机器学习】感知器进行信用分类和使用KNN进行图书推荐实战(附源码和数据集)

可以看出有一条很明显的分界线将信用分成两个部分 

 【Python机器学习】感知器进行信用分类和使用KNN进行图书推荐实战(附源码和数据集)

 部分代码如下

# -*- encoding:utf-8 -*-
from sklearn.linear_model import Perceptron
from sklearn.cross_validation import train_test_split
from matplotlib import pyplot as plt
import numpy as np
import pandas as pd

def loaddata(): 
    people = pd.read_csv("credit-overdue.csv", header=0) # 加载数据集
    X = people[['debt','income']].values
    y = people['overdue'].values
    return X,y 

print("Step1:read data...")
x,y=loaddata() 

#拆分为训练数据和测试数据
print("Step2:fit by Perceptron...")
x_train,x_test,y_train,y_test=train_test_split(x,y,test_size=0.2,random_state=0) 

#将两类值分别存放、以便显示
positive_x1=[x[i,0]for i in range(len(y)) if y[i]==1]
positive_x2range(len(y)) if y[i]==0] 

#定义感知机
clf=Perceptron(n_iter=100)
clf.fit(x_train,y_train)
print("Step3:get the weights and bias...")

#得到结果参数
weights=clf.coef_
bias=clf.intercept_
print('  权重为:',weights,'\n  截距为:',bias)
print("Step4:compute the accuracy...")    

#使用测p5:draw with the weights and bias...")
plt.scatter(positive_x1,positive_x2, marker='^',c='red')
plt.scatter(negetive_x1,negetive_x2,c='blue')

#显示感知机生成的分类线 
line_x=np.arange(0,4)
line_y=line_x*(-weights[0][0]/weights[0][1])-bias
plt.plot(line_x,line_y)
plt.show()

创作不易 觉得有帮助请点赞关注收藏~~~文章来源地址https://www.toymoban.com/news/detail-462482.html

到了这里,关于【Python机器学习】感知器进行信用分类和使用KNN进行图书推荐实战(附源码和数据集)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 机器学习与深度学习——通过knn算法分类鸢尾花数据集iris求出错误率并进行可视化

    什么是knn算法? KNN算法是一种基于实例的机器学习算法,其全称为K-最近邻算法(K-Nearest Neighbors Algorithm)。它是一种简单但非常有效的分类和回归算法。 该算法的基本思想是:对于一个新的输入样本,通过计算它与训练集中所有样本的距离,找到与它距离最近的K个训练集样

    2024年02月03日
    浏览(41)
  • 机器学习(七):梯度下降解决分类问题——perceptron感知机算法与SVM支持向量机算法进行二维点分类

    实验2 感知机算法与支持向量机算法 一、预备知识 1.感知机算法 二、实验目的 掌握感知机算法的原理及设计; 掌握利用感知机算法解决分类问题。 三、实验内容 设计感知机算法求解, 设计SVM算法求解(可调用函数库),请找出支持向量和决策超平面。 四、操作方法和实验

    2023年04月26日
    浏览(90)
  • 深度学习实战(11):使用多层感知器分类器对手写数字进行分类

    1.1 什么是多层感知器(MLP)? MLP 是一种监督机器学习 (ML) 算法,属于前馈人工神经网络 [1] 类。该算法本质上是在数据上进行训练以学习函数。给定一组特征和一个目标变量(例如标签),它会学习一个用于分类或回归的非线性函数。在本文中,我们将只关注分类案例。

    2024年02月03日
    浏览(52)
  • 初识机器学习——感知机(Perceptron)+ Python代码实现鸢尾花分类

      假设输入空间 χ ⊆ R n chisubseteq R^n χ ⊆ R n ,输出空间为 γ = { + 1 , − 1 } gamma=left { +1,-1right } γ = { + 1 , − 1 } 。其中每一个输入 x ⊆ χ xsubseteq chi x ⊆ χ 表示对应于实例的特征向量,也就是对应于输入空间(特征空间)的一个点, y ⊆ γ ysubseteq gamma y ⊆ γ 输出表

    2023年04月08日
    浏览(50)
  • 用K近邻(KNN)机器学习算法进行股票走势预测-Python

    K近邻(KNN,K-Nearest Neighbors)是最简单的机器学习算法之一,可用于回归和分类。KNN是一种“惰性”学习算法,从技术上讲,它不训练模型来进行预测。K近邻的逻辑是,假设有一个观测值,这个观测值被预测属于离它k个最近观测值中所占比例最大的那一个类。KNN方法是直接尝试

    2024年02月04日
    浏览(54)
  • 机器学习KNN最邻近分类算法

    KNN (K-Nearest Neighbor) 最邻近分类算法,其核心思想“近朱者赤,近墨者黑”,由你的邻居来推断你的类别。 图中绿色圆归为哪一类? 1、如果k=3,绿色圆归为红色三角形 2、如果k=5,绿色圆归为蓝色正方形 参考文章 knn算法实现原理:为判断未知样本数据的类别,以所有已知样

    2024年04月10日
    浏览(68)
  • 机器学习——kNN算法之红酒分类

    目录 StandardScaler的使用 KNeighborsClassifier的使用 代码实现 数据集介绍 数据集为一份红酒数据,总共有 178 个样本,每个样本有 13 个特征,这里不会为你提供红酒的标签,你需要自己根据这 13 个特征对红酒进行分类。部分数据如下图: StandardScaler的使用 由于数据中有些特征的

    2024年02月11日
    浏览(38)
  • 机器学习-KNN算法(鸢尾花分类实战)

    前些天发现了一个巨牛的人工智能学习网站,通俗易懂,风趣幽默,忍不住分享一下给大家。点击跳转到网站。 K近邻(K Nearest Neighbors,KNN)算法是最简单的分类算法之一,也就是根据现有训练数据判断输入样本是属于哪一个类别。 “近朱者赤近墨者黑\\\",所谓的K近邻,也就

    2023年04月08日
    浏览(72)
  • 【机器学习】分类算法 - KNN算法(K-近邻算法)KNeighborsClassifier

    「作者主页」: 士别三日wyx 「作者简介」: CSDN top100、阿里云博客专家、华为云享专家、网络安全领域优质创作者 「推荐专栏」: 对网络安全感兴趣的小伙伴可以关注专栏《网络安全入门到精通》 is_array() 可以 「检测」 变量是不是 「数组」 类型。 语法 参数 $var :需要检

    2024年02月16日
    浏览(42)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包