博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
python机器学习之k邻近算法
阅读量:6927 次
发布时间:2019-06-27

本文共 576 字,大约阅读时间需要 1 分钟。

#k近邻法算法原理,根据训练集数据,对于新数据进行数据的定位,n_neighbors参数=[1,3,6,9.....],参数越小则模型的复杂度越高。参数越多则决策边界越平滑。(基于python机器学习基础教程)

from sklearn.neighbors import KNeighborsClassifier

from sklearn.model_selection import train_test_split

import pandas as pd

import numpy as np

import matplotlib.pyplot as plt

import mglearn 

x,y=mglearn.datasets.make_forge()

x_train,x_test,y_train,y_test=train_test_split(x,y,random_state=0)

knn3=KNeighborsClassifier(n_neighbors=3)

knn3.fit(x_train,y_train)

y_pred=knn3.predict(x_test)

print(knn3.score(x_test,y_test))

 

转载于:https://www.cnblogs.com/thechain/p/9303716.html

你可能感兴趣的文章
大众点评点餐小程序开发经验 - 源码解析
查看>>
编写最基本的Gradle插件
查看>>
01、React系列之 React简介
查看>>
浅谈变量类型之外的变量命名
查看>>
Mixin Network第一届开发者大赛作品介绍- iXin和SuperCard
查看>>
20个数据库常见面试题讲解
查看>>
推荐一份 Google 面试指南
查看>>
React实战篇(React仿今日头条)
查看>>
iOS--TextView自适应高度以及键盘遮挡问题
查看>>
QuickBI助你成为分析师-数据建模(二)
查看>>
开源库小技巧+1,在 ContentProvider 中初始化
查看>>
egg sequelize 实践
查看>>
我们为什么需要 lock 文件
查看>>
java发送邮件方法的整理
查看>>
node.js gulp 自动化构建工具
查看>>
要点提炼| 理解JVM之类加载机制
查看>>
Android NDK开发之旅11 JNI JNI数据类型与方法属性访问
查看>>
移动端H5页面注意事项
查看>>
不思考才是真正的危机
查看>>
MacbookPro使用小记
查看>>