机器学习效果评价指标综述(准确率,精确率,召回率,F值,etc.)_张小帅的自留地的博客-CSDN博客_机器学习准确率召回率综合指标分析


本站和网页 https://blog.csdn.net/zd_lynn/article/details/84983406 的作者无关,不对其内容负责。快照谨为网络故障时之索引,不代表被搜索网站的即时页面。

机器学习效果评价指标综述(准确率,精确率,召回率,F值,etc.)_张小帅的自留地的博客-CSDN博客_机器学习准确率召回率综合指标分析
机器学习效果评价指标综述(准确率,精确率,召回率,F值,etc.)
张小帅的自留地
于 2018-12-13 11:05:09 发布
1673
收藏
文章标签:
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/zd_lynn/article/details/84983406
版权
1.准确率、精确率、召回率和 F 值是在统计待考察对象集体后,得出的重要评价指标。
不妨看看这些指标的定义:
   TP-将正类预测为正类
   FN-将正类预测为负类
   FP-将负类预测位正类
   TN-将负类预测位负类
 准确率(正确率)=所有预测正确的样本/总的样本  =(TP+TN)/总样本
 精确率=  将正类预测为正类 / 所有预测为正类 = TP/(TP+FP)
 召回率 = 将正类预测为正类 / 所有正真的正类 = TP/(TP+FN)
 F值 = 正确率 * 召回率 * 2 / (正确率 + 召回率) (F 值即为正确率和召回率的调和平均值)
2.现在有这样一个例子:某池塘有1400条鲤鱼,300只虾,300只鳖。现在以捕鲤鱼为目的。撒一大网,逮着了700条鲤鱼,200只虾,100只鳖。那么,这些指标分别如下:
正确率 = 700 / (700 + 200 + 100) = 70%
召回率 = 700 / 1400 = 50%
F值 = 70% * 50% * 2 / (70% + 50%) = 58.3%
不妨看看如果把池子里的所有的鲤鱼、虾和鳖都一网打尽,这些指标又有何变化:
正确率 = 1400 / (1400 + 300 + 300) = 70%
召回率 = 1400 / 1400 = 100%
F值 = 70% * 100% * 2 / (70% + 100%) = 82.35%
由此可见,正确率,是评估获得的所有成果中目标成果所占得比例;召回率,就是召回目标类别,即得到目标成果占所有目标成果的比例;而F值,则是综合这二者指标的评估指标,用于综合反映整体的指标。
当然希望检索结果Precision越高越好,同时Recall也越高越好,但事实上这两者在某些情况下有矛盾的。比如极端情况下,我们只搜索出了一个结果,且是准确的,那么Precision就是100%,但是Recall就很低;而如果我们把所有结果都返回,那么比如Recall是100%,但是Precision就会很低。因此在不同的场合中需要自己判断希望Precision比较高或是Recall比较高。如果是做实验研究,可以绘制Precision-Recall曲线来帮助分析。
3.综合评价指标(F-Measure)
P和R指标有时候会出现的矛盾的情况,这样就需要综合考虑他们,最常见的方法就是F-Measure(又称为F-Score)。
F-Measure是Precision和Recall加权调和平均:
当参数α=1时,就是最常见的F1,也即
可知F1综合了P和R的结果,当F1较高时则能说明试验方法比较有效。
E值,表示查准率P和查全率R的加权平均值,当其中一个为0时,E值为1,其计算公式:
b越大,表示查准率的权重越大。
平均正确率(Average Precision, AP),表示不同查全率的点上的正确率的平均。
张小帅的自留地
关注
关注
点赞
收藏
打赏
评论
机器学习效果评价指标综述(准确率,精确率,召回率,F值,etc.)
1.准确率、精确率、召回率和 F 值是在统计待考察对象集体后,得出的重要评价指标。不妨看看这些指标的定义:   TP-将正类预测为正类   FN-将正类预测为负类   FP-将负类预测位正类   TN-将负类预测位负类 准确率(正确率)=所有预测正确的样本/总的样本  =(TP+TN)/总样本 精确率=  将正类预测为正类 / 所有预测为正类 = TP/(TP+FP)...
复制链接
扫一扫
机器学习中的准确率,精确率,召回率以及F1值
qq_58277732的博客
03-21
2265
T:真,F:假,P:阳性,N:阴性
然后组合:
TP:真阳性 TN:真阴性 FP:假阳性 FN:假阴性
1.准确率:
首先给出准确率(Accuracy)的定义,即预测正确的结果占总样本的百分比,表达式为
2精确率:
你认为对的中,有多少确实是对的,所占的比率:
你认为对的:即预测值为1的数量=TP+FP
有多少确实是对的:TP
预测值为1的意思就是比如我做图像识别,模型预测这个图像是种类1,那个不是种类1,这两种情况合起来。
3.召回率:
本来是对的中...
逻辑回归预测瘀血阻络证||LogRegression 二分类 python3|五折交叉验证
最新发布
xl_xaio的博客
11-15
446
得出相应的分类指标准确率accuracy,精确率precision,召回率recall,F1-score,并画出最终的ROC曲线,得出AUC值。
参与评论
您还未登录,请先
登录
后发表或查看评论
机器学习算法中的评价指标(准确率、召回率、F值、ROC、AUC等)
dnjylhv2296的博客
12-07
358
参考链接:https://www.cnblogs.com/Zhi-Z/p/8728168.html
具体更详细的可以查阅周志华的西瓜书第二章,写的非常详细~
一、机器学习性能评估指标
1.准确率(Accurary)
准确率是我们最常见的评价指标,而且很容易理解,就是被分对的样本数除以所有的样本数,通常来说,正确率越高,分类器越好。
准确率确实是一个很好很直观的评价...
机器学习基础学习笔记(九)机器学习模型的评价指标-准确率、精确率、召回率和F值
exsolar_521的博客
07-21
838
以下内容均为https//nndl.github.io/nndl-book.pdf的学习笔记。
为了衡量一个机器学习模型的好坏,需要给定一个测试集,用模型对测试集中的每一个样本进行预测,并根据预测结果计算评价分数.
对于分类问题,常见的评价标准有准确率、精确率、召回率和F值等.给定测试集???? = {(????(1), ????(1)), ⋯ , (????(????), ????(????))},假设标签????(????) ∈ {1, ⋯ , ????},用学习好的模型????(????; ????∗
机器学习评价指标【准确率、精确率、召回率、F1值、ROC、AUC】
真心乖宝宝的博客
08-07
1167
准确率(precision)
在被判定为正样本的数据中,实际为正样本的个数
精确率(accuracy)
在所有数据中,正负样本判断正确的个数
召回率(recall)
在实际为正样本的数据中,被判定为正样本的个数
F1值
F1值是精确率和召回率的调和均值,相当于精确率和召回率的综合评价指标
ROC
接收者操作特征曲线(receiver operating characteristic curve),是反映敏感性和特异性连续变量的综合指标,ROC曲线上每个点反映着对同一信号刺激的感受性
横坐
机器学习分类问题指标理解——准确率(accuracy)、精确率(precision)、召回率(recall)、F1-Score、ROC曲线、P-R曲线、AUC面积
Michael的博客
03-18
4369
简单理解分类问题的7项模型评估指标:准确率(accuracy)、精确率(precision)、召回率(recall)、F1-Score、ROC曲线、P-R曲线、AUC面积
分类评价指标 F值 详解 | Micro F1 & Macro F1 & Weight F1
https://lolitasian.github.io/
05-25
1202
之前写一个作业样本不均衡问题。然后查了很多文章都说要更换评价指标,不能再使用准确率了,要计算F值。我看了一下F值怎么计算,看了挺多文章的,但是感觉说的比较迷惑,或者说法比较拗口。最后还是自己再总结一个。
查准率、查全率、F值
我们平时对于一个模型预测的准不准,我们最先想到的是用准确率(Accuracy)进行评价。
A=truetotal
A = \frac{true}{total}
A=totaltrue​
这个虽然常用,但不能满足所有任务的需求。
所以我们可以引入查准率和查全率。
查准率(Preci.
准确率(Accuracy) 精确率(Precision) 召回率(Recall)和F1-Measure
喔哟哟哟哟
04-02
7095
先验知识
  我们首先将数据的类别统一分为两类:正类和负类。例如:一个数据集中的数据一共有3类,小学生、中学生、高中生。我们的目标是预测小学生,那么标记为小学生的数据就是正类,标记为其他类型的数据都是负类。
  数据有两种状态:测试集数据和预测结果数据。
  对一批测试数据进行预测,结果可以分成四种。
TP(True Positive): 原本是正类,预测结果为正类。(正确预测为正类)
...
评价指标对比:准确率(accuracy)、精确率(Precision)、召回率(Recall)、IOU、Kappa系数
热门推荐
Ethan的博客
06-24
5万+
在人工智能算法中,算法实现,训练模型完成后,为了判定算法的好坏,需要对训练的模型进行评价,而评价的指标主要有以下几种:准确率(accuracy)、精确率(Precision)、召回率(Recall)、IOU、Kappa系数,下面分别进行讲解
1 场景假设
假如某班有女生20人,男生80人,共计100人.目标是找出所有女生,某人(分类器)挑选出50个人,其中20人是女生,另外还错误的把30个男生也当...
推荐系统评测指标—准确率(Precision)、召回率(Recall)、F值(F-Measure)
mousever的专栏
09-21
5万+
下面简单列举几种常用的推荐系统评测指标:
1、准确率与召回率(Precision & Recall)
准确率和召回率是广泛用于信息检索和统计学分类领域的两个度量值,用来评价结果的质量。其中精度是检索出相关文档数与检索出的文档总数的比率,衡量的是检索系统的查准率;召回率是指检索出的相关文档数和文档库中所有的相关文档数的比率,衡量的是检索系统的查全率。
一般来说,Precision就
详细讲解准确率、召回率和综合评价指标
anyi6536的博客
07-22
649
为了对实验结果进行评价,用到准确率、召回率和F值,下面对此进行详细介绍。
1、准确率与召回率(Precision & Recall)
准确率和召回率是广泛用于信息检索和统计学分类领域的两个度量值,用来评价结果的质量。其中精度是检索出相关文档数与检索出的文档总数的比率,衡量的是检索系统的查准率;召回率是指检索出的相关文档数和文档库中所有的相关文档数的比率,衡量的是检索系统的...
机器学习模型评价指标准确率召回率精确率
i_is_a_energy_man的博客
09-07
2252
做机器学习相关内容的同学肯定得接触的一件事就是模型的评价指标,我会把我收集的内容总结一下。
首先举一个简单的例子:
假如某个班级有男生80人,女生20人,共计100人.目标是找出所有女生.现在某人挑选出50个人,其中20人是女生,另外还错误的把30个男生也当作女生挑选出来了.
我们先谈到正确率accurcy的计算,在这个例子中这个人一共分对了70个人,因此accu
分类效果评价
xiaoyu714543065的专栏
01-31
1万+
一个分类器最主要的评测指标就是查准率(正确率)和查全率(召回率)。为了评价二分分类问题的性能,先做以下约定:
a:正例测试文档被正确分类为该类的数量;
b:负例测试文档被错误分类为属于该类的数量;
c:正例测试文档被错误分类为不属于该类的数量;
d:负例测试文档被正确分类为不属于该类的数量;
基于上面四个值,就可以定义下
准确率(Precision)、召回率(Recall)以及F值(F-Measure)
流浪的虾壳
07-06
3万+
在信息检索、分类体系中,有一系列的指标,搞清楚这些指标对于评价检索和分类性能非常重要,因此最近根据网友的博客做了一个汇总。
准确率、召回率、F1
信息检索、分类、识别、翻译等领域两个最基本指标是召回率(Recall Rate)和准确率(Precision Rate),召回率也叫查全率,准确率也叫查准率,概念公式:
召回率(Recall) =
机器学习分类模型中的评价指标介绍:准确率、精确率、召回率、ROC曲线
学无止境,居安思危
02-05
4446
文章来源:https://blog.csdn.net/wf592523813/article/details/95202448
1 二分类评价指标
准确率,精确率,召回率,F1-Score, AUC, ROC, P-R曲线
1.1 准确率(Accuracy)
评价分类问题的性能指标一般是分类准确率,即对于给定的数据,分类正确的样本数占总样本数的比例。
注意:准确率这一指标在Unbalanced数据集上的表现很差,因为如果我们的正负样本数目差别很大,比如正样本100个,负样本9900个,那么直接把所有
机器学习中准确率,精确率,召回率,F-1指标及ROC曲线是啥
qq_43571340的博客
01-07
1321
毕设文献翻译时遇到很多不太懂得机器学习名词,广集资料留以自查。
[机器学习-总结] 什么是准确率, 精确率,召回率和(精确率和召回率的调和平均)
keeppractice的博客
05-22
2312
准确率, 精确率与召回率区别与联系1. 背景介绍2. 准确率(????????????????????????????????)3. 精确率(precision)4. 召回率(recall,也称为查全率)
1. 背景介绍
对于一般分类问题,有训练误差、泛化误差、准确率、错误率等指标
对于常见的二分类问题,样本只有两种分类结果,将其定义为正例与反例。那么在进行分类时,对于一个样本,可能出现的分类情况共有四种
– 样本为正例,被分类为正例,称为真正类(TP)
– 样本为正例,被分类为反例,称为假反类(FN)
机器学习算法评估_准确率(Accuracy),精确率(Precision),召回率和F1-Measure
鲸落寰宇
06-14
3029
本文阐述机器学习常用的算法评估指标,简单明了解释了准确率(accuracy)、精确率(precision)、召回率(recall)以及F1-Measure相关概念。
机器学习算法中的准确率(Precision)、召回率(Recall)、F值(F-Measure)
上帝是个娘们的博客
04-25
5403
摘要:
  数据挖掘、机器学习和推荐系统中的评测指标—准确率(Precision)、召回率(Recall)、F值(F-Measure)简介。
引言:
  在机器学习、数据挖掘、推荐系统完成建模之后,需要对模型的效果做评价。
业内目前常常采用的评价指标有准确率(Precision)、召回率(Recall)、F值(F-Measure)等,下图是不同机器学习算法的评价指标。下文讲对其中某些指标做简要介绍...
准确率(Accuracy), 精确率(Precision), 召回率(Recall)和F1-Measure]
weixin_43248785的博客
12-21
451
首先声明,这不是我写的,是我看到比较好的合体,用CSDN无法收藏所以别的网站上的内容就搬过来了。我放在这里是为了方便看的,链接都在文末。
机器学习(ML),自然语言处理(NLP),信息检索(IR)等领域,评估(Evaluation)是一个必要的 工作,而其评价指标往往有如下几点:准确率(Accuracy),精确率(Precision),召回率(Recall)和F1-Measure。(注: 相对来说...
分类指标:准确率、精确率、召回率、F1 score以及ROC、AUC、宏平均、加权平均
TFATS的博客
06-29
3648
本文将介绍:
混淆矩阵(Confusion Matrix)
准确率(accuracy)
召回率(recall)
精确率(precision)
F1score
ROC和AUC
宏平均(macro avg)
微平均(micro avg)
加权平均(weighted avg)
一,混淆矩阵(Confusion Matrix)
在n分类模型中,使用n行n列的矩阵形式来表示精度,纵列代表n个分类,在每行中的n个数据代表分别预测在每个类别的个数,完美的预测应该是一个列序数=行中有数据的索引数的一条斜线。
TP:
“相关推荐”对你有帮助么?
非常没帮助
没帮助
一般
有帮助
非常有帮助
提交
©️2022 CSDN
皮肤主题:大白
设计师:CSDN官方博客
返回首页
张小帅的自留地
CSDN认证博客专家
CSDN认证企业博客
码龄6年
暂无认证
原创
58万+
周排名
114万+
总排名
1840
访问
等级
38
积分
粉丝
获赞
评论
收藏
私信
关注
热门文章
机器学习效果评价指标综述(准确率,精确率,召回率,F值,etc.)
1673
Java开发技术栈:初识Java,面向对象
167
您愿意向朋友推荐“博客详情页”吗?
强烈不推荐
不推荐
一般般
推荐
强烈推荐
提交
最新文章
Java开发技术栈:初识Java,面向对象
2020年1篇
2018年1篇
目录
目录
最新文章
Java开发技术栈:初识Java,面向对象
2020年1篇
2018年1篇
目录
评论
被折叠的 条评论
为什么被折叠?
到【灌水乐园】发言
查看更多评论
打赏作者
张小帅的自留地
你的鼓励将是我创作的最大动力
¥2
¥4
¥6
¥10
¥20
输入1-500的整数
余额支付
(余额:-- )
扫码支付
扫码支付:¥2
获取中
扫码支付
您的余额不足,请更换扫码支付或充值
打赏作者
实付元
使用余额支付
点击重新获取
扫码支付
钱包余额
抵扣说明:
1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。 2.余额无法直接购买下载,可以购买VIP、C币套餐、付费专栏及课程。
余额充值