Davies-Bouldin指数(DBI)

news/2024/5/20 8:46:35 标签: 聚类, 算法

参考http://blog.sina.com.cn/s/blog_65c8baf901016flh.html


用途:聚类算法中评估判断簇的个数是否合适(用来选择k)
原理:计算所有簇的类内距离和类间距离的比值(类内/类间),比值越小越好。即希望类间距离越大,类内距离越小(数据越集中)越好
公式:
(1)分散度(类内距离)Si:表示第i个类中,度量数据点的分散程度
在这里插入图片描述
(2)类间距离Mij:表示第i类中心与第j类中心的距离
在这里插入图片描述
(3)两类的相似度:其实就是分散度/类间距离
在这里插入图片描述
越分散,类间距离越小,相似度越大
(4)每个类找与它最相似的类的相似度作为其权重,所有相似度加和求平均
在这里插入图片描述

总的来说,这个DBI就是计算类内距离之和与类外距离之比,来优化k值的选择,避免K-means算法中由于只计算目标函数Wn而导致局部最优的情况。


http://www.niftyadmin.cn/n/507705.html

相关文章

torch.nn.CrossEntropyLoss自带了softmax!

刚刚看一篇代码,注释说了最后有一个softmax,但是代码中却没有用到F.softmax 查阅资料,原来是算交叉熵损失函数的时候自带了softmax x[class]是gt类别的预测概率,x[j]是各个类别的预测概率,由于交叉熵损失只计算gt类别…

PyTorch中的contiguous

参考:https://zhuanlan.zhihu.com/p/64551412 Pytorch中Tensor的底层存储方式:存在一个一维数组中 经映射后变成形式上的矩阵 那么如何把一维数组映射为矩阵呢? Stride 原一维数组为[1,2,3,4,5,6,7,8,9] eg. Stride (3,1) 则代表行之间的距…

发论文的要点

第一种是比较初级的,最近某某提出了一个什么新方法,然后你想到可以把这方法用来*** 这就有几点要求了: 1、看论文够新够快 2、复现论文够快 3、实现idea够快 很容易想到的方法必定有很多人一起想到,就看谁快了 速度慢了&#xf…

小目标检测方法汇总

参考https://mp.weixin.qq.com/s/UkbYB-2lRjEHatAYW0es6w 数据增强 离线方法 先对数据进行处理,用处理后的数据进行训练的方法 (1)SNIPER  要点:尺度归一化   即将小目标与大目标的尺寸缩放到同一个数量级  但不是仅对gt box做缩放,而是…

范围resize

在图像预处理中经常碰到把图像resize的情况,而且往往不是直接给出resize后的大小,而是给出一个range,[min_side, max_side],比如[100,200],这是指希望resize后的图片保持原有的长宽比,同时最小边大于100&am…

BorderDet(ECCV2020 Oral)

Motivation: 对于FCOS: HxWx256的特征图,去预测每个点(所在的anchor)的分类、回归信息,略显单薄,要是能在这个点加上更多的目标边框的特征的信息就好了 作者把这种加信息的方法分了几种, 上图中黑色的框是一阶段预测出的框 a. …

Towards Open World Object Detection

CVPR2021挖的一个新坑 Open world object detection(后面简称ORE) Open set learning Incremental Learning (1)Open set learning 这是ORE的核心,“confidently predict an unknown object as unknown, and known objects into the corre…

Focal Loss——目标检测中的实现详解(包括交叉熵损失的各种形式解析)

参考https://blog.csdn.net/u012436149/article/details/69660214 https://blog.csdn.net/b1055077005/article/details/100152102 交叉熵损失(Cross Entropy loss) 交叉熵损失有多种形式: (1) (2) (3) (4) 首先,这4种都是交叉熵,没有假…