您现在的位置是:主页 > news > 做期货网站/现在百度怎么优化排名
做期货网站/现在百度怎么优化排名
admin2025/5/7 9:04:06【news】
简介做期货网站,现在百度怎么优化排名,中国特色社会主义进入新时代,wordpress下划线YOLO V1(Y1) backbone:借鉴了GooLeNet head:对于特征图每一个特征点,预测B个Bounding box,bbox信息包含5个数据值,分别是x,y,w,h,和confidence。其中x,y是指当前格子预测得到的物体的bbox的中…
YOLO V1(Y1)
backbone:借鉴了GooLeNet
head:对于特征图每一个特征点,预测B个Bounding box,bbox信息包含5个数据值,分别是x,y,w,h,和confidence。其中x,y是指当前格子预测得到的物体的bbox的中心位置的坐标。w,h是bbox的宽度和高度。注意:实际训练过程中,w和h的值使用图像的宽度和高度进行归一化到[0,1]区间内;x,y是bbox中心位置相对于当前格子位置的偏移值,并且被归一化到[0,1]。confidence = P(object)
- IOU, 其中,若bbox包含物体,则P(object) = 1;否则P(object) = 0。
loss:
简略版
详细版,预测的是bbox左上角坐标,宽高开方是为了平衡大小目标对loss的贡献程度,分类损失也是MSE哦。
缺点:
YOLO方法模型训练依赖于物体识别标注数据,对于非常规的物体形状或比例,YOLO的检测效果并不理想。
YOLO采用了多个下采样层,网络学到的物体特征并不精细,因此也会影响检测效果。
YOLO loss函数中,大物体IOU误差和小物体IOU误差对网络训练中loss贡献值接近(虽然采用求平方根方式,但没有根本解决问题)。因此,对于小物体,小的IOU误差也会对网络优化过程造成很大的影响,从而降低了物体检测的定位准确性。
论文中,作者还给出了YOLO与Fast RCNN在各方面的识别误差比例,如下图。YOLO对背景内容的误判率(4.75%)比fast rcnn的误判率(13.6%)低很多。但是YOLO的定位准确率较差,占总误差比例的19.0%,而fast rcnn仅为8.6%。
YOLO V2 (Y2)好,快,强
数据方面的改进:
1.**高精度分类。**检测数据集分辨率提升为448448,先224224分类,再448448微调分类,最后448448检测。mAP提升了3.7。
2.多尺度图像。因为去掉了全连接层,YOLO2可以输入任何尺寸的图像。因为整个网络下采样倍数是32,作者采用了{320,352,…,608}等10种输入图像的尺寸,这些尺寸的输入图像对应输出的特征图宽和高是{10,11,…19}。训练时每10个batch就随机更换一种尺寸,使网络能够适应各种大小的对象检测。mAP有1.4的提升。
3.高分辨率图像。YOLO2调整网络结构后能够支持多种尺寸的输入图像。通常是使用416416的输入图像,如果用较高分辨率的输入图像,比如544544,则mAP可以达到78.6,有1.8的提升。
结构方面的改进:
4.batch normalization。批归一化有助于解决反向传播过程中的梯度消失和梯度爆炸问题,降低对一些超参数(比如学习率、网络参数的大小范围、激活函数的选择)的敏感性,并且每个batch分别进行归一化的时候,起到了一定的正则化效果(YOLO2不再使用dropout),从而能够获得更好的收敛速度和收敛效果。
通常,一次训练会输入一批样本(batch)进入神经网络。批规一化在神经网络的每一层,在网络(线性变换)输出后和激活函数(非线性变换)之前增加一个批归一化层(BN),BN层进行如下变换:①对该批样本的各特征量(对于中间层来说,就是每一个神经元)分别进行归一化处理,分别使每个特征的数据分布变换为均值0,方差1。从而使得每一批训练样本在每一层都有类似的分布。这一变换不需要引入额外的参数。②对上一步的输出再做一次线性变换,假设上一步的输出为Z,则Z1=γZ + β。这里γ、β是可以训练的参数。增加这一变换是因为上一步骤中强制改变了特征数据的分布,可能影响了原有数据的信息表达能力。增加的线性变换使其有机会恢复其原本的信息。mAP有2.4的提升。
5.backbone更改为darknet-19,卷积代替全连接支持多尺度。
6.使用锚盒。在每个grid预先设定一组不同大小和宽高比的边框,来覆盖整个图像的不同位置和多种尺度,这些先验框作为预定义的候选区在神经网络中将检测其中是否存在对象,以及微调边框的位置。
同时YOLO2移除了全连接层。另外去掉了一个池化层,使网络卷积层输出具有更高的分辨率。
之前YOLO1并没有采用先验框,并且每个grid只预测两个bounding box,整个图像98个。YOLO2如果每个grid采用9个先验框,总共有13139=1521个先验框。枚举的多,当然recall更高。召回率大幅提升到88%,同时mAP轻微下降了0.2。
7.聚类提取先验框尺度。YOLO2尝试统计出更符合样本中对象尺寸的先验框,这样就可以减少网络微调先验框到实际位置的难度。YOLO2的做法是对训练集中标注的边框进行聚类分析,以寻找尽可能匹配样本的边框尺寸。聚类算法最重要的是选择如何计算两个边框之间的“距离”,对于常用的欧式距离,大边框会产生更大的误差,但我们关心的是边框的IOU。所以,YOLO2在聚类时采用以下公式来计算两个边框之间的“距离”。centroid是聚类时被选作中心的边框,box就是其它边框,d就是两者间的“距离”。IOU越大,“距离”越近。
8.约束预测边框的位置
在训练的早期阶段,其位置预测容易不稳定。其位置预测公式为:
调整的公式如下:
tx,ty是学习参数。由于学习参数没有约束,因此预测边框的中心可能出现在任何位置,训练早期阶段不容易稳定。
引入了sigmoid函数限制大小范围。没有FPN的YOLO V2,在约束预测边框位置之后,对于大小目标的检测完全依靠于锚盒尺寸的设置。
聚类提取先验框尺度,结合下面的约束预测边框的位置,使得mAP有4.8的提升。
9.passthrough层检测细粒度特征。YOLO2引入一种称为passthrough层的方法在特征图中保留一些细节信息。具体来说,就是在最后一个pooling之前,特征图的大小是2626512,将其1拆4,直接传递(passthrough)到pooling后(并且又经过一组卷积)的特征图,两者叠加到一起作为输出的特征图。
检测9000种类别
层级分类:
word tree:ImageNet的对象类别与COCO的对象类别不是互斥的。OLO2于是根据WordNet,将ImageNet和COCO中的名词对象一起构建了一个WordTree,以physical object为根节点,各名词依据相互间的关系构建树枝、树叶,节点间的连接表达了对象概念之间的蕴含关系(上位/下位关系)。
整个WordTree中的对象之间不是互斥的关系,但对于单个节点,属于它的所有子节点之间是互斥关系。
构建好的WordTree有9418个节点(对象类型),包括ImageNet的Top 9000个对象,COCO对象,以及ImageNet对象检测挑战数据集中的对象,以及为了添加这些对象,从WordNet路径中提取出的中间对象。
构建WordTree的步骤是:①检查每一个将用于训练和测试的ImageNet和COCO对象,在WordNet中找到对应的节点,如果该节点到WordTree根节点(physical object)的路径只有一条(大部分对象都只有一条路径),就将该路径添加到WrodTree。②经过上面操作后,剩下的是存在多条路径的对象。对每个对象,检查其额外路径长度(将其添加到已有的WordTree中所需的路径长度),选择最短的路径添加到WordTree。这样就构造好了整个WordTree。计算某节点的分类概率,只要将路径所有概率相乘。
YOLO V3(Y3)
1,FPN多尺度特征:
2,DarkNet-53 + Res Block
3,替换softmax层:对应多重label分类
Softmax层被替换为一个1x1的卷积层+logistic激活函数的结构。使用softmax层的时候其实已经假设每个输出仅对应某一个单个的class,但是在某些class存在重叠情况(例如woman和person)的数据集中,使用softmax就不能使网络对数据进行很好的拟合。
YOLO V3与Focal loss*
关于论文提到FL不好使,我在知乎找到一些讨论。我比较倾向于这个答案:
原文”If a bounding box prior is not assigned to a ground truth object, it incurs no loss for coordinate or class predictions, only objectness.”。objectness比较低YOLO的classifier是不会理这个box的,这就相当于把objectness比较低的box的alpha改成了0,可以理解为focal loss的调参,这样的话imbalance就得到了极大的缓解。换句话说YOLO V3已经用一种比较粗糙的方式忽略掉了绝大部分负样本了,所以这里的正负不均情况远远好于RetinaNet(因为作者要证明FL有效啊)。再使用相同参数的FL结果自然不好(FL需要调参)。
参考:
https://zhuanlan.zhihu.com/p/25236464/
https://zhuanlan.zhihu.com/p/47575929
http://www.360doc.com/content/20/0507/19/40892371_910817845.shtml
https://zhuanlan.zhihu.com/p/40332004