admin 管理员组文章数量: 1086019
2024年4月13日发(作者:2018年传智播客黑马python15期)
模式识别与人工智能
测控技术
年第卷第期
2023428
·
1
·
面向大规模数据的
SVDD
在线学习算法
(军航空大学青岛校区,山东青岛河超级计算淮海分中心,山东临沂
1.
海
266041
;
2.
天
276002
)
强王小飞
,
陈永展
,
王
,
高艳丽
,
李健增
11112
摘要
:
针对支持向量数据描述
(
SupportVectorDataDescription
,
SVDD
)
在线学习时的支持向量数量随样
,
进而导致模型更新时间呈非线性增长的问题
,
提出一种基于支持向量约减的
本规模的扩大呈线性增加
(
RSVDD
)
在线学习方法
。
该算法通过执行支持向量约减
,
控制在线学习时的支持
支持向量数据描述
从而使其具有比其他法更快速且更稳定的模型更新时间适合大规模数据的分类处
,
SVDD
算
,
向量数量
。
首先阐述了支持向量约减的原理
;
进而给出了在线
RSVDD
算法
。
在单分类和多分类数据集上的
理
,,。
RSVDD
算法相较于
SVDD
算法能够在保持分类精度的基础上拥有更快的学习速度
实验结果表明
关键词大规模数据支持向量数据描述支持向量约减在线学习
:;;;
:
TP181
文献标志码
:
A
文章编号
:
1000-8829
(
2023
)
08-0001-06
中图分类号
10.19708/j.ckjs.2023.02.212
doi
:
SVDDOnlineLearningAlgorithmforLargeScaleData
WANGXiaofei
1
牞CHENYongzhan
1
牞WANGQiang
1
牞GAOYanli
1
牞LIJianzeng
2
牗1.QingdaoCampusofNavalAviationUniversity牞Qingdao266041牞China牷
2.TianheSupercomputingCenterofHuaihai牞Linyi276002牞China牘
Abstract牶Inordertosolvetheproblemthatthenumberofsupportvectorsinsupportlearningofsupportvector
datadescription牗SVDD牘increaseslinearlywiththeenlargementofsamplesize牞whichleadstothenonlinear
growthofmodelupdatetime牞anonlinelearningmethodofsupportvectordatadescriptionbasedonsupport
vectorreduction牗RSVDD牘isproposed.Byperformingsupportvectorreduction牞thenumberofsupportvectors
inonlinelearningiscontrolled牞soithasafasterandmorestablemodelupdatetimethanotherSVDDalgo
rithms牞whichissuitableforlargescaledataclassificationprocessing.Firstly牞theprincipleofsupportvectorre
ductionisdescribed牞andthenanonlineRSVDDalgorithmisgiven.Theexperimentalresultsonsingleand
multiclassificationdatasetsshowthattheRSVDDalgorithmcanimprovethelearningspeedsignificantly
whilemaintainingtheaccuracyofonlineSVDDclassification.
Keywords牶largescaledata牷SVDD牷supportvectorsreduction牷onlinelearning
机器学习是人工智能领域的热门研究课题,在信
息采集技术不断发展的今天,大规模数据的处理能力
已经成为衡量一个机器学习算法好坏的核心因
[]
。作
素
为一种新兴的机器学习算法,支持向量数
据描述(
SupportVectorDataDescription
,
SVDD
)在处理
不均衡分布的数据集时具有独特优势,因而在故障检
1-3
[]
。然
测领域得到了广泛应用
而,在处理大规模数
据时,
SVDD
的训练复杂度会随着数据规模的扩大呈
[]
。
指数增长,泛化能力有限
通过在线学习来降低
SVDD
处理大规模数据时的
[]
最
训练复杂度,是近年来的研究热点。
Tax
等先提
出基于有限训练集的在线
SVDD
算法,该算法的缺点
4-7
8-9
10
收稿日期
:
2022-11-22
基金项目国家自然科学基金
:(
82102002
)
引用格式
:
王小飞
,
陈永展
,
王强
,
等
.
面向大规模数据的
SVDD
在线学习算法
[
J
]
.
测控技术
,
2023
,
42
(
8
):
1-6.
WANGXF
,
CHENYZ
,
WANGQ
,
etal.SVDDOnlineLearningAlgorithmforLargeScaleData
[
J
]
.Measurement&Control
Technology
,
2023
,
42
(
8
):
1-6.
·
2
·
是仍采用传统方法来解二次规划(
QuadraticProgram
ming
,
QP
)问题,其运算速度仍然有限;
Jiang
[]
、
Chen
[]
、
Zhang
[]
、
Gyamfi
[]
和
Xie
[]
等分别提出了
不同的增量式
SVDD
训练方法,此类方法的基本思想
是通过逐个迭代训练样本来更新分类器模型,并采用
一些近似方法来保证整个训练过程的收敛速度,缺点
是支持向量数量通常会随着样本规模的扩大呈线性增
加(在含噪数据中尤为明显),进而导致模型更新时间
的非线性增长。
针对上述问题,本文借鉴支持向量机(
Support
VectorMachine
,
SVM
)在线学习过程中的支持向量约
SVDD
在线学习
减思想,提出一种面向大规模数据的
方法,其核心是通过支持向量约减来限定在线学习过
程中的支持向量数量,从而使算法具有恒定的模型更
新时间,进而提升整个在线学习过程的效率。
11
12131415
《
测控技术
》
2023
年第
42
卷第
8
期
式中:测试样本;任一支持向量。
x
为
x
为
d
(
x
)是以
c
)
显然在支持向量约减的过程中,
Φ
(
为自变量的函数,决策性能变化最小等价于最小化
c
),其中
c
)
=
‖Φ
(
c
)
-
Φ
(
c′
)
c′
为执
ΔΦ
(
ΔΦ
(
‖
,
行支持向量约减后的球心。上式表明最小化分类性能
衰退等价于最小化超球球心在约减前后的欧氏距离。
2
个支持向量
x
和
x
直接合并为假设将选定的
m
,
m
满足:
k
222
ab
且其
Lagrange
系数为则
KKT
条件成立,
α
+
α
,
c
)
=0
,即决策性能没有变化。然而由于
m
)·
ΔΦ
(
Φ
(
m
)
<1
,不满足高斯核映射,因此
m
在输入空间并
Φ
(
s
来替代
不存在。为此在输入空间中寻找一个向量
满足与之间的欧氏距离最短,即
m
,
s
)
m
)
Φ
(
Φ
(
ab
Φ
m=
α
a
Φ
x
a
/
α
a
+
α
b
+
α
b
Φ
x
b
/
α
a
+
α
b
()()()()()(
3
)
1
式(
4
)展开后用高斯核化简去掉常数项并对
s
求
导,可得:
依据算法原理,
SVDD
的决策性能可由其支持向
偏
s=
ε
x+
(
1-
ε
)
x
(
5
)
[]
。因
量集来完整描述,而与其他训练样本无关
此,
中:
在线
SVDD
通常以训练部分样本得到的支持向量为初
其
x
,
s
)
φ
K
(
(
=6
)
ε
Ka
始训练集,然后逐个测试剩余样本,当其不满足
x
,
s
)
+
φ
K
(
x
,
s
)
φ
K
(
[]
条
KKT
)件时,便将其加入当前
将
rushKuhnTucker
(
式(
5
)和式(
6
)代入式(
4
)并简化,可得:
训练集,并通过训练来更新模型的分类边界。
max
(
x
,
x
)
+
φ
K
(
x
,
x
))(
7
)
φ
K
(
显然,当训练样本规模过大、样本密度过高时,上述
中:
K
(
x
,
x
)
=K
(。可以使用不同的搜
ε
x
,
ε
x
)
方法得到的支持向量集规模会在在线学习过程中不断
式
[]
来
方法
寻找使式(获得极大值。
s
可由式
7
)
ε
,
增大,从而使在线
SVDD
的单次模型更新时间不断增
索
(
5
)计算。
SVDD
长。考虑到当支持向量数量增长到一定程度后,
下一步确定
值,以满足最小,故
a
和
b
的
c
)
ΔΦ
(
分类精度不再增加,因而约减支持向量是有必要的。
以通过式(进行搜索。
b
可
8
)
由化而来的。为了处
a
和
SVDD
是
SVM
演
众所周知,
min
‖Φ
(
+
c′
)
-
Φ
(
c
)(
x
)
‖
=
‖
(
α
+
α
)
ε
-
α
)
Φ
(
理大规模数据,通过合并方法来约减支持向量数量进
,
[]
。
(
而提高在线
SVM
的学习效率已得到成功验证
((
1-
ε
)
-
α
)
x
)
α
+
α
)
Φ
(
‖
下面以最小化决策性能衰退为原则,将文献[
18
]中针
(
8
)
SVM
的支持向量合并策略引入到
SVDD
中。
对
由式(
5
)可知
s
在
x
和
x
的连线上,考虑到模型
支持向量约减的基本思想是,当在线学习中的支
分类边界多为曲面,表明
s
没有落在分类边界上,此时
2
个选定的支持向量
约
持向量数量大于规定值时,即将
减算法仍然具有优化的空间。为此,进一步在输入
1
个,同时确保模型分类性能变化最小。
合并为
空间中寻找一个新的支持向量
v
,使
v
离
s
最近,且它
T
假设在线学习过程中,当前时刻支持向量集为
的像
v
)落在分类边界上,即
Φ
(
x
,
i=1
,…,
n
},
i=1
,…,
n
}为与支持向量
min
‖
v-s
‖
=
{
α
=
{
α
,
一一对应的
Lagrange
乘子,则
SVDD
的球心
c
可表述
s.t.
‖Φ
(
v
)
-
Φ
(
c
)
‖
=
‖Φ
(
x
)
-
Φ
(
c
)
‖
(
9
)
为
9
)
Lagrange
乘采用高斯核展开式(,并引入子去
1
)
c
)
=
∑
αΦ
(
x
)(
Φ
(
掉式(
9
)的约束项,可得:
式中:
x
)·
x
)
=exp
(
-
‖
x-x
‖
/2
σ
)为高
L
(
v
)
=vv-2vu-
μ
∑
α
K
(
v
,
Φ
(
Φ
(
10
)
x
)
+
μ
∑
α
K
(
x
,
x
)(
斯核函数。
然后置可得:
L/
v=0
,
SVDD
的决策函数可以表述为
而
11
)
v-u
)
/v-x
)
K
(
v
,
x
)(
μ
=
(
α
(
16
ab
aa
支持向量约减原理
17
min
‖Φ
m-
Φ
s
‖
2
s
()()
(
4
)
aabb
ε
a1-
ε
abb
ε
ab
ε
abab
20
2
2
18-19
ab
abaa
2
abbb
ab
ii
2
v
22
k
ii
i
22
ijij
TT
iiiki
ii
dx=
‖Φ
x-
Φ
c
‖
2
-
‖Φ
x
k
-
Φ
c
‖
2
()
()()()()
(
2
)
∑
i
iii
面向大规模数据的
SVDD
在线学习算法
·
3
·
-
,
-
取
将式(代入式(,可以得到式(的非约束
m
11
)
10
)
9
)
如果
RSVDD
算法中用
m
代
m
,即可获得最小的
StochasticGradientDe
优化形式。采用随机梯度下降(
大
m
略
模型更新时间。为保留一定的裕度,通常取
[]
SGD
)方法来快速求解
v
,即
scent
,
-
。而
-
取
于
mm
决于与数据集特性相关的众多因素,多
v=v-
η
L
(
v
,
x
)(
12
)
m
可根
数情况下其值无法事先确定。在实际应用中,
式中:
t
为迭代步数;
v
为
v
的
t
时刻向量;学习速率;
据
η
为
先验知识来估计,也可以根据处理速度和存储空间
x
为随机迭代样本;
v
,
x
)为瞬时梯度,其表达式为
等
L
(
条件的限制来选取。
v
,
x
)
=2
(
v-u
)
+
L
(
2.3 m
选取方法
(((
v-u
)
/
(
aa
)
-
δ
-b
)
δ
+2
ξ
)
下面以常用的二维
Banana
数据集为例来说明在
a
(
v-u
)
a
)
/
(
aa
)(
13
)
δ
-b+2
(
没有先验知识的前提下,
m
的普适性选取方法。训练
其中:
a=
α
(
v-x
)
K
(
v
,
T
的规模为
100000
,步骤如下。
集
x
)
T
中随机抽取
k
个样本进行训练,记录得到
①
从
v
,
x
)
δ
=
α
K
(
m
。需要注意的是,
k
需选取一个较
的支持向量数量
14
)
(
ξ
=
α
(
v-x
)(
v-x
)
K
(
v
,
x
)
T
近似的分布特征,从而
小的值,且要确保其具有与
b=
∑
α
K
(
x
,
x
)
-
比
m
与
m
较接近。
k
一般为
100~1000
,这
使得到的
取
k=500
。重复上述操作
10
次,并记
m
的估计值为
式中:
a
为瞬时向量;瞬时常量;
b
为常数。
里
δ
和
ξ
为
最后,
v
通
12
)过式(来求取。
^
=round
(
1
∑
m
)
15
)
m
(
10
式中:
round
(·)表示向上取整,得到的
m
依次为
11
、
2 RSVDD
在线学习算法
^
=12
。
11
、
12
、
14
、
10
、
13
、
10
、
9
、
12
和
11
,可得
m
2.1
算法步骤
减小
k
值选取对估算
m
的影响,从
T
中随机
②
为
法的主要步骤如下。
RSVDD
算
ROC
(
Receiver
取几个大规模样本集进行训练,并计算
机抽取给定训练数据集
T
中的前
k
个样本
抽
①
随
Characteristic
,受试者工作特征)曲线下的面
进行训练,得到支持向量集合
T
,记
T=T
,设定预
Operating
积,即
,取值范围为
AUC
(
AreaUnderROCCurve
)
0~1
,
置参数
设定方法在下文介绍)。
m
(
[]
。训
^
练过程中,
m
为参考
m
值越大表明分类精度越高
于
t
时刻的剩余样本
x
,检测其是否符合
设
②
对
定的变量,随机抽取的样本规模分别为
5000
、
10000
KKT
条件,若符合,则重复步骤检测
x
,否则,执
和
②
来
结果如图示。可以看出,在定值分
15000
,
1
所
m
设
行步骤
。
③
8
、
10
和
12
时,分类器性能达到稳定。这说明对于
别为
断
length
(
T
)否成立。若成立,执
二
③
判
≥
m
是
-
值
Banana
数据集来说,其
m
在
8~10
之间,为了确
维
行步骤
否则,执行步骤
④
,
⑦
。
m=10
。
分类器的分类精度,最后取上限
据式(
7
)和式(
8
)来寻找
x
和
x
,然后根
保
④
根
β
、
据式(
5
)计算
s
。
据式(
12
)计算
v
。
⑤
根
用来约减
T=T\
{
x
,
x
}
v
}
T
。
⑥
采
∪
{
练
T
∪
{
x
}以更新分类器模型,得到支持
⑦
训
向量集
T
,并记
T=T
。
复步骤直到全部剩余样本检测完毕,在
⑧
重
②
,
线学习过程结束。
2.2
算法复杂度分析
图
1 AUC
随
m
设定值变化情况
在
RSVDD
算法中,寻找
x
和
x
的复杂度大约
O
(
log
(
1/
λ
)
m
),其中搜索精度,寻找
s
为
λ
为
ε
的
验结果与分析
和
v
的复杂度大约为
O
(
m
),而训练包含
m
个支持
3
实
O
(
m
),因而单次模型更新的
下
向量的样本的复杂度为
面分别采用人工数据集和真实数据集来验证
时间开销约为
O
(
log
(
1/
ε
)
m
)
+O
(
m
)
+O
(
m
)。
RSVDD
的有效性,在线支持向量数据描述(
Online
显然,
m
的
RSVDD
算取值是决定法性能的关
SVDD
,
OSVDD
)
[]
和增量支持向量数据描述(
Incre
[]
被
基础研究成果表明,描述一个样本集完
键。
SVDD
的
ISVDD
)用来进行对比分析。实验
mentalSVDD
,
[]
,
备边界的必要支持向量数量是有限的
即存在下界
PC
配置为
IntelCorei56500
、
3.2GHzCPU
、
4GBRAM
0
21
0
t+1ttvtt
0
tt
tvtt
vttt
tttt
T
t
0
t
T
tttt
T
t
t
0
tttttt
tttt
T
tttttttt
iki
i
ttt
i
i
SV0SV
019
t
t+1
t-10
0
ab
t-1
t-1
t-1
t
pqt-1
SVtSV
ab
2
0
00
3
0
2
0
0
3
0
0
10
15
22
·
4
·
和型待定参数选取方
MATLABR2018a
。模
C
和
σ
的
法同文献[
23
]。
3.1
单分类数据集实验
首先由
PRTools
工具箱(
http
:
//www.prtools.org
)
产生
4
个规模分别为
6000
、
8000
、
10000
和
12000
的
二维
Banana
数据集(代表不叠加采样噪声的理想数据
集)。分别采用
OSVDD
、
ISVDD
和
RSVDD
这
3
种
算法进行训练,训练时间和最终得到的支持向量数量
情况如图
2
所示。
图
2
序号
1
2
3
4
5
Banana
单分类数据集上的训练结果
表
1
不同数据集下的对比实验
维数
2
3
4
5
6
/s
训练时间
CSVDD
2256.02
1906.40
2025.69
2584.35
2157.96
ISVDD
228.49
205.55
396.72
559.47
817.76
RSVDD
120.73
98.86
96.25
146.91
108.52
《
测控技术
》
2023
年第
42
卷第
8
期
图可以看出,学习
由
2
(
a
)
RSVDD
和
ISVDD
的
OSVDD
迅速,而相对于
ISVDD
,本文
速度都明显比
方法的速度优势随训练样本数据的增加逐步扩大;由
2
(
b
)可以看出,
OSVDD
的支持向量数量会随着样
图
RSVDD
和
ISVDD
具有相对
本数据增加而线性增长,
较少的支持向量数量,且可以发现在不同样本规模下,
RSVDD
均比
ISVDD
用更少的支持向量数据去描述
R
支持向量边界,在控制并约减支持向量数量上
SVDD
更占优势。这种比较优势是由于
RSVDD
在数
据集中抽取具有和数据集整体分布特征近似的小样本
m
,并以初始支持向量数量
去确定初始支持向量数量
m
作为规定值,在支持向量约减的思想中,支持向量
数量不能大于规定值,否则执行支持向量约减。因此
RSVDD
的支持向量数量人为可控。
出了算法在二维训练
3
给
3
种
Banana
的
4
个
图
集上的分类边界和支持向量分布情况。可以看出,相
OSVDD
和
ISVDD
这
2
种方法,
RSVDD
用最少
对于
的支持向量就得到了比较精确的分类边界,特别在样
12000
时控制和约减支持向量的优势更明显,
本数量
支持向量数量少且由支持向量构成的边界距离短。
3
种算法的泛化推广能力,同样由
为了对比分析
PRTools
工具箱产生目标样本和异常样本均为
20000
的
Banana
、
Circular
、
Difficult
、
Highleyman
和
Lithuanian
共
5
种人工数据集,它们的特征维数分别设置为
2
、
3
、
4
、
5
和
6
以代表不同维数的低特征维数据。实验时,
目标样本构成,
15000
个
训练集均由每个数据集的前
目标样本和全
5000
个
测试样本均由每个数据集的后
CSVDD
、
ISVDD
和
RSVDD
部异常样本构成。采用
共
3
种算法分别进行训练和测试实验,其训练速度和
示。
1
所
分类精度实验结果如表
0
0
数据集
Banana
Circular
Difficult
Highleyman
Lithuanian
分类精度
/%
CSVDD
96.18
99.36
97.61
97.23
98.77
ISVDD
94.72
97.59
97.34
97.70
96.92
RSVDD
96.
35
99.38
97.48
97.16
98.61
由表
1
可以看出,相对于
CSVDD
和
ISVDD
,本
文算法在
5
类数据集中均确保了较高的分类精度,同
时具有明显的学习速度优势,这主要是因为
RSVDD
算法仅保留了在线学习过程中必要数量的支持向量,
从而减小了分类器模型的单次更新时间,进而提升了
整个数据集在线学习过程的速度。上述结果表明
RSVDD
在人工数据集上具有较好的泛化推广能
力。
3.2
多分类数据集实验
为了验证
RSVDD
在含噪声真实数据上的有效
性,采用
MNIST
手写数字图像数据集(来自
http
:
//
www.cad.zju.edu.cn/home/dengcai/Data/MLData.ht
进行实验。
MNIST
数据集包含了
60000
个训练样
ml
)
本和
10000
个测试样本,每个样本均为包含
28×28
个
面向大规模数据的
SVDD
在线学习算法
·
5
·
像素点(
784
个特征维)的手写数字图像。
MNIST
数据
0~9
的手写数字图像分别有
5923
、
集中,训练样本中
6742
、
5958
、
6131
、
5842
、
5421
、
5918
、
6265
、
5851
和
5949
幅,测试样本中
0~9
的手写数字图像分别有
980
、
1135
、
1032
、
1010
、
982
、
892
、
958
、
1028
、
974
和
。实验过程中,分别以训练集中的奇数
1009
幅
1
、
3
、
5
、
7
、
9
数字图像为目标类,其余数字图像为异常类,
10000
个测试样本为固定测试集。训练样本和测试
样本的图像示例如图
4
所示。
5
个目标类的训练时间结果对比如图
5
所示,分
类精度对比如图
6
所示。可以看出,在维度较高的多
分类真实含噪数据集中,
3
种算法的训练时间明显增
加,而分类精度却大幅降低。这主要是由于特征维度
的增加会导致支持向量数量的大幅增加,从而导致训
图
4 MNIST
手写数字图像
练时间呈指数级增长;而包含噪声会导致目标类的样
本边界极不规则,使得通过训练得到的分类边界误差
对比分析在单分类和多分类上的实验结果可以发
较大,从而导致分类精度下降。尽管如此,
RSVDD
算
现,
RSVDD
的学习速度优势在
MNIST
数据集上更高。
法仍然在保持较高分类精度的基础上,将在线
SVDD
具体原因是高特征维数据集的支持向量较多,一方面
导致了支持向量约减算法速度优势的增加,另一面也
的训练时间大幅降低。
图
3 Banana
单分类数据集上的训练边界
·
6
·
《
测控技术
》
2023
年第
42
卷第
8
期
[
J
]
.JournalofPhysics
:
ConferenceSeries
,
2020
,
1533
(
4
):
042015.
[
4
]曲建岭,王小飞,高峰,等
.
基于超椭球分类面的
SVDD
快速决策方法[
J
]
.
控制与决策,
2017
,
32
(
4
):
721-726.
QUJL
,
WANGXF
,
GAOF
,
etal.Fastdecisionalgorithmof
SVDDbasedonhyperellipseclassificationboundary
[
J
]
.
ControlandDecision
,
2017
,
32
(
4
):
721-726
(
inChinese
)
.
[
5
]
ZHANGJL
,
YANGFW
,
LIANGC
,
etal.AnSVDDbased
postprocessingapproachforvibrationriskassessmentof
图
5
训练时间结果对比
减小了单个支持向量携带的分类信息权重,从而降低
了直接消除单个孤立样本造成的重要分类信息损失的
程度。上述结果表明
RSVDD
算法适用于大规模样本
的在线学习问题,可以在保持较高分类精度的前提下,
明显提高在线
SVDD
的学习速度。
4
图
6
分类精度结果对比
本文提出了一种面向大规模数据的基于支持向量
RSVDD
在线学习算法,用以解决在线
SVDD
约减的
方法在处理大规模数据时支持向量数量增加而导致的
模型更新时间过长的问题,并在
Banana
、
Circular
、
Diffi
cult
、
Highleyman
、
Lithuanian
、
MNIST
多维数据集上与
OSVDD
、
ISVDD
进行对比实验,实验结果证明了
R
保持较高分类精度的前提下,大幅提高了在
SVDD
在
SVDD
的学习速度,模型更新时间相对稳定和快速,
线
进而提升了整个在线学习的效率,适用于工程实践中
的大规模数据处理。
参考文献
:
1
][
SAHAB.Approximationalgorithmsforlargescaledataa
nalysis
C//Proceedingsofthe40thACMSIGMODSI
GACTSIGAISymposiumonPrinciplesofDatabaseSys
tems.2021.
结束语
[]
,[
2
]
[
3
]
,
bleforlargescalehighlyimbalanceddataclassification
[
J
]
.KnowledgeBasedSystems
,
2022
,
242
:
108295.
RENJJWANGYPMAOMQetal.Equalizationensem
HAOHY.Machinelearningalgorithmbasedonbigdata
,
[
J
]
.JournalofLowFrequencyNoise
,
VibrationandActive
Control
,
2021
,
40
(
3
):
1309-1334.
[
6
]
ZHANGZ
,
DENGXG.Anomalydetectionusingimproved
deepSVDDmodelwithdatastructurepreservation
[
J
]
.Pat
ternRecognitionLetters
,
2021
,
148
:
1-6.
[
7
]刘志远,赵欣洋,王化玲,等
.
基于
ACPSOSVDD
的齿轮
.
机电工程,
2020
,
37
(
4
):箱故障异常检测方法研究[
J
]
377-382.
LIUZY
,
ZHAOXY
,
WANGHL
,
etal.Anomalydetection
ofgearboxfaultbasedonACPSOSVDD
[
J
]
.JournalofMe
chanical&ElectricalEngineering
,
2020
,
37
(
4
):
377-382
(
inChinese
)
.
[
8
]焦瑞华,马欣,李晓猛,等
.
基于
SVDD
和
PF
的剩余使用
J
]
.
测控技术,
2022
,
41
(
4
):
42-47.
寿命预测方法研究[
JIAORH
,
MAX
,
LIXM
,
etal.Remainingusefullifepre
dictionmethodbasedonSVDDandPF
[
J
]
.Measurement
&ControlTechnology
,
2022
,
41
(
4
):
42-47
(
inChi
nese
)
.
[
9
]衷路生,王银利
.
基于改进核主元和支持向量数据描述
J
]
.
测控技术,
2017
,
36
(
1
):
37-41.
故障检测[
ZHONGLS
,
WANGYL.Faultdetectionbasedonim
provedkernelprincipalcomponentandsupportvectordata
description
[
J
]
.Measurement&ControlTechnology
,
2017
,
36
(
1
):
37-41
(
inChinese
)
.
[
10
]
TAXDMJ
,
LASKOVP.OnlineSVMlearning
:
fromclassi
ficationtodatadescriptionandback
[
C
]
//2003IEEEXIII
WorkshoponNeuralNetworksforSignalProcessing.2004
:
499-508.
[
11
]
JIANGHS
,
WANGHY
,
HUWH
,
etal.Fastincremental
SVDDlearningalgorithmwiththeGaussiankernel
[
J
]
.Pro
ceedingsoftheAAAIConferenceonArtificialIntelligence
,
:
2019
,
33
(
1
)
3991-3998.
[
12
]
CHENB
,
YUSH
,
YUY
,
etal.Acousticaldamagedetection
ofwindturbinebladeusingtheimprovedincrementalsup
portvectordatadescription
[
J
]
.RenewableEnergy
,
2020
,
156
:
548-557.
[
13
]
ZHANGLL
,
QIAOF
,
WANGJK
,
etal.Equipmenthealth
assessmentbasedonimprovedincrementalsupportvector
datadescription
[
J
]
.IEEETransactionsonSystems
,
Man
,
andCybernetics
:
Systems
,
2021
,
51
(
5
):
3205-3216.
thehydroturbinegeneratorinalargehydropowerstation
下转第
(
21
页
)
基于
RFPCA
改进
SVM
模型的齿轮故障诊断方法
障轮箱故诊断研究[
J
]
.
机械强度,
2016
,
38
(
1
):
38-43.
LIUZC
,
TANGLW
,
CAOLJ.Researchongearboxfault
diagnosisbasedonIsomapandIGASVM
[
J
]
.Journalof
MechanicalStrength
,
2016
,
38
(
1
):
38-43
(
inChinese
)
.
[
17
]
时培明,梁凯,赵娜,等
.
基于分形维数和
GASVM
的风
.
计量学报,
2018
,电机组齿轮箱轴承故障诊断[
J
]
39
(
1
):
61-65.
SHIPM
,
LIANGK
,
ZHAON
,
etal.Faultdiagnosisofwind
turbinegearboxbearingbasedonfractaldimensionandGA
SVM
[
J
]
.ActaMetrologicaSinica
,
2018
,
39
(
1
):
61-65
(
inChinese
)
.
[
18
]
LINY
,
XIAOMH
,
LIUHJ
,
etal.Gearfaultdiagnosis
basedonCSimprovedvariationalmodedecompositionand
probabilisticneuralnetwork
[
J
]
.Measurement
,
2022
,
192
:
110913.
[
19
]
DINGJK
,
XIAODM
,
LIXJ.Gearfaultdiagnosisbased
ongeneticmutationparticleswarmoptimizationVMDand
probabilisticneuralnetworkalgorithm
[
J
]
.IEEEAccess
,
2020
,
8
:
18456-18474.
[
20
]
YANGZL
,
WANGB
,
DONGXH
,
etal.Expertsystemof
faultdiagnosisforgearboxinwindturbine
[
J
]
.Systems
EngineeringProcedia
,
2012
,
4
:
189-195
[
21
]
赵晓平,吴家新,钱承山,等
.
基于多任务深度学习的齿
.
振动与冲击,
2019
,
38
(
23
):
轮箱多故障诊断方法[
J
]
271-278.
ZHAOXP
,
WUJX
,
QIANCS
,
etal.Multifaultdiagnosis
JournalofVibrationandShock
20193823
·
21
·
,,():
271-278
(
inChinese
)
.
[
22
]
SMITHA
,
STERBABOATWRIGHTB
,
MOTTJ.Novelap
plicationofastatisticaltechnique
,
randomforests
,
inabac
terialsourcetrackingstudy
[
J
]
.WaterResearch
,
2010
,
44
(
14
):
4067-4076.
[
23
]
陈苏雨,方宇,胡定玉
.
基于随机森林方法的地铁车门故
J
]
.
测控技术,
2018
,
37
(
2
):
20-24.
障诊断[
CHESY
,
FANGY
,
HUDY.Subwaydoorfaultdiagnosis
basedonrandomforestmethod
[
J
]
.Measurment&Control
Technology
,
2018
,
37
(
2
):
20-24
(
inChinese
)
.
[
24
]
杨雯,张锦水,朱秀芳,等
.
随机森林在高光谱遥感数
臖
.
北京师范大学学报(自然
据中降维与分类的应用[
J
]
2015
(
S1
):
82-88.
科学版),
YANGJW
,
ZHANGJS
,
ZHUXF
,
etal.Randomforest
appliedfordimensionreductionandclassificationinhyper
spectraldata
[
J
]
.JournalofBeijingNormalUniversity
(
Nat
uralScience
),:
2015
,
51
(
S1
)
82-88
(
inChinese
)
.
[
25
]
陈丽晶,张尚田,单添敏,等
.
基于多分类
SVM
的航空逆
J
]
.
测控技术,
2022
,
41
(
6
):
46-50.
变器故障诊断[
CHENLJ
,
ZHANGST
,
SHANTM
,
etal.Faultdiagnosis
ofaviationinverterbasedonmulticlassificationSVM
[
J
]
.
Measurement&ControlTechnology
,
2022
,
41
(
6
):
46-50
(
inChinese
)
.
□
methodforgearboxbasedonmultitaskdeeplearning
J.
[]
(
上接第
6
页
)
[
14
]
2023105
GYAMFIEDELIAJURCUTA.Novelonlinenetworkin
trusiondetectionsystemforindustrialIoTbasedonOI
SVDDandASELM
J.IEEEInternetofThingsJournal
,
417
():
175-184.
WANGXF
,
WANGYX
,
QUJL
,
etal.Anaeroengine
,():
3827-3839.
[
15
]
XIEWY
,
UHLMANNS
,
KIRANYAZS
,
etal.Incremental
learningwithsupportvectordatadescription
[
C
]
//Proceed
ingsofthe201422ndInternationalConferenceonPattern
Recognition.2014
3904-3909.
[],
[],,
41
(
7
):
175-184
(
inChinese
)
.
[
20
]
吕帅,龚晓宇,张正昊,等
.
结合进化算法的深度强化学
习方法研究综述[
J
]
.
计算机学报,
2022
,
45
(
7
):
1478-
data
J.ChineseJournalofScientificInstrument2020
1499.
LYUS
GONGXYZHANGZHetal.Surveyofdeepre
inforcementlearningmethodswithevolutionaryalgorithms
performancemonitoringmethodbasedonlargescaleflight
:
[
16
]
LEESW
,
PARKJ
,
LEESW.Lowresolutionfacerecogni
tionbasedonsupportvectordatadescription
[
J
]
.Pattern
Recognition
,
2006
,
39
(
9
):
1809-1812.
[
17
]
MAOWT
,
CHENJX
,
LIANGXH
,
etal.Anewonlinede
,,,
[
J
]
.ChineseJournalofComputers
,
2022
,
45
(
7
):
1478-
1499
(
inChinese
)
.
[
21
]
GOYALP
,
DOLL?RP
,
GIRSHICKR
,
etal.Accurate
,
large
minibatchSGD
:
trainingImageNetin1hour
[
EB/OL
]
.
[
2022
tectionapproachforrollingbearingincipientfaultviaselfa
1122
]
.https
:
//arxiv.org/abs/1706.02677.
daptivedeepfeaturematching
[
J
]
.IEEETransactionsonIn
[
22
]
TAXDMJ
,
DUINRPW.Supportvectordatadescription
strumentationandMeasurement
,
2020
,
69
(
2
):
443-456.
[
J
]
.MachineLearning
,
2004
,
54
(
1
):
45-66.
[
18
]
WANGQF
,
LIUXJ
,
WEIBK
,
etal.Onlineincipientfault
[
23
]
KHAZAIS
,
SAFARIA
,
MOJARADIB
,
etal.Improvingthe
detectionmethodbasedonimproved
trendfilteringand
SVDDapproachtohyperspectralimageclassification
[
J
]
.
supportvectordatadescription
[
J
]
.IEEEAccess
,
2021
,
9
:
IEEEGeoscienceandRemoteSensingLetters
,
2012
,
9
(
4
):
30043-30059.
594-598.
[
19
]
王小飞,王元鑫,曲建岭,等
.
面向大样本飞参数据的航
.
仪器仪表学报,
2020
,空发动机性能监控方法[
J
]
□
1
版权声明:本文标题:面向大规模数据的SVDD在线学习算法 内容由网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:http://www.roclinux.cn/p/1712997310a616361.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论