admin 管理员组

文章数量: 1086019


2024年4月13日发(作者:2018年传智播客黑马python15期)

模式识别与人工智能

 

测控技术

年第卷第期

2023428

·

·

面向大规模数据的

SVDD

在线学习算法

(军航空大学青岛校区,山东青岛河超级计算淮海分中心,山东临沂

1.

 266041

2.

 276002

 

强王小飞

陈永展

高艳丽

李健增

11112

摘要

针对支持向量数据描述

SupportVectorDataDescription

SVDD

在线学习时的支持向量数量随样

进而导致模型更新时间呈非线性增长的问题

提出一种基于支持向量约减的

本规模的扩大呈线性增加

RSVDD

在线学习方法

该算法通过执行支持向量约减

控制在线学习时的支持

支持向量数据描述

从而使其具有比其他法更快速且更稳定的模型更新时间适合大规模数据的分类处

SVDD

向量数量

首先阐述了支持向量约减的原理

进而给出了在线

RSVDD

算法

在单分类和多分类数据集上的

,,。

RSVDD

算法相较于

SVDD

算法能够在保持分类精度的基础上拥有更快的学习速度

实验结果表明

关键词大规模数据支持向量数据描述支持向量约减在线学习

:;;;

TP181  

文献标志码

A  

文章编号

1000-8829

2023

08-0001-06

中图分类号

10.19708/j.ckjs.2023.02.212

doi

SVDDOnlineLearningAlgorithmforLargeScaleData

WANGXiaofei

牞CHENYongzhan

牞WANGQiang

牞GAOYanli

牞LIJianzeng

牗1.QingdaoCampusofNavalAviationUniversity牞Qingdao266041牞China牷

2.TianheSupercomputingCenterofHuaihai牞Linyi276002牞China牘

Abstract牶Inordertosolvetheproblemthatthenumberofsupportvectorsinsupportlearningofsupportvector

datadescription牗SVDD牘increaseslinearlywiththeenlargementofsamplesize牞whichleadstothenonlinear

growthofmodelupdatetime牞anonlinelearningmethodofsupportvectordatadescriptionbasedonsupport

vectorreduction牗RSVDD牘isproposed.Byperformingsupportvectorreduction牞thenumberofsupportvectors

inonlinelearningiscontrolled牞soithasafasterandmorestablemodelupdatetimethanotherSVDDalgo

rithms牞whichissuitableforlargescaledataclassificationprocessing.Firstly牞theprincipleofsupportvectorre

ductionisdescribed牞andthenanonlineRSVDDalgorithmisgiven.Theexperimentalresultsonsingleand

multiclassificationdatasetsshowthattheRSVDDalgorithmcanimprovethelearningspeedsignificantly

whilemaintainingtheaccuracyofonlineSVDDclassification.

Keywords牶largescaledata牷SVDD牷supportvectorsreduction牷onlinelearning

机器学习是人工智能领域的热门研究课题,在信

息采集技术不断发展的今天,大规模数据的处理能力

已经成为衡量一个机器学习算法好坏的核心因

[]

。作

为一种新兴的机器学习算法,支持向量数

据描述(

SupportVectorDataDescription

SVDD

)在处理

不均衡分布的数据集时具有独特优势,因而在故障检

  

1-3

[]

。然

测领域得到了广泛应用

而,在处理大规模数

据时,

SVDD

的训练复杂度会随着数据规模的扩大呈

[]

指数增长,泛化能力有限

通过在线学习来降低

SVDD

处理大规模数据时的

[]

训练复杂度,是近年来的研究热点。

Tax

等先提

出基于有限训练集的在线

SVDD

算法,该算法的缺点

4-7

8-9

10

收稿日期

2022-11-22

基金项目国家自然科学基金

:(

82102002

引用格式

王小飞

陈永展

王强

面向大规模数据的

SVDD

在线学习算法

测控技术

2023

42

):

1-6.

WANGXF

CHENYZ

WANGQ

etal.SVDDOnlineLearningAlgorithmforLargeScaleData

.Measurement&Control

Technology

2023

42

):

1-6.

·

·

是仍采用传统方法来解二次规划(

QuadraticProgram

ming

QP

)问题,其运算速度仍然有限;

Jiang

[]

Chen

[]

Zhang

[]

Gyamfi

[]

Xie

[]

等分别提出了

不同的增量式

SVDD

训练方法,此类方法的基本思想

是通过逐个迭代训练样本来更新分类器模型,并采用

一些近似方法来保证整个训练过程的收敛速度,缺点

是支持向量数量通常会随着样本规模的扩大呈线性增

加(在含噪数据中尤为明显),进而导致模型更新时间

的非线性增长。

针对上述问题,本文借鉴支持向量机(

Support

VectorMachine

SVM

)在线学习过程中的支持向量约

SVDD

在线学习

减思想,提出一种面向大规模数据的

方法,其核心是通过支持向量约减来限定在线学习过

程中的支持向量数量,从而使算法具有恒定的模型更

新时间,进而提升整个在线学习过程的效率。

11

12131415

测控技术

2023

年第

42

卷第

式中:测试样本;任一支持向量。

)是以

显然在支持向量约减的过程中,

Φ

为自变量的函数,决策性能变化最小等价于最小化

),其中

‖Φ

Φ

c′

c′

为执

ΔΦ

ΔΦ

行支持向量约减后的球心。上式表明最小化分类性能

衰退等价于最小化超球球心在约减前后的欧氏距离。

个支持向量

直接合并为假设将选定的

满足:

222

ab

且其

Lagrange

系数为则

KKT

条件成立,

α

α

=0

,即决策性能没有变化。然而由于

)·

ΔΦ

Φ

<1

,不满足高斯核映射,因此

在输入空间并

Φ

来替代

不存在。为此在输入空间中寻找一个向量

满足与之间的欧氏距离最短,即

Φ

Φ

ab

Φ

m=

α

Φ

α

α

α

Φ

α

α

()()()()()(

1 

式(

)展开后用高斯核化简去掉常数项并对

导,可得:

依据算法原理,

SVDD

的决策性能可由其支持向

s=

ε

x+

1-

ε

[]

。因

量集来完整描述,而与其他训练样本无关

此,

中:

在线

SVDD

通常以训练部分样本得到的支持向量为初

φ

=6

ε

Ka

始训练集,然后逐个测试剩余样本,当其不满足

φ

φ

[]

KKT

)件时,便将其加入当前

rushKuhnTucker

式(

)和式(

)代入式(

)并简化,可得:

训练集,并通过训练来更新模型的分类边界。

max

φ

))(

φ

显然,当训练样本规模过大、样本密度过高时,上述

中:

=K

(。可以使用不同的搜

ε

ε

方法得到的支持向量集规模会在在线学习过程中不断

[]

方法

寻找使式(获得极大值。

可由式

ε

增大,从而使在线

SVDD

的单次模型更新时间不断增

)计算。

SVDD

长。考虑到当支持向量数量增长到一定程度后,

下一步确定

值,以满足最小,故

ΔΦ

分类精度不再增加,因而约减支持向量是有必要的。

以通过式(进行搜索。

由化而来的。为了处

SVDD

SVM

众所周知,

min

‖Φ

c′

Φ

)(

α

α

ε

α

Φ

理大规模数据,通过合并方法来约减支持向量数量进

[]

          

而提高在线

SVM

的学习效率已得到成功验证

((

1-

ε

α

α

α

Φ

下面以最小化决策性能衰退为原则,将文献[

18

]中针

SVM

的支持向量合并策略引入到

SVDD

中。

由式(

)可知

的连线上,考虑到模型

支持向量约减的基本思想是,当在线学习中的支

分类边界多为曲面,表明

没有落在分类边界上,此时

个选定的支持向量

持向量数量大于规定值时,即将

减算法仍然具有优化的空间。为此,进一步在输入

个,同时确保模型分类性能变化最小。

合并为

空间中寻找一个新的支持向量

,使

最近,且它

假设在线学习过程中,当前时刻支持向量集为

的像

)落在分类边界上,即

Φ

i=1

,…,

},

i=1

,…,

}为与支持向量

  min

v-s

α

α

一一对应的

Lagrange

乘子,则

SVDD

的球心

可表述

    s.t.

‖Φ

Φ

‖Φ

Φ

Lagrange

乘采用高斯核展开式(,并引入子去

αΦ

)(

Φ

掉式(

)的约束项,可得:

式中:

)·

=exp

x-x

/2

σ

)为高

=vv-2vu-

μ

α

Φ

Φ

10

μ

α

)(

斯核函数。

然后置可得:

L/

v=0

SVDD

的决策函数可以表述为

11

v-u

/v-x

)(

μ

α

16

ab

aa

支持向量约减原理

17

min

‖Φ

m-

Φ

()()

aabb

ε

a1-

ε

abb

ε

ab

ε

abab

20

18-19

ab

abaa

abbb

ab

ii

22

ii

22

ijij

TT

iiiki

ii

dx=

‖Φ

x-

Φ

‖Φ

Φ

()

()()()()

iii

面向大规模数据的

SVDD

在线学习算法

·

·

将式(代入式(,可以得到式(的非约束

11

10

如果

RSVDD

算法中用

,即可获得最小的

StochasticGradientDe

优化形式。采用随机梯度下降(

模型更新时间。为保留一定的裕度,通常取

[]

SGD

)方法来快速求解

,即

scent

。而

mm

决于与数据集特性相关的众多因素,多

v=v-

η

)(

12

可根

数情况下其值无法事先确定。在实际应用中,

式中:

为迭代步数;

时刻向量;学习速率;

η

先验知识来估计,也可以根据处理速度和存储空间

为随机迭代样本;

)为瞬时梯度,其表达式为

条件的限制来选取。

=2

v-u

2.3 m

选取方法

 

(((

v-u

aa

δ

-b

δ

+2

ξ

下面以常用的二维

Banana

数据集为例来说明在

 a

v-u

aa

)(

13

δ

-b+2

没有先验知识的前提下,

的普适性选取方法。训练

其中:

a=

α

v-x

的规模为

100000

,步骤如下。

中随机抽取

个样本进行训练,记录得到

δ

α

。需要注意的是,

需选取一个较

的支持向量数量

14

ξ

α

v-x

)(

v-x

近似的分布特征,从而

小的值,且要确保其具有与

b=

α

较接近。

一般为

100~1000

,这

使得到的

k=500

。重复上述操作

10

次,并记

的估计值为

式中:

为瞬时向量;瞬时常量;

为常数。

δ

ξ

最后,

12

)过式(来求取。

=round

15

10

式中:

round

(·)表示向上取整,得到的

依次为

11

2 RSVDD

在线学习算法

=12

11

12

14

10

13

10

12

11

,可得

2.1 

算法步骤

减小

值选取对估算

的影响,从

中随机

法的主要步骤如下。

RSVDD

ROC

Receiver

取几个大规模样本集进行训练,并计算

机抽取给定训练数据集

中的前

个样本

Characteristic

,受试者工作特征)曲线下的面

进行训练,得到支持向量集合

,记

T=T

,设定预

Operating

积,即

,取值范围为

AUC

AreaUnderROCCurve

0~1

置参数

设定方法在下文介绍)。

[]

。训

练过程中,

为参考

值越大表明分类精度越高

时刻的剩余样本

,检测其是否符合

定的变量,随机抽取的样本规模分别为

5000

10000

KKT

条件,若符合,则重复步骤检测

,否则,执

结果如图示。可以看出,在定值分

15000

行步骤

10

12

时,分类器性能达到稳定。这说明对于

别为

length

)否成立。若成立,执

Banana

数据集来说,其

8~10

之间,为了确

行步骤

否则,执行步骤

m=10

分类器的分类精度,最后取上限

据式(

)和式(

)来寻找

,然后根

β

据式(

)计算

据式(

12

)计算

用来约减

T=T\

}以更新分类器模型,得到支持

向量集

,并记

T=T

复步骤直到全部剩余样本检测完毕,在

线学习过程结束。

2.2 

算法复杂度分析

1 AUC

设定值变化情况

RSVDD

算法中,寻找

的复杂度大约

log

1/

λ

),其中搜索精度,寻找

λ

ε

验结果与分析

的复杂度大约为

),而训练包含

个支持

3 

),因而单次模型更新的

向量的样本的复杂度为

面分别采用人工数据集和真实数据集来验证

时间开销约为

log

1/

ε

+O

+O

)。

RSVDD

的有效性,在线支持向量数据描述(

Online

显然,

RSVDD

算取值是决定法性能的关

SVDD

OSVDD

[]

和增量支持向量数据描述(

Incre

[]

基础研究成果表明,描述一个样本集完

键。

SVDD

ISVDD

)用来进行对比分析。实验

mentalSVDD

[]

备边界的必要支持向量数量是有限的

即存在下界

PC

配置为

IntelCorei56500

3.2GHzCPU

4GBRAM

21

t+1ttvtt

tt

tvtt

vttt

tttt

tttt

tttttt

tttt

tttttttt

iki

ttt

SV0SV

019

t+1

t-10

ab

t-1

t-1

t-1

pqt-1

SVtSV

ab

00

10

15

22

·

·

和型待定参数选取方

MATLABR2018a

。模

σ

法同文献[

23

]。

3.1 

单分类数据集实验

首先由

PRTools

工具箱(

http

//www.prtools.org

产生

个规模分别为

6000

8000

10000

12000

二维

Banana

数据集(代表不叠加采样噪声的理想数据

集)。分别采用

OSVDD

ISVDD

RSVDD

算法进行训练,训练时间和最终得到的支持向量数量

情况如图

所示。

2 

序号

Banana

单分类数据集上的训练结果

1 

不同数据集下的对比实验

维数

/s

训练时间

CSVDD

2256.02

1906.40

2025.69

2584.35

2157.96

ISVDD

228.49

205.55

396.72

559.47

817.76

RSVDD

120.73

98.86

96.25

146.91

108.52

测控技术

2023

年第

42

卷第

图可以看出,学习

  

RSVDD

ISVDD

OSVDD

迅速,而相对于

ISVDD

,本文

速度都明显比

方法的速度优势随训练样本数据的增加逐步扩大;由

)可以看出,

OSVDD

的支持向量数量会随着样

RSVDD

ISVDD

具有相对

本数据增加而线性增长,

较少的支持向量数量,且可以发现在不同样本规模下,

RSVDD

均比

ISVDD

用更少的支持向量数据去描述

R

支持向量边界,在控制并约减支持向量数量上

SVDD

更占优势。这种比较优势是由于

RSVDD

在数

据集中抽取具有和数据集整体分布特征近似的小样本

,并以初始支持向量数量

去确定初始支持向量数量

作为规定值,在支持向量约减的思想中,支持向量

数量不能大于规定值,否则执行支持向量约减。因此

RSVDD

的支持向量数量人为可控。

出了算法在二维训练

Banana

集上的分类边界和支持向量分布情况。可以看出,相

OSVDD

ISVDD

种方法,

RSVDD

用最少

对于

的支持向量就得到了比较精确的分类边界,特别在样

12000

时控制和约减支持向量的优势更明显,

本数量

支持向量数量少且由支持向量构成的边界距离短。

种算法的泛化推广能力,同样由

为了对比分析

PRTools

工具箱产生目标样本和异常样本均为

20000

Banana

Circular

Difficult

Highleyman

Lithuanian

种人工数据集,它们的特征维数分别设置为

以代表不同维数的低特征维数据。实验时,

目标样本构成,

15000

训练集均由每个数据集的前

目标样本和全

5000

测试样本均由每个数据集的后

CSVDD

ISVDD

RSVDD

部异常样本构成。采用

种算法分别进行训练和测试实验,其训练速度和

示。

分类精度实验结果如表

数据集

Banana

Circular

Difficult

Highleyman

Lithuanian

分类精度

/%

CSVDD

96.18

99.36

97.61

97.23

98.77

ISVDD

94.72

97.59

97.34

97.70

96.92

RSVDD

96.

35

99.38

97.48

97.16

98.61

由表

可以看出,相对于

CSVDD

ISVDD

,本

文算法在

类数据集中均确保了较高的分类精度,同

时具有明显的学习速度优势,这主要是因为

RSVDD

算法仅保留了在线学习过程中必要数量的支持向量,

从而减小了分类器模型的单次更新时间,进而提升了

整个数据集在线学习过程的速度。上述结果表明

RSVDD

在人工数据集上具有较好的泛化推广能

  

力。

3.2 

多分类数据集实验

为了验证

RSVDD

在含噪声真实数据上的有效

性,采用

MNIST

手写数字图像数据集(来自

http

//

www.cad.zju.edu.cn/home/dengcai/Data/MLData.ht

进行实验。

MNIST

数据集包含了

60000

个训练样

ml

本和

10000

个测试样本,每个样本均为包含

28×28

面向大规模数据的

SVDD

在线学习算法

·

·

像素点(

784

个特征维)的手写数字图像。

MNIST

数据

0~9

的手写数字图像分别有

5923

集中,训练样本中

6742

5958

6131

5842

5421

5918

6265

5851

5949

幅,测试样本中

0~9

的手写数字图像分别有

980

1135

1032

1010

982

892

958

1028

974

。实验过程中,分别以训练集中的奇数

1009

数字图像为目标类,其余数字图像为异常类,

10000

个测试样本为固定测试集。训练样本和测试

样本的图像示例如图

所示。

个目标类的训练时间结果对比如图

所示,分

类精度对比如图

所示。可以看出,在维度较高的多

分类真实含噪数据集中,

种算法的训练时间明显增

加,而分类精度却大幅降低。这主要是由于特征维度

的增加会导致支持向量数量的大幅增加,从而导致训

4 MNIST

手写数字图像

练时间呈指数级增长;而包含噪声会导致目标类的样

本边界极不规则,使得通过训练得到的分类边界误差

对比分析在单分类和多分类上的实验结果可以发

较大,从而导致分类精度下降。尽管如此,

RSVDD

现,

RSVDD

的学习速度优势在

MNIST

数据集上更高。

法仍然在保持较高分类精度的基础上,将在线

SVDD

具体原因是高特征维数据集的支持向量较多,一方面

导致了支持向量约减算法速度优势的增加,另一面也

的训练时间大幅降低。

3 Banana

单分类数据集上的训练边界

·

·

测控技术

2023

年第

42

卷第

.JournalofPhysics

ConferenceSeries

2020

1533

):

042015.

]曲建岭,王小飞,高峰,等

基于超椭球分类面的

SVDD

快速决策方法[

控制与决策,

2017

32

):

721-726.

QUJL

WANGXF

GAOF

etal.Fastdecisionalgorithmof

SVDDbasedonhyperellipseclassificationboundary

ControlandDecision

2017

32

):

721-726

inChinese

ZHANGJL

YANGFW

LIANGC

etal.AnSVDDbased

postprocessingapproachforvibrationriskassessmentof

5 

训练时间结果对比

减小了单个支持向量携带的分类信息权重,从而降低

了直接消除单个孤立样本造成的重要分类信息损失的

程度。上述结果表明

RSVDD

算法适用于大规模样本

的在线学习问题,可以在保持较高分类精度的前提下,

明显提高在线

SVDD

的学习速度。

4 

6 

分类精度结果对比

本文提出了一种面向大规模数据的基于支持向量

RSVDD

在线学习算法,用以解决在线

SVDD

约减的

方法在处理大规模数据时支持向量数量增加而导致的

模型更新时间过长的问题,并在

Banana

Circular

Diffi

cult

Highleyman

Lithuanian

MNIST

多维数据集上与

OSVDD

ISVDD

进行对比实验,实验结果证明了

R

保持较高分类精度的前提下,大幅提高了在

SVDD

SVDD

的学习速度,模型更新时间相对稳定和快速,

线

进而提升了整个在线学习的效率,适用于工程实践中

的大规模数据处理。

参考文献

][

SAHAB.Approximationalgorithmsforlargescaledataa

nalysis

C//Proceedingsofthe40thACMSIGMODSI

GACTSIGAISymposiumonPrinciplesofDatabaseSys

tems.2021.

结束语

[]

,[

bleforlargescalehighlyimbalanceddataclassification

.KnowledgeBasedSystems

2022

242

108295.

RENJJWANGYPMAOMQetal.Equalizationensem

HAOHY.Machinelearningalgorithmbasedonbigdata

.JournalofLowFrequencyNoise

VibrationandActive

Control

2021

40

):

1309-1334.

ZHANGZ

DENGXG.Anomalydetectionusingimproved

deepSVDDmodelwithdatastructurepreservation

.Pat

ternRecognitionLetters

2021

148

1-6.

]刘志远,赵欣洋,王化玲,等

基于

ACPSOSVDD

的齿轮

机电工程,

2020

37

):箱故障异常检测方法研究[

377-382.

LIUZY

ZHAOXY

WANGHL

etal.Anomalydetection

ofgearboxfaultbasedonACPSOSVDD

.JournalofMe

chanical&ElectricalEngineering

2020

37

):

377-382

inChinese

]焦瑞华,马欣,李晓猛,等

基于

SVDD

PF

的剩余使用

测控技术,

2022

41

):

42-47.

寿命预测方法研究[

JIAORH

MAX

LIXM

etal.Remainingusefullifepre

dictionmethodbasedonSVDDandPF

.Measurement

&ControlTechnology

2022

41

):

42-47

inChi

nese

]衷路生,王银利

基于改进核主元和支持向量数据描述

测控技术,

2017

36

):

37-41.

故障检测[

ZHONGLS

WANGYL.Faultdetectionbasedonim

provedkernelprincipalcomponentandsupportvectordata

description

.Measurement&ControlTechnology

2017

36

):

37-41

inChinese

10

 TAXDMJ

LASKOVP.OnlineSVMlearning

fromclassi

ficationtodatadescriptionandback

//2003IEEEXIII

WorkshoponNeuralNetworksforSignalProcessing.2004

499-508.

11

 JIANGHS

WANGHY

HUWH

etal.Fastincremental

SVDDlearningalgorithmwiththeGaussiankernel

.Pro

ceedingsoftheAAAIConferenceonArtificialIntelligence

2019

33

3991-3998.

12

 CHENB

YUSH

YUY

etal.Acousticaldamagedetection

ofwindturbinebladeusingtheimprovedincrementalsup

portvectordatadescription

.RenewableEnergy

2020

156

548-557.

13

 ZHANGLL

QIAOF

WANGJK

etal.Equipmenthealth

assessmentbasedonimprovedincrementalsupportvector

datadescription

.IEEETransactionsonSystems

Man

andCybernetics

Systems

2021

51

):

3205-3216.

thehydroturbinegeneratorinalargehydropowerstation

下转第

21

基于

RFPCA

改进

SVM

模型的齿轮故障诊断方法

障轮箱故诊断研究[

机械强度,

2016

38

):

38-43.

LIUZC

TANGLW

CAOLJ.Researchongearboxfault

diagnosisbasedonIsomapandIGASVM

.Journalof

MechanicalStrength

2016

38

):

38-43

inChinese

17

 

时培明,梁凯,赵娜,等

基于分形维数和

GASVM

的风

计量学报,

2018

,电机组齿轮箱轴承故障诊断[

39

):

61-65.

SHIPM

LIANGK

ZHAON

etal.Faultdiagnosisofwind

turbinegearboxbearingbasedonfractaldimensionandGA

SVM

.ActaMetrologicaSinica

2018

39

):

61-65

inChinese

18

 LINY

XIAOMH

LIUHJ

etal.Gearfaultdiagnosis

basedonCSimprovedvariationalmodedecompositionand

probabilisticneuralnetwork

.Measurement

2022

192

110913.

19

 DINGJK

XIAODM

LIXJ.Gearfaultdiagnosisbased

ongeneticmutationparticleswarmoptimizationVMDand

probabilisticneuralnetworkalgorithm

.IEEEAccess

2020

18456-18474.

20

 YANGZL

WANGB

DONGXH

etal.Expertsystemof

faultdiagnosisforgearboxinwindturbine

.Systems

EngineeringProcedia

2012

189-195

21

 

赵晓平,吴家新,钱承山,等

基于多任务深度学习的齿

振动与冲击,

2019

38

23

):

轮箱多故障诊断方法[

271-278.

ZHAOXP

WUJX

QIANCS

etal.Multifaultdiagnosis

JournalofVibrationandShock

20193823

·

21

·

,,():

271-278

inChinese

22

 SMITHA

STERBABOATWRIGHTB

MOTTJ.Novelap

plicationofastatisticaltechnique

randomforests

inabac

terialsourcetrackingstudy

.WaterResearch

2010

44

14

):

4067-4076.

23

 

陈苏雨,方宇,胡定玉

基于随机森林方法的地铁车门故

测控技术,

2018

37

):

20-24.

障诊断[

CHESY

FANGY

HUDY.Subwaydoorfaultdiagnosis

basedonrandomforestmethod

.Measurment&Control

Technology

2018

37

):

20-24

inChinese

24

 

杨雯,张锦水,朱秀芳,等

随机森林在高光谱遥感数

北京师范大学学报(自然

据中降维与分类的应用[

2015

S1

):

82-88.

科学版),

YANGJW

ZHANGJS

ZHUXF

etal.Randomforest

appliedfordimensionreductionandclassificationinhyper

spectraldata

.JournalofBeijingNormalUniversity

Nat

uralScience

),:

2015

51

S1

82-88

inChinese

25

 

陈丽晶,张尚田,单添敏,等

基于多分类

SVM

的航空逆

测控技术,

2022

41

):

46-50.

变器故障诊断[

CHENLJ

ZHANGST

SHANTM

etal.Faultdiagnosis

ofaviationinverterbasedonmulticlassificationSVM

Measurement&ControlTechnology

2022

41

):

46-50

inChinese

methodforgearboxbasedonmultitaskdeeplearning

J.

[]

上接第

14

 

2023105

GYAMFIEDELIAJURCUTA.Novelonlinenetworkin

trusiondetectionsystemforindustrialIoTbasedonOI

SVDDandASELM

J.IEEEInternetofThingsJournal

417

():

175-184.

WANGXF

WANGYX

QUJL

etal.Anaeroengine

,():

3827-3839.

15

 XIEWY

UHLMANNS

KIRANYAZS

etal.Incremental

learningwithsupportvectordatadescription

//Proceed

ingsofthe201422ndInternationalConferenceonPattern

Recognition.2014

3904-3909.

[],

[],,

41

):

175-184

inChinese

20

 

吕帅,龚晓宇,张正昊,等

结合进化算法的深度强化学

习方法研究综述[

计算机学报,

2022

45

):

1478-

data

J.ChineseJournalofScientificInstrument2020

1499.

LYUS

GONGXYZHANGZHetal.Surveyofdeepre

inforcementlearningmethodswithevolutionaryalgorithms

performancemonitoringmethodbasedonlargescaleflight

16

 LEESW

PARKJ

LEESW.Lowresolutionfacerecogni

tionbasedonsupportvectordatadescription

.Pattern

Recognition

2006

39

):

1809-1812.

17

 MAOWT

CHENJX

LIANGXH

etal.Anewonlinede

,,,

.ChineseJournalofComputers

2022

45

):

1478-

1499

inChinese

21

 GOYALP

DOLL?RP

GIRSHICKR

etal.Accurate

large

minibatchSGD

trainingImageNetin1hour

EB/OL

2022

tectionapproachforrollingbearingincipientfaultviaselfa

1122

.https

//arxiv.org/abs/1706.02677.

daptivedeepfeaturematching

.IEEETransactionsonIn

22

 TAXDMJ

DUINRPW.Supportvectordatadescription

strumentationandMeasurement

2020

69

):

443-456.

.MachineLearning

2004

54

):

45-66.

18

 WANGQF

LIUXJ

WEIBK

etal.Onlineincipientfault

23

 KHAZAIS

SAFARIA

MOJARADIB

etal.Improvingthe

detectionmethodbasedonimproved

trendfilteringand

SVDDapproachtohyperspectralimageclassification

supportvectordatadescription

.IEEEAccess

2021

IEEEGeoscienceandRemoteSensingLetters

2012

):

30043-30059.

594-598.

19

 

王小飞,王元鑫,曲建岭,等

面向大样本飞参数据的航

仪器仪表学报,

2020

,空发动机性能监控方法[


本文标签: 向量 支持 数据 分类 样本