混合学习神经网络架构

文档序号:118967 发布日期:2021-10-19 浏览:38次 >En<

阅读说明:本技术 混合学习神经网络架构 (Hybrid learning neural network architecture ) 是由 理栈 任志星 张云 王加龙 于 2019-05-15 设计创作,主要内容包括:提供了用于预测数据中心中的计算机机房的能量效率的系统和方法,并且更具体地,提供了使用双塔深度学习架构来按优化的参数而预测计算机机房的电源使用效率(PUE)的系统和方法。所述双塔深度学习架构可以自动地根据数据和本体结构学习嵌入,并且可以包括两个子网络如捕获嵌入在本体中的领域知识的第一神经网络和根据输入预测PUE的第二神经网络的训练。可以为无监督的所述第一神经网络和可以为监督的所述第二神经网络的学习可以是同时的并且被称为混合学习,以及所述双塔深度学习架构也可以被称为混合学习神经网络(HLNN)架构。(Systems and methods are provided for predicting energy efficiency of a computer room in a data center, and more particularly, for predicting Power Usage Efficiency (PUE) of a computer room at optimized parameters using a two-tower deep learning architecture. The two-tower deep learning architecture can automatically learn embedding from data and ontology structures, and can include training of two sub-networks, such as a first neural network that captures domain knowledge embedded in an ontology and a second neural network that predicts PUEs from inputs. The learning of the first neural network, which may be unsupervised, and the second neural network, which may be supervised, may be simultaneous and referred to as hybrid learning, and the dual-tower deep learning architecture may also be referred to as a Hybrid Learning Neural Network (HLNN) architecture.)

具体实施方式

本文讨论的系统和方法涉及预测数据中心中的计算机机房的能量效率,并且更具体地涉及使用双塔深度学习架构来按优化的参数而预测计算机机房的电源使用效率(PUE)。双塔深度学习架构可以自动地根据数据和本体结构学习嵌入,并且可以包括两个子网络即捕获嵌入在本体中的领域知识的无监督自动编码器网络(AE-Net)和根据输入预测PUE的监督预测网络(P-Net)的同时训练。AE-Net(无监督)和P-Net(监督)的同时学习可以被称为混合学习,而双塔深度学习架构也可以被称为混合学习神经网络(HLNN)架构。

为了通过确保合理且适当的操作环境如计算机机房的环境并且减少设置环境控制系统如HVAC系统的组件时的浪费来实现PUE优化,可以使用机器学习方法来根据历史数据学习,以获得各种HVAC组件之间的复杂关系以及计算机机房在不同操作条件下的能量效率。

在HLNN架构中,第一神经网络和第二神经网络,诸如分别为AE-Net和P-Net,可以共享包括一个输入层和两个概念层的共享结构。AE-Net和P-Net中的每一个可以具有它自己的隐藏层和输出层。AE-Net、P-Net和共享结构可以形成混合学习神经网络(HLNN)架构。AE-Net可以是无监督学习网络,其可以被训练来使其输出以最低可能的误差复制输入,然而P-Net可以是用于预测PUE的深度前馈神经网络。

例如,与计算机机房的HVAC系统和计算设备相关联的组件的领域知识可以被嵌入到HLNN架构中。通过嵌入组件的领域知识,可以减少输入的数量和搜索空间的复杂性,并且可以提高PUE预测的准确性。输入层和概念层的双塔深度学习架构的设计可以由包含多级节点的领域本体指导,其中顶级可以包含根概念而底级可以包含多个实例。本体的底级中的实例可以通过输入层中的节点来表示,并且中间级中的概念也可以在共享结构的概念层中具有对应的节点。此外,可以在输入层和概念层中复制各级之间的关系和/或连接。

图1图示与可以被利用来预测计算机机房102的电源使用效率(PUE)的混合学习神经网络(HLNN)一起使用的环境控制系统100的示例框图。

环境控制系统100可以包括多个组件,诸如通信地耦合到HVAC组106及外部设备和数据组108的设备和数据收集模块104。设备和数据收集模块104可以被配置为维护由HVAC组106及外部设备和数据组108管理的组件的配置文件,从与那些组件相关联的各种传感器接收输入数据,并且将数据发送到那些组件以部分地控制计算机机房102的环境,并且计算计算机机房102的预测PUE。环境控制系统组件中的一些可以位于计算机机房102中,而其他组件可以位于计算机机房102所位于的建筑物外部。环境控制系统100可以监控与计算机机房102、设备和数据收集模块104、HVAC组106及外部设备和数据组108相关联的组件的能量消耗。另外,环境控制系统100可以通信地耦合到计算机110。计算机110可以包括一个或多个处理器112和通信地耦合到该一个或多个处理器112的存储器114,其可以存储要由计算机110执行以执行下述HLNN的功能的计算机可读指令。计算机110可以位于计算机机房102内或者可以远离计算机机房102定位。

计算机机房102可以收容包括服务器、电源、显示器、路由器、网络和通信模块等(未示出)的计算设备116。计算设备116可以耦合到环境控制系统100并且可以基于历史、当前和预期的能量使用和计算负载来提供有关计算设备116的能量使用的信息以用于计算机机房102的预测PUE。

图2按相关级(所示的第1-4级)图示图1的环境控制系统100的示例详细框图。

HVAC组106可以包括通信地耦合到设备和数据收集模块104的HVAC控制模块202、空调组204和制冷组206。HVAC控制模块202可以被配置为从空调组204和制冷组206的各种传感器和控制器接收操作信息。HVAC控制模块202可以将操作信息转发到设备和数据收集模块104以供由HLNN计算。HVAC控制模块202也可以被配置为将从设备和数据收集模块104接收到的控制信息发送到空调组204和制冷组206以用于调整空调组204和制冷组206的各种参数以优化用于预测PUE的期望参数。HVAC组106还可以包括二次泵组(未示出)并且可以类似地传送往返于HVAC控制模块202的相关操作信息。

空调组204可以包括N个空调(两个,AC-1 208和AC-N 210,如所示)。尽管未示出,但是N个空调中的每一个可以包括若干控制器和传感器,诸如对应的开关、对应的风扇速度控制器/传感器、对应的空调输出空气温度传感器和对应的空调回风温度传感器。N个空调中的每一个可以被配置为从所对应的控制器和传感器接收AC操作信息并且将AC操作信息转发到空调系统204,该空调系统进而将AC操作信息转发到HVAC控制模块202。N个空调中的每一个也可以被配置为将从空调系统204接收到的AC控制信息发送到所对应的控件以优化用于预测PUE的期望参数。

制冷组206可以包括包括有多个冷却器(所示的冷却器1212)和多个冷却塔(所示的塔1214)的多个制冷系统。尽管未示出,但是多个冷却器中的每一个可以包括相关的开关、冷却模式控制器、流出冷却水温度控制器/传感器,并且多个冷却塔中的每一个可以包括相关的冷却塔风扇速度控制器/传感器、流出冷却水温度控制器/传感器和返回冷却水温度控制器/传感器。

多个制冷系统中的每一个可以被配置为从所对应的控件、开关和传感器(未示出)接收制冷操作信息并且经由制冷组206将制冷操作信息转发到HVAC控制模块202。多个制冷系统中的每一个也可以被配置为将从制冷组206接收到的制冷控制信息发送到所对应的控件、开关和传感器以优化用于预测PUE的期望参数。

外部设备和数据组108可以包括通信地耦合到设备和数据收集模块104的外部设备监控模块216、外部湿度模块218、外部湿球温度模块220及其他模块(未示出)。外部湿度模块218可以通信地耦合到M个湿度传感器(两个湿度传感器,湿度传感器-1 222和湿度传感器-M 224,如所示)。外部湿球温度模块220可以通信地耦合到M个湿球温度传感器(两个湿球温度传感器,湿球温度传感器-1 226和湿球温度传感器-M 228,如所示)。外部设备监控模块216可以从所对应的传感器接收湿度和湿球温度信息并且将该信息转发到设备和数据收集模块104以用于优化用于预测PUE的期望参数。

图2所图示的每个块可以与领域本体的多个级中的一个相关联。具有四级的领域本体在本文中作为示例被图示,然而,领域本体的级数可能不限于四并且也可以多于或少于四级。第1级可以包括设备和数据收集模块104,其可以被称为D1。第2级可以包括包括有HVAC控制模块202和外部设备监控模块216的q个模块,其分别可以被称为C_1、C_2、...C_q。第3级可以包括包括有空调组204、制冷组206、外部湿度模块218和外部湿球温度模块220的p个模块,其分别可以被称为B_1、B_2、...B_p。第4级可以包括包括有AC-1 208、AC-N 210、冷却器-1 212、塔-1 214、湿度传感器-1 222、湿度传感器-M 224、湿球温度传感器-1 226和湿球温度传感器-M 228的k个模块,其分别可以被称为A_1、A_2、...A_k。

图3图示HLNN架构300的示例框图。

HLNN结构300可以包括领域本体302、共享结构304、诸如AE-Net 306的第一神经网络和诸如P-Net 308的第二神经网络。在本体中可以存在多个级,并且作为示例在领域本体302中示出了与图2所图示的块相对应的四个级。顶级第1级可以包含根概念D_1310,而底级第4级可以包含多个实例,其中示出了四个实例A_1 312、A_2 314、A_n 316和A_k 318。领域本体302的第4级中的这四个实例可以分别被表示为共享结构304的输入层328中的节点A_1320、A_2 322、A_n 324和A_k 326。

领域本体302的第二级第2级和第三级第3级可以表示多个实例,其中示出了两个概念C_1 330和C_q 332(在第2级中)以及三个概念B_1 334、B_2 336和B_p 338(在第3级中)。领域本体302的第2级和第3级中的这些实例也可以分别在共享结构304的概念层350中具有对应的节点C_1 340、C_q 342、B_1 344、B_2 346和B_p 348。附加地,也可以在输入层328和概念层350中复制各级之间的关系/连接。例如,在领域本体302中,概念B_1 334被示出为连接到一组实例A_1 312、A_2 314和A_n 316,并且在概念层350中,所对应的节点B_1344也被示出为连接到输入层328中所对应的节点A_1 320、A_2 322和A_n 324。

P-Net 308可以是深度前馈神经网络并且可以包括隐藏层352和用于输出PUE参数356的单节点输出层354,加上共享结构304的输入层328和概念层350。在下面描述P-Net308的示例前馈操作。神经元和节点可以互换地使用。

表示第(l-1)层中的第j神经元或节点与第l层中的第i神经元之间的权重,并且是第l层中的第i个神经元的偏差。利用这些表示法,可以将前馈操作描述为

其中是节点i的加权输入,是第(l-1)层中的第j节点的输出,并且Rl-1是第(l-1)层中的神经元的数量。

给定可以将等式(1)简化为:

使用上述表示法,节点i的激活是

其中fp是激活函数。

在共享结构304中,连接可以由领域知识指导,这可能不充分地连接概念层350中的节点。令表示两个概念节点即节点j和节点i之间的概念关系,然后可以将节点i的加权输入表达为:

概念层350的每个层可以从领域本体302中的概念的对应级映射。令表示概念层次中连接到第l层中的第i节点(即,领域本体302中的节点C_i)的节点(实例和概念)的数量,然后可以将概念关系权重表达为

也就是说,如果第(l-1)层所对应的子概念/实例节点j未连接到节点i的概念,则是零。如果则概念关系权重是1,这不影响学习过程。损失函数LPN(a,dp)然后可以针对输入a通过令a表示输入向量、令op表示所计算的神经网络的输出并且令dp表示期望输出来定义dp与op之间的误差。

AE-Net 306可以是包括隐藏层358和输出层360加上共享结构304的输入层328和概念层350的无监督学习模型。AE-Net 306可以被设计来使来自共享结构304的输入层328的输入与来自输出层360的输出之间的差最小化。考虑到来自输入层328的输入向量a、来自概念层350的顶概念层的表示向量c以及来自输出层360的输出向量r(所示的R_1362和R_k364),将a变换成c的映射可以被称作编码器,而将c变换回为r的映射可以被称作解码器。编码器可以由输入层328和概念层350组成,然而解码器可以由隐藏层358和输出层360组成。AE-Net 306中的训练过程可以帮助编码器将领域知识保存在领域本体302中。

将输入向量a设置为a={a1,a2,...,ak},表示向量c可以被表达为c={c1,c2,...,cq},并且输出向量r可以被表达为r={r1,r2,...,rk},则可以将编码器函数fθ和解码器函数gθ表达为:

c=fθ(a) (6)

r=gθ(c) (7)

在编码器函数fθ和解码器函数gθ中,参数集是θ={W,b,W’,d},其中W和W’是编码器和解码器权重矩阵,并且b和d是编码器和解码器偏差向量。然后可以将编码器函数fθ和解码器函数gθ分别表达为:

fθ(a)=sf(b+Wa) (8)

gθ(c)=sg(d+Wc) (9)

其中sf和sg是编码器和解码器激活函数。在概率方面,r不是a的确切重构而是以高概率生成a的分布p(A|R=r)的参数。可以训练AE-Net 306以找到使以下等式中的重构误差最小化的参数集:

EAE(θ)=∑a∈ALAE(a,r)=∑a∈ALAE(a,gθ(fθ(a))) (10)

其中A表示训练示例集,LAE是损失函数或重构误差。输入向量可能是实值并且损失函数LAE可以是平方误差LAE(a,r)=||a-r||2。sf和sg都可以是sigmoid函数。

可以以与标准神经网络类似的方式训练HLNN 300。唯一差异可以是损失函数LModel可以由两个分量组成:AE-Net 306的损失LAE,以及P-Net 308的预测损失LPN

LModel=LPN+αLAE (11)

其中α是向LAE提供偏差或权重的常数。可替代地,LPN可以由另一常数β偏倚或加权,并且可以将LModel表达为LModel=βLPN+LAE

在训练中,可以损失的导数表达为

并且可以做出以下代入:

其中Rl+1是第(l+1)层中的节点的数量。组合等式(12)、(13)和(14),得出

如果层l+1在共享结构304即输入层328和概念层350中,则可以将等式(15)变换为:

如果层l+1在P-Net 308的隐藏层352或输出层354中,则可以将等式(15)变换为:

其中表示第(l+1)层中用于计算P-Net 308的输出的节点的数量。

如果层l+1是AE-Net 306的隐藏层358或输出层360,则可以将等式(15)变换为:

其中表示第(l+1)层中用于计算AE-Net 306的输出的节点的数量。

等式(16)、(17)和(18)表明损失函数LModel的导数被反向传播以用于学习AE-Net306和P-Net 308两者。可以通过使通过如由等式(11)表达的损失函数LModel所计算的损失最小化来优化PUE的解,这可以通过将损失函数LModel的导数如等式(16)、(17)和(18)设置为零并且求解变量来实现。因为解可能不总是收敛到零,或者可能花费比可接受的时间或迭代次数长的时间,所以可以将导数的值设置为足够小且可接受的阈值。

图4图示描述由HLNN 300预测电源利用效率(PUE)的过程的示例流程图400。

在框402,HLNN 300可以创建如图1-3所图示的与又与计算机机房102相关联的环境控制系统100相关联的组件的具有多个级的本体,诸如领域本体302。HLNN 300可以自动地接收与环境控制系统100相关联的组件的信息,包括对应的相关历史数据、位置和物理连接以及如图1-3所图示的组件之间的层次。计算设备116可以包括服务器、电源、显示器、路由器、网络和通信模块(电话、互联网、无线装置等)等。环境控制系统100的组件和计算设备116之间的关系可以基于计算设备116的荷载,诸如服务器的工作负载或计算负载以及作为服务器的工作负载的函数的服务器的电气负载。

在框404,HLNN 300可以接收与环境控制系统100相关联的组件的输入特征参数。更具体地,共享结构304的输入层328可以从领域本体302接收k个实例,A_1 312、A_2 314、A_n 316和A_k 318,其中k是整数。k个实例中的每一个可以在输入层328中具有对应的输入特征参数(如图3所图示的A_1 320、A_2 322、A_n 324和A_k 326)可以属于如概念层350中分层图示的多个上层概念的一个或多个对应的上层概念。

在框406,可以同时地训练第一神经网络如AE-Net 306和第二神经网络如P-Net308两者。如上面讨论的,输入向量a或输入特征参数可以被表达为a={a1,a2,...,ak},表示向量c或概念可以被表达为c={c1,c2,...,cq},并且输出向量r可以被表达为r={r1,r2,...,rk}。将a变换成c的映射可以被称作编码器,而将c变换回为r的映射可以被称作解码器。编码器可以由输入层328和概念层350组成,而解码器可以由隐藏层358和输出层360组成。AE-Net 306中的训练过程可以帮助编码器将领域知识保存在领域本体302中。

在框408,HLNN 300可以通过利用经训练后的AE-Net 306和经训练后的P-Net 308来基于损失函数LModel使损失最小化,并且在框410预测计算机机房102的电源使用效率(PUE)。损失函数LModel的导数,诸如等式(16)、(17)和(18),可以被设置为零以用于求解变量。因为解可能不总是收敛到零,或者可能花费比可接受的时间长的时间,所以可以将导数的值设置为足够小且可接受的阈值。

经训练后的神经网络可以是自动地生成的,并且可以通过使用梯度下降算法来执行经训练后的神经网络的训练以针对对应的概念实现输入特征参数的学习。经训练后的神经网络的架构可以基于多个组件之间的关系反映对多个组件和相关概念的深度学习。经训练后的神经网络可以包括耦合在输入层如输入层328与输出层如输出层354或360之间的层次概念层,诸如概念层350。可以如图3所图示的那样将概念层350添加在输入层328与隐藏层352和358之间。概念层350可以被嵌入有来自领域本体302的领域知识。概念层350可以基于多个组件之间的关系构造概念结构。可以用能够相互通信的智能组件人工地或自动地创建概念结构。HLNN 300的训练部分和利用HLNN 300对PUE的预测可以被单独地和/或由不同方执行。

一般的深度学习网络可能无法合理地区分所有重复和/或类似的输入特征,并且可以完全基于历史数据标识每个特征的重要性。在诸如具有大量重复和类似的装置的计算机机房102的结构中,如果这些重复和/或类似的输入特征参数未被归类、聚合或抽象,则网络的复杂性以及学习和搜索的空间将大大地增加,从而需要更高质量和数量的数据。尽管可能易于获得不合理的过拟合,但是会降低预测准确性。

可以通过执行存储在如下定义的计算机可读存储介质上的计算机可读指令来执行上述方法的一些或所有操作。如说明书和权利要求中使用的术语“计算机可读指令”包括例程、应用、应用模块、程序模块、程序、组件、数据结构、算法等。能够在各种系统配置上实现计算机可读指令,所述各种系统配置包括单处理器或多处理器系统、微型计算机、大型计算机、个人计算机、手持计算装置、基于微处理器的可编程消费电子装置、其组合等。

计算机可读存储介质可以包括易失性存储器(诸如随机存取存储器(RAM))和/或非易失性存储器(诸如只读存储器(ROM)、闪速存储器等)。计算机可读存储介质也可以包括附加可移动存储装置和/或不可移动存储装置,包括但不限于可以提供计算机可读指令、数据结构、程序模块等的非易失性存储的闪速存储器、磁存储装置、光存储装置和/或磁带存储装置。

非瞬时计算机可读存储介质是计算机可读介质的示例。计算机可读介质包括至少两种类型的计算机可读介质,即计算机可读存储介质和通信介质。计算机可读存储介质包括用任何过程或技术加以实现以便存储诸如计算机可读指令、数据结构、程序模块或其他数据的信息的易失性和非易失性、可移动和不可移动介质。计算机可读存储介质包括但不限于相变存储器(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、闪速存储器或其他存储器技术、紧致盘只读存储器(CD-ROM)、数字通用盘(DVD)或其他光学存储装置、磁盒、磁带、磁盘存储装置或其他磁存储装置,或能够用于存储信息以供由计算装置访问的任何其他非传输介质。相比之下,通信介质可以在调制数据信号如载波或其他传输机制中体现计算机可读指令、数据结构、程序模块或其他数据。如本文定义的,计算机可读存储介质不包括通信介质。

存储在一个或多个非暂时性计算机可读存储介质上的计算机可读指令当由一个或多个处理器执行时,可以执行上面参考图1-4描述的操作。通常,计算机可读指令包括执行特定功能或者实现特定抽象数据类型的例程、程序、对象、组件、数据结构等。描述操作的次序不旨在被解释为限制,并且能够以任何次序和/或并行地组合任何数量的所描述的操作以实现这些过程。

示例条款

A.一种方法,所述方法包括:接收与至少一个计算机机房相关联的多个组件的输入特征参数;基于所述输入特征参数训练第一神经网络和第二神经网络;以及基于所述第一神经网络的输出和所述第二神经网络的输出来预测所述至少一个计算机机房的电源使用效率(PUE)。

B.如段落A所述的方法,其中所述第一神经网络是无监督神经网络,而所述第二网络是监督预测神经网络。

C.如段落A所述的方法,其中基于所述输入特征参数训练所述第一神经网络和所述第二神经网络包括基于所述输入特征参数同时地训练所述第一神经网络和所述第二神经网络。

D.如段落A所述的方法,其中接收与所述至少一个计算机机房相关联的所述多个组件的输入特征参数包括:创建具有与所述多个组件相关联的多个级的本体;以及基于所述本体接收所述多个组件的信息,包括对应的相关概念、历史数据、位置、物理连接以及所述多个组件之间的层次。

E.如段落D所述的方法,其中所述多个组件之间的关系至少部分地基于所述计算机机房中的计算设备的荷载。

F.如段落E所述的方法,其中所述计算设备的荷载包括所述计算设备的工作负载和由所述计算设备使用的电气负载。

G.如段落F所述的方法,其中所述计算设备包括服务器和用于所述服务器的电源。

H.如段落D所述的方法,其中基于所述输入特征参数训练所述第一神经网络和所述第二神经网络包括使用梯度下降算法来针对对应的概念实现所述输入特征参数的学习。

I.如段落A所述的方法,其中基于所述第一神经网络的输出和所述第二神经网络的输出来预测所述至少一个计算机机房的PUE包括用恒定值偏倚与所述第一神经网络相关联的损失。

J.如段落I所述的方法,其中基于所述第一神经网络的输出和所述第二神经网络的输出来预测所述至少一个计算机机房的PUE包括使基于与所述第一神经网络相关联的有偏损失和与所述第二神经网络相关联的无偏损失而计算的总损失最小化。

K.如段落J所述的方法,其中通过利用所述第一神经网络和所述第二神经网络来使基于所述损失函数而计算的所述损失最小化包括求解所述损失函数的导数等于零。

L.如段落J所述的方法,其中通过利用经训练后的第一神经网络和经训练后的第二神经网络来使基于所述损失函数而计算的所述损失最小化包括求解所述损失函数的导数小于或等于阈值。

M.一种系统,所述系统包括:一个或多个处理器;以及通信地耦合到所述一个或多个处理器的存储器,所述存储器存储可由一个或多个处理器执行的计算机可读指令,当由所述一个或多个处理器执行时,所述计算机可读指令使所述一个或多个处理器执行包括以下步骤的操作:接收与至少一个计算机机房相关联的多个组件的输入特征参数;基于所述输入特征参数训练第一神经网络和第二神经网络;以及基于所述第一神经网络的输出和所述第二神经网络的输出来预测所述至少一个计算机机房的电源使用效率(PUE)。

N.如段落M所述的系统,其中所述第一神经网络是无监督神经网络,而所述第二网络是监督预测神经网络。

O.如段落M所述的系统,其中基于所述输入特征参数训练所述第一神经网络和所述第二神经网络包括基于所述输入特征参数同时地训练所述第一神经网络和所述第二神经网络。

P.如段落M所述的系统,其中接收与所述至少一个计算机机房相关联的所述多个组件的输入特征参数包括:创建具有与所述多个组件相关联的多个级的本体;以及基于所述本体接收所述多个组件的信息,包括对应的相关概念、历史数据、位置、物理连接以及所述多个组件之间的层次。

Q.如段落P所述的系统,其中所述多个组件之间的关系至少部分地基于计算设备的荷载。

R.如段落Q所述的系统,其中所述计算设备的荷载包括所述计算设备的工作负载和由所述计算设备使用的电气负载。

S.如段落R所述的系统,其中所述计算设备包括服务器和用于所述服务器的电源。

T.如段落P所述的系统,其中基于所述输入特征参数训练所述第一神经网络和所述第二神经网络包括使用梯度下降算法来针对对应的概念实现所述输入特征参数的学习。

U.如段落M所述的系统,其中基于所述第一神经网络的输出和所述第二神经网络的输出来预测所述至少一个计算机机房的PUE包括用恒定值偏倚与所述第一神经网络相关联的损失。

V.如段落U所述的系统,其中基于所述第一神经网络的输出和所述第二神经网络的输出来预测所述至少一个计算机机房的PUE包括使基于与所述第一神经网络相关联的有偏损失和与所述第二神经网络相关联的无偏损失而计算的总损失最小化。

W.如段落V所述的系统,其中通过利用所述第一神经网络和所述第二神经网络来使基于所述损失函数而计算的所述损失最小化包括求解所述损失函数的导数等于零。

X.如段落V叙述的系统,其中通过利用经训练后的第一神经网络和经训练后的第二神经网络来使基于所述损失函数而计算的所述损失最小化包括求解所述损失函数的导数小于或等于阈值。

Y.一种非暂时性计算机可读存储介质,所述非暂时性计算机可读存储介质存储可由一个或多个处理器执行的计算机可读指令,当由所述一个或多个处理器执行时,所述计算机可读指令使所述一个或多个处理器执行包括以下步骤的操作:接收与至少一个计算机机房相关联的多个组件的输入特征参数;基于所述输入特征参数训练第一神经网络和第二神经网络;以及基于所述第一神经网络的输出和所述第二神经网络的输出来预测所述至少一个计算机机房的电源使用效率(PUE)。

Z.如段落Y所述的非暂时性计算机可读存储介质,其中所述第一神经网络是无监督神经网络,而所述第二网络是监督预测神经网络。

AA.如段落Y所述的非暂时性计算机可读存储介质,其中基于所述输入特征参数训练所述第一神经网络和所述第二神经网络包括基于所述输入特征参数同时地训练所述第一神经网络和所述第二神经网络。

AB.如段落Y所述的非暂时性计算机可读存储介质,其中接收与所述至少一个计算机机房相关联的所述多个组件的输入特征参数包括:创建具有与所述多个组件相关联的多个级的本体;以及基于所述本体接收所述多个组件的信息,包括对应的相关概念、历史数据、位置、物理连接以及所述多个组件之间的层次。

AC.如段落AB所述的非暂时性计算机可读存储介质,其中所述多个组件之间的关系至少部分地基于所述计算机机房中的计算设备的荷载。

AD.如段落AC所述的非暂时性计算机可读存储介质,其中所述计算设备的荷载包括所述计算设备的工作负载和由所述计算设备使用的电气负载。

AE.如段落AD所述的非暂时性计算机可读存储介质,其中所述计算设备包括服务器和用于所述服务器的电源。

AF.如段落AB所述的非暂时性计算机可读存储介质,其中基于所述输入特征参数训练所述第一神经网络和所述第二神经网络包括使用梯度下降算法来针对对应的概念实现所述输入特征参数的学习。

AG.如段落Y所述的非暂时性计算机可读存储介质,其中基于所述第一神经网络的输出和所述第二神经网络的输出来预测所述至少一个计算机机房的PUE包括用恒定值偏倚与所述第一神经网络相关联的损失。

AH.如段落AG所述的非暂时性计算机可读存储介质,其中基于所述第一神经网络的输出和所述第二神经网络的输出来预测所述至少一个计算机机房的PUE包括使基于与所述第一神经网络相关联的有偏损失和与所述第二神经网络相关联的无偏损失而计算的总损失最小化。

AI.如段落AH所述的非暂时性计算机可读存储介质,其中通过利用所述第一神经网络和所述第二神经网络来使基于所述损失函数而计算的所述损失最小化包括求解所述损失函数的导数等于零。

AJ.如段落AH所述的非暂时性计算机可读存储介质,其中通过利用经训练后的第一神经网络和经训练后的第二神经网络来使基于所述损失函数而计算的所述损失最小化包括求解所述损失函数的导数小于或等于阈值。

结论

尽管已经用特定于结构特征和/或方法学行为的语言描述了主题,但是应当理解,所附权利要求中定义的主题不一定限于所描述的特定特征或行为。相反,特定特征和行为作为为实现权利要求的示例性形式被公开。

19页详细技术资料下载
上一篇:一种医用注射器针头装配设备
下一篇:低功率处理器状态的自主核心周界

网友询问留言

已有0条留言

还没有人留言评论。精彩留言会获得点赞!

精彩留言,会给你点赞!