关于使用self.params.get()初始化参数的问题

请问在自定义的HybridBlock子类中,使用self.params.get()或self.params.get_constant()为模型中的某种参数(比方说bias)赋值之后,该模型在初始化时, bias会否被指定的初始化方法覆盖掉?

import numpy as np
import mxnet as mx

class CustomCls(mx.gluon.HybridBlock):

def __init__(self, channels=None):
	super(CustomCls, self).__init__()
	self.channels = channels
	self.weight = mx.nd.ones([channels, 10, 3, 3]) * 2
	bias = mx.nd.array([-2.19] * channels)
	self.bias = self.params.get_constant('bias', bias)

def hybrid_forward(self, F, x, bias):
	x = F.Convolution(data=x, weight=self.weight, bias=bias, kernel=(3, 3),
			stride=(1, 1), pad=(1, 1), num_filter=self.channels)
	return x

if name == “main”:
net = CustomCls(10)
net.initialize(init=mx.init.Xavier())
x = mx.nd.ones([1, 10, 100, 100])
print(net(x))

以上面的代码为例,Convolution操作中的bias在__init__()方法中被self.params.get_constant()初始化为-2.19了,那么在网络初始化中使用的mx.init.Xavier()方法会否把bias的-2.19和weight的值给覆盖掉?

注:之所以把bias设为-2.19是参照CornerNet中依据Focal Loss论文中的配置进行的。

我觉得不会。