AttentionCell类中为什么同时定义hybrid_forward 与 forward两个函数

http://gluon-nlp.mxnet.io/_modules/gluonnlp/model/attention_cell.html#AttentionCell

这是由于有一部分逻辑需要依赖输入长度来决定循环长度,这部分不能hybridize所以写在for loop中,其余部分写在hybrid_forward中以帮助加速