利用自的分块计算将长序列分布到多个设备上,以克服 transformer 架构固有的内存限制,从而能够在训练和推理过程中处理较长的序列;能够在保持性能的同时根据设备数量缩放上下文长度,在没有注意力近似的情况下超过 1 亿上下文长度。
原创文章,作者:校长,如若转载,请注明出处:https://www.yundongfang.com/yun260678.html
利用自的分块计算将长序列分布到多个设备上,以克服 transformer 架构固有的内存限制,从而能够在训练和推理过程中处理较长的序列;能够在保持性能的同时根据设备数量缩放上下文长度,在没有注意力近似的情况下超过 1 亿上下文长度。
原创文章,作者:校长,如若转载,请注明出处:https://www.yundongfang.com/yun260678.html