我猜测就是流体力学里面的插值是一样的,流体力学计算是先计算节点,节点之间的数据是插值得来的,最后呈现整个流体的状态。这个和老黄的ai插帧可能是一样的思路,节点计算看节点密度,计算速度可差了老多了。
不过我可以确认的是:
1,一般意义上的扩散模型,是指一种架构,类似 GPT ,BERT也是一种架构;
2,transformer 大多是指一种基于多头自注意力机制的 block,平行的概念有 lstm,gru,cnn
3,所以 transformer 可以作为扩散模型的组成部分,并不冲突,类似transformer decoder 是 GPT 的组成部分
我猜测就是流体力学里面的插值是一样的,流体力学计算是先计算节点,节点之间的数据是插值得来的,最后呈现整个流体的状态。这个和老黄的ai插帧可能是一样的思路,节点计算看节点密度,计算速度可差了老多了。