how to

Layer Norm

Nov 9, 2025
notesjulyfun技术学习models
1 Minutes
96 Words

LN: 只要是特征就视为一个分布内,做归一化。

  • 图像 (b, c, h, w): 一个 sample 的 (c, h, w) 归一化
  • emb: (b, length, dimension):一个 emb 内做归一化 (d, )

BN:

  • 图像 (b, c, h, w): 一个 channel 内归一化 (b, h, w)
  • emb: 刚好和 LN 相反,认为 emb 一个维度是一个分布,(b, l, d) 的 (b, l) 内归一化 内归一化
Article title:Layer Norm
Article author:Julyfun
Release time:Nov 9, 2025
Copyright 2025
Sitemap