您的当前位置:首页 > 休闲 > Transformer的高下文学习能耐是哪来的? 正文
时间:2024-11-19 21:31:03 来源:网络整理 编辑:休闲
有实际根基,咱们就能妨碍深度优化了。为甚么 transformer 功能这么好?它给泛滥狂语言模子带来的高下文学习 (In-Context Learning) 能耐是从何而来?在家养智能规模里,tra
有实际根基 ,高下咱们就能妨碍深度优化了。文学
为甚么 transformer 功能这么好 ?它给泛滥狂语言模子带来的高下高下文学习 (In-Context Learning) 能耐是从何而来?在家养智能规模里,transformer 已经成为深度学习中的文学主导模子,但人们对于它卓越功能的高下实际根基却不断钻研缺少 。
最近,文学来自 Google AI、高下苏黎世联邦理工学院 、文学Google DeepMind 钻研职员的高下新钻研试验为咱们揭开谜底 。在新钻研中,文学他们对于 transformer 妨碍了逆向工程,高下追寻到了一些优化措施 。文学论文《Uncovering mesa-optimization algorithms in Transformers》:
论文链接 :https://arxiv.org/abs/2309.05858
作者证实 ,高下最小化通用自回归损失会发生在 Transformer 的文学前向传递中运行的基于辅助梯度的优化算法。这种天气最近被称为「mesa 优化(mesa-optimization)」。高下此外,钻研职员发现所患上的 mesa 优化算法展现出高下文中的小样本学习能耐,与模子规模无关 。因此,新的服从对于此前狂语言模子中泛起的小样本学习的道理妨碍了填补。
钻研职员以为:Transformers 的乐成基于其在前向传递中实现 mesa 优化算法的架构倾向 :(i) 界说外部学习目的 ,以及 (ii) 对于其妨碍优化 。
。该钻研的贡献搜罗:
演绎综合了 von Oswald 等人的实际,并揭示了从实际上 ,Transformers 是若何经由运用基于梯度的措施优化外部构建的目的来自回归预料序列下一个元素的。
经由试验对于在重大序列建模使命上磨炼的 Transformer 妨碍了逆向工程,并发现强有力的证据表明它们的前向传递实现为了两步算法:(i) 早期自留意力层经由火组以及复制标志构建外部磨炼数据集 ,因此隐式地构建外部磨炼数据集。界说外部目的函数,(ii) 更深条理优化这些目的以天生预料 。
与 LLM 相似,试验表明重大的自回归磨炼模子也可能成为高下文学习者,而赶快调解对于改善 LLM 的高下文学习至关紧张 ,也可能后退特定情景中的展现。
受发现留意力层试图隐式优化外部目的函数的开辟,作者引入了 mesa 层,这是一种新型留意力层,可能实用地处置最小二乘优化下场,而不是仅接管单个梯度步骤来实现最优。试验证实单个 mesa 层在重大的挨次使命上优于深度线性以及 softmax 自留意力 Transformer,同时提供更多的可批注性 。
在开始的语言建模试验后发现 ,用 mesa 层交流尺度的自留意力层取患了有愿望的服从,证明了该层具备强盛的高下文学习能耐 。
基于最近人们的使命表明 ,经由清晰磨炼来处置高下文中的小样本使命的 transformer 可能实现梯度着落(GD)算法。在这里 ,作者揭示了这些服从可能推广到自回归序列建模 —— 这是磨炼 LLM 的典型措施 。
首先合成在重大线性能源学上磨炼的 transformer,其中每一个序列由差距的 W* 天生 - 以防止跨序列影像 。在这个重大的配置中 ,作者揭示了 transformer 建树 mesa 数据集 ,而后运用预处置的 GD 优化 mesa 目的。
该钻研在聚合相邻序列元素的 token 妄想上磨炼深度 transformer 。幽默的是,这种重大的预处置会发生极其浓密的权重矩阵(惟独不到 1% 的权重非零),从而发生逆向工程算法 。
对于单层线性自留意力 ,权重对于应一个 GD 步骤 。对于深度 transformer,可批注性就变患上难题 。该钻研依靠线性探测并魔难潜在激活是否可能预料自回归目的或者预处置输入。
幽默的是 ,两种探测措施的可预料性都市随着收集深度的削减而逐渐后退 。这一发现表明模子中潜在着预处置的 GD 。
该钻研发现,在构建中运用所有逍遥度时 ,可能欠缺地拟合磨炼层,不光搜罗学习的学习率 η ,还搜罗一组学习的初始权重 W_0。紧张的是 ,如图 2 所示 ,学患上的 one-step 算法的功能依然远远优于单个 mesa 层 。
咱们可能留意到,在重大的权重配置下 ,很简略经由根基优化发现,该层可能最优地处置此处钻研的使命。该服从证明了硬编码演绎倾向有利于 mesa 优化的优势。
凭仗对于多层案例的实际见识 ,先合成深度线性以及 softmax 仅留意 Transformer。作者凭证 4 通道妄想配置输入格式,
,这对于应于抉择 W_0 = 0 。
与单层模子同样,作者在磨炼模子的权重中看到清晰了的妄想。作为第一个逆向工程合成,该钻研运用这个妄想并构建一个算法(RevAlg-d,其中 d 展现层数),每一个层头搜罗 16 个参数(而不是 3200 个)。作者发现这种缩短但重大的表白式可能形貌经由磨炼的模子。特意是 ,它应承以简直无损的方式在实际 Transformer 以及 RevAlg-d 权重之间妨碍插值。
尽管 RevAlg-d 表白式讲明了具备大批逍遥参数的经由磨炼的多层 Transformer,但很难将其批注为 mesa 优化算法。因此,作者接管线性回归探测合成(Alain & Bengio,2017;Akyürek et al. ,2023)来追寻假如的 mesa 优化算法的特色。
在图 3 所示的深度线性自留意力 Transformer 上,咱们可能看到两个探针都可能线性解码