默认冷灰
24号文字
方正启体

第267章 饥不择食的META (3 / 13)

作者:鸦的碎碎念 最后更新:2025/9/13 17:34:33
        “包括我在2020年的另外一篇工作,其实和LLM的核心,也就是多层注意力有着类似的核心逻辑”

        尼兰詹自然不是水货,他在人工智能领域确实浸淫多年,有不错的成果,手上有好几篇顶会文章,都和LLM有关。

        那还是2020年,当时大模型还名不见经传呢,在人工智能领域属于边缘化的方向。

        扎克伯格是花了很多冤枉钱,把脸书改名META错误估计了元宇宙的到来时间,但不代表他没脑子,单纯因为尼兰詹是林燃的教授,就找他来。

        尼兰詹自己真有几把刷子,也是很重要的原因。

        大模型里的关键工作,包括自注意力机制、多头注意力、位置编码这些,尼兰詹都有深入的研究,毕竟他研究的重要方向之一就是NLP。

        扎克伯格欣喜过望,觉得自己找对人了。

        “巴拉苏布拉马尼安教授,在训练LLM中,你是如何处理过拟合或者欠拟合问题呢?”

        “大规模训练,预训练涉及在海量无标签数据上学习通用表示,我们可以通过掩码语言建模或下一句预测;另外微调在特定任务数据集上调整权重,实现迁移学习。

        针对过拟合,我认为使用正则化和dropout,比如说在BERT变体中dropout率0.1,并应用早停机制;欠拟合时,增加模型深度或数据增强。

        在之前的项目中,我通过梯度裁剪处理训练不稳定,在GLUE基准上将过拟合率从15%降至5%,这能帮助大模型训练在多任务适应中更高效。”尼兰詹成竹在胸。

        内容未完,下一页继续阅读
(←快捷键) <<上一章 举报纠错 回目录 回封面 下一章>> (快捷键→)

大家都在看?