当前位置:首页 >焦点 >Meta 发布 Megabyte AI 模型抗衡 Transformer:解决后者已知问题、速度提升四成 并且在速度上提升了 40%

Meta 发布 Megabyte AI 模型抗衡 Transformer:解决后者已知问题、速度提升四成 并且在速度上提升了 40%

2024-06-28 16:02:09 [百科] 来源:避面尹邢网

Meta 发布 Megabyte AI 模型抗衡 Transformer:解决后者已知问题、发布速度提升四成

作者:漾仔 人工智能 新闻 Meta 团队开发了一款名为 Megabyte 的模型 AI 模型以抗衡 Transformer,据称 Megabyte 解决了 Transformer 模型所面临的抗衡问题,并且在速度上提升了 40%。解决后

5 月 30 日消息,已知问近日 Meta 团队开发了一款名为 Megabyte 的题速 AI 模型以抗衡 Transformer,据称 Megabyte 解决了 Transformer 模型所面临的度提问题,并且在速度上提升了 40%。升成

Meta 发布 Megabyte AI 模型抗衡 Transformer:解决后者已知问题、速度提升四成 并且在速度上提升了 40%

Meta 发布 Megabyte AI 模型抗衡 Transformer:解决后者已知问题、速度提升四成 并且在速度上提升了 40%

▲ 图源 Arxiv

Meta 发布 Megabyte AI 模型抗衡 Transformer:解决后者已知问题、速度提升四成 并且在速度上提升了 40%

目前 Transformer 在自然语言处理等领域非常流行,发布但由于其序列数据的模型处理方式是逐步进行的,无法并行化处理,抗衡因此训练速度较慢; 难以处理长序列,解决后因为其在反向传播过程中,已知问梯度很容易消失或爆炸;此外,题速由于需要在每一步保留历史信息,度提内存消耗较大。

而 Megabyte 模型将输入和输出序列划分为 patch,而不是单个的 token。这种架构使得对大多数任务而言字节级别的预测相对容易,例如根据前几个字符预测完成的单词等。这意味着在大型网络中可以精简字符以提升效率,并且内部预测可以使用更小的模型进行。Megabyte 模型的这种方法解决了当今 AI 模型所面临的训练速度、可靠性及硬件占用比挑战。

▲ 图源 Arxiv

此外,在计算效率方面,相比于等大的 Transformer 和 Linear Transformer,Megabyte 模型在固定模型大小和序列长度范围内使用更少的 token。因此相对于 Transformer,Megabyte 模型可以在相同的计算成本下训练内容更丰富、体积更大、性能更好的模型。

目前 Meta 团队放出了 Megabyte 模型的论文,小伙伴可以前往查阅。


责任编辑:庞桂玉 来源: IT之家 MetaAI 模型

(责任编辑:娱乐)

    推荐文章
    热点阅读