谷歌研究院发布一项新的研究Titans。通过引入全新的神经长期记忆模块,三头协同架构与硬件优化设计等模块,在算力仅增加1.8倍的情况下,将大模型的上下文窗口扩展至200万token。Titans不仅解决了Transformer模型在长上下文处理中的算力瓶颈,更通过仿生学设计模拟人类记忆系统的分层机制,首次实现了200万token超长上下文的精准推理。
扫码关注二维码
2025-05-21 12:00
2025-05-19 11:35
2025-05-21 21:00
2025-05-19 18:41
2025-05-19 11:23
2025-05-20 11:27
扫码加入社群
扫一扫
关注亿恩公众号