目录
AI Weekly-2024年7月16日
最新的研究论文,按类别方便您查阅
我们的推荐:
- FlashAttention-3阅读论文
这是AI效率领域的最新且非常重要的突破,提供了2-4倍的加速,同时保持了准确性。
由Colfax、Meta、NVIDIA、乔治亚理工学院、普林斯顿大学和Together AI的研究人员开发, 利用异步张量核和FP8低精度支持来提高GPU利用率。
该改进使得长上下文处理更加高效,并优化了现代GPU上的性能,为新应用和更高效的基于Transformer的AI系统铺平了道路。
与Agents相关
-
Internet of Agents:提出了一个协作框架,集成了多种自主代理,以克服多代理系统的限制,增强智能和互动→ 阅读论文
-
AgentInstruct:开发了一种自主生成合成数据以教授语言模型新技能的代理框架,显著提高了模型性能→ 阅读论文
-
GTA:引入了一个基准,用于评估语言模型代理在现实场景中的表现,突显现有模型在工具使用能力方面的局限性→ 阅读论文
重要的VLM
- Mobility VLA:结合视觉语言模型和拓扑图,有效实现复杂环境中的多模态指令导航→ 阅读论文
- MambaVision:开发了一种混合架构,将Transformer自注意力机制集成到Mamba模型中,提高了各种视觉任务的性能→ 阅读论文
- PaliGemma:结合了视觉编码器和语言模型,有效地跨多种视觉语言任务传递知识→ 阅读论文
- Vision Language Models are Blind:揭示了视觉语言模型在基本视觉任务中的显著感知局限性,突显其视觉处理能力的差距→ 阅读论文
- MJ-BENCH:引入了一个基准,用于评估文本到图像生成中的多模态判定器,评估其在各种标准(包括安全性和偏见)上的表现→ 阅读论文
语言模型基础设施和优化
- Unified Database:集成了向量和标量索引,以增强大型语言模型的查询性能→ 阅读论文
- H2O-Danube3技术报告:介绍了为移动设备优化的小型LLM,突出了其高效操作和可访问性→ 阅读论文
- SPREADSHEETLLM:通过先进的序列化和压缩技术增强LLM处理复杂电子表格数据的能力→ 阅读论文
- Q-GaLore:结合量化和自适应低秩投影,在LLM训练期间减少内存使用→ 阅读论文
- 大语言模型在CPU上的推理性能优化:使用SlimAttention和INT8 KV缓存方法优化LLM在CPU上的推理性能→ 阅读论文