“真正认真对待软件的人应该自己制造硬件。”
这句名言常被认为是史蒂夫·乔布斯所说,但最初是计算机科学家阿兰·凯(Alan Kay)所言, 概括了苹果的哲学:硬件和软件的深度集成是提供最佳用户体验的关键。
从外包到开发自己的硅芯片,如A系列和M系列,苹果的芯片设计之旅证明了这一理念。 这始于史蒂夫·乔布斯的愿景,通过在研发上的重大投资、战略收购(如2008年的PA Semi)和与TSMC的紧密合作实现了这一愿景。 通过当时设计自己芯片的正确举措,苹果为其当前的AI战略奠定了基础。 现在,所有人都在关注苹果将如何在AI领域展开行动,他们在库比蒂诺的年度全球开发者大会(WWDC)上回答了这个问题。
AI泄露与苹果的战略
虽然微软和英伟达对发布前的简报进行了保密,但苹果不得不采取不同的策略。 周一要宣布的所有内容在前一天被泄露给彭博社的Mark Gurman。 没人知道这是怎么发生的,但公司决定忽视它,并冷静地宣布了这些旧消息。 苹果从一开始几乎就一直在泄露iPhone,所以谁知道呢,也许这是他们的策略。 然而,他们的公告证明了无缝整合现有硬件和软件生态系统的原始策略。 这就是“苹果智能”公告的来由。
苹果智能与集成的力量(与OpenAI合作)
今天主题演讲中的两个主要内容:苹果的AI系统称为“苹果智能”,以及与OpenAI的合作。 通过等待而不开发自己的类似GPT的对话LLM,苹果至少实现了两件事:观察了几轮GPT的发展并节省了数亿美元的模型训练费用。 现在它可以将现有的、运行良好的模型编织到苹果体验的织物中。 他们介绍了AI驱动的Siri,它将能够处理你苹果设备上的所有事情。 AI功能将包括总结文章、电子邮件和消息,以及自动回复建议。 大受欢迎的是AI创建的自定义表情符号和语音备忘录中的自动转录。 照片应用中的增强照片编辑功能也终于出现了。 对开发者的点头是AI注入的Xcode用于自动代码完成,类似于GitHub Copilot。
苹果的优势在于它对整个堆栈的控制,从芯片到操作系统再到应用程序。 这使得优化和集成的水平是竞争对手难以匹敌的。
苹果AI的重要性
苹果进入AI领域具有重要意义,原因如下:
- 时机:苹果并不是早期进入者,但也不算晚。公司在一个可以从他人错误中学习并专注于提供真正增强用户体验的AI功能的时间点进入了AI领域。
- 硬件提升:AI计算量大,而苹果的最新设备能够很好地处理。这可能会推动一波升级潮,惠及苹果的收益。
- 生态系统锁定:通过将AI集成到其生态系统中,苹果使其设备对用户来说更加不可或缺。这加强了其平台,使用户更难转向竞争对手。
- 隐私关注:苹果在隐私方面有很强的声誉,其AI功能也是以此为设计基础。
前进的道路
虽然WWDC没有带来新硬件,但它提供了苹果AI驱动未来的一瞥。 苹果的时机非常合适,成为AI领域的主要参与者。 随着AI的不断发展,苹果将其与硬件和软件无缝融合的能力可能会为用户体验设定新的标准。 公司押注于在AI方面,整体大于部分之和。如果历史是一个指标,苹果的赌注很可能会成功。
AMD紧跟英伟达
在英伟达提前正式Computex日程发布新芯片的第二天,AMD宣布了MI325X加速器, 将在2024年第四季度推出,并计划在2025年推出MI350系列, 声称AI推理性能比MI300系列提高35倍。 AMD还详细介绍了MI400系列,预计2026年推出。像英伟达一样,AMD现在每年将推出新芯片。
微软:Recall的反响和Aurora的推出
微软因其“Recall”功能而遭到强烈反对,该功能每五秒捕捉一次屏幕截图,带来重大安全风险。 微软转为选择性启用该功能,要求面部识别或指纹ID,并加密搜索数据库。 Recall从一开始就没有被充分考虑。
好消息:
微软刚刚推出了Aurora(1.3B参数),这是第一个大规模的大气基础模型。 它使用先进的3D Swin Transformers和Perceiver编码器, 在预测大气动态、空气污染水平和极端天气事件方面具有显著准确性,比传统模型快约5000倍。
谷歌在软件工程中使用AI
在他们的博客中,详细介绍了他们的AI基础代码补全如何现在辅助50%的代码字符, 显著提高开发者生产力。 最近的更新包括AI解决超过8%的代码审查评论,并适应粘贴代码的上下文。 未来目标是扩展AI应用到测试、代码理解和维护。
误信息比预期更容易管理
误信息一直是AI讨论的主要话题之一。 AI从业者如Oren Etzioni创办公司(查看我们的采访)以防止有害的误信息。 尽管它仍然是一个问题,但Ceren Budak等人的一篇论文表明,误信息是一个比之前想象的更容易管理的问题。
Sam Altman的网络
在其他新闻通讯中
- Sebastian Raschka视频概述了开发LLM的三个阶段:构建、训练和微调。
- Madrona的AI代理基础设施的崛起 。
- Brilliant Max Read对Leopold Aschenbrenner的见解:一个新的AI影响者正在制作一些最具有犯罪性质的图表。
- Stratechery对AMD首席执行官Lisa Su的采访。
最新研究论文,按你的方便分类
我们的顶级:
-
“我们的想法是,就像我们建立了基础模型来帮助我们更好地分类和生成人类语言,我们也可能寻求对动物做同样的事情。” ——来自马克斯·普朗克动物行为研究所的研究人员及其合作伙伴介绍了
animal2vec
和MeerKAT
: 稀有事件原始音频输入的自监督变压器以及生物声学的大规模参考数据集。animal2vec
,一个自监督的变压器模型,通过从原始音频波形中学习,解决了稀疏和不平衡生物声学数据的分析挑战。 MeerKAT数据集,是最大公开可用的非人类陆生哺乳动物标记数据集,包含超过1068
小时的音频,其中184
小时带有详细的发声标签。 是不是很不可思议?我告诉我的狗,我很快就能理解他的语言,他翻了个白眼。 -
OpenAI的研究人员介绍了“稀疏自编码器的扩展和评估”论文,提出了一种解释和提取GPT-4概念的方法。 使用可扩展技术,他们将其内部表示分解为1600万个模式。 尽管在捕捉大型模型的完整行为方面存在挑战,他们的稀疏自编码器识别出人类可解释的特征。 此研究旨在增强模型的可信度和可引导性。OpenAI开源了他们的发现,包括论文、代码和可视化。
-
在“开放性是人工超级智能的必要条件”一文中,谷歌DeepMind的研究人员认为, 实现人工超级智能(ASI)需要开放性AI系统——那些能够持续自我改进和发现的系统。 他们基于新颖性和可学习性提供了开放性的正式定义。 论文展示了结合基础模型和开放系统的潜力,创造出与人类相关的发现,并强调了开发此类AI的安全隐患。
强化学习与代理开发
-
商业格斗游戏中DRL代理的进展:训练、集成和代理-人类对齐——探讨了在商业游戏中开发和部署DRL代理系统, 使用异构联盟训练在能力和效率之间取得平衡,使代理行为与人类期望对齐。 阅读论文
-
人工生成智能:强化学习中的文化积累——探讨了RL代理如何通过跨世代积累文化,通过情景学习和权重学习提高能力, 灵感来源于人类文化演化。 阅读论文
-
自我改进的稳健偏好优化——引入了一个离线RLHF框架,通过最大最小目标优化,将学习视为自我改进过程,增强与人类偏好的对齐。 阅读论文
-
AGENTGYM:在 多样化环境中进化LLM代理——提出了一个训练LLM代理处理多样化任务的框架,结合行为克隆和新颖的进化方法, 达到与最先进模型相当的性能。 阅读论文
语言模型与自然语言处理
- MMLU-Pro:更稳健且具有挑战性的多任务语言理解基准——提出了一个增强的基准,通过更难的问题评估LLM, 展示了模型准确性的显著下降,突显了其区分模型能力的有效性。 阅读论文
- 展示,不要告诉:通过示范反馈对齐语言模型——介绍了示范迭代任务优化方法,通过较少的示例对齐LLM与用户偏好,显著优于其他方法。 阅读论文
- 相信还是不相信你的LLM——探讨了LLM的不确定性量化,开发了一种信息论度量方法来检测高认知不确定性,识别不可靠的响应和幻觉。 阅读论文
- 思维缓冲:增强大语言模型的推理能力——提出了一个增强LLM推理能力的框架,使用元缓冲存储高级思维模板, 在多样任务中显著提升性能。 阅读论文
- PLaD:基于偏好的大语言模型蒸馏与伪偏好对——提出了一个框架,通过偏好数据蒸馏LLM, 利用质量差异进行排名损失,提升模型性能和生成质量。 阅读论文
- 用于对话推荐的项目-语言模型——结合文本对齐的项目编码器和冻结的LLM,整合用户交互信号,提升推荐性能并保持语言和推理能力。 阅读论文
模型可扩展性与效率
- 我们会耗尽数据吗?基于人类生成数据的LLM扩展限制——分析了由于有限的人类生成文本数据对LLM扩展的限制, 建议使用合成数据、迁移学习和提高数据效率来维持进展。 阅读论文
- µLO:计算高效的学习优化器元泛化——开发了一种方法,通过最大更新参数化来提高学习优化器的泛化能力, 实现优化器超参数的零样本泛化。 阅读论文
- 块变压器:用于快速推理的全局到局部语言建模——提出了一种架构,通过分离全局和局部上下文建模优化推理速度, 显著减少键值缓存检索需求并提高吞吐量。 阅读论文
- 奖励模型过优化的扩展定律在直接对齐算法中的应用——分析了DAAs在训练LLM中的奖励过优化问题, 提出了解决高KL散度预算下性能下降的方案。 阅读论文