这是一份面向 AI、自动驾驶和科技产业的 Lex Fridman Podcast 听单。排序不是按嘉宾名气,而是按信息密度和覆盖面:先抓 AI 产业、算力、模型公司和编程范式,再补自动驾驶、机器人、芯片、强化学习和互联网平台。每一期都保留官方 Episode 链接,并单独总结“这期解决什么问题、重点听哪里、适合和哪几期一起听”。

如果时间有限,最建议先听这 10 期:Jensen Huang、Sam Altman、Dario Amodei、Demis Hassabis、DeepSeek/Dylan Patel & Nathan Lambert、Andrej Karpathy、Cursor Team、Chris Lattner、George Hotz、Jim Keller。它们能最快覆盖当下 AI 的几个主轴:算力供给、模型公司战略、开源与闭源竞争、AI 编程、自动驾驶和底层工程。

总览

排名嘉宾 / 主题官方 Episode分类
1Jensen Huang#494 – Jensen Huang: NVIDIA – The $4 Trillion Company & the AI RevolutionAI 算力 / NVIDIA / 数据中心
2Sam Altman#419 – Sam Altman: OpenAI, GPT-5, Sora, Board Saga, Elon Musk, Ilya, Power & AGIOpenAI / AGI / 产品战略
3Dario Amodei#452 – Dario Amodei: Anthropic CEO on Claude, AGI & the Future of AI & HumanityAnthropic / Claude / AI 安全
4Demis Hassabis#475 – Demis Hassabis: Future of AI, Simulating Reality, Physics and Video GamesDeepMind / AGI / 世界模型
5Dylan Patel & Nathan Lambert#459 – DeepSeek, China, OpenAI, NVIDIA, xAI, TSMC, Stargate, and AI MegaclustersAI 产业链 / 算力 / DeepSeek
6Andrej Karpathy#333 – Andrej Karpathy: Tesla AI, Self-Driving, Optimus, Aliens, and AGI自动驾驶 / Tesla AI / 机器人
7Cursor Team#447 – Cursor Team: Future of Programming with AIAI 编程 / IDE / 软件工程
8Chris Lattner#381 – Chris Lattner: Future of Programming and AI编程语言 / 编译器 / AI 工程
9Yann LeCun#416 – Yann Lecun: Meta AI, Open Source, Limits of LLMs, AGI & the Future of AIMeta AI / 开源 / LLM 局限
10George Hotz#387 – George Hotz: Tiny Corp, Twitter, AI Safety, Self-Driving, GPT, AGI & God开源 AI / 自动驾驶 / 黑客视角
11Aravind Srinivas#434 – Aravind Srinivas: Perplexity CEO on Future of AI, Search & the InternetAI 搜索 / RAG / 互联网入口
12Elon Musk & Neuralink Team#438 – Elon Musk: Neuralink and the Future of Humanity脑机接口 / Neuralink / 人机融合
13Marc Raibert#412 – Marc Raibert: Boston Dynamics and the Future of Robotics机器人 / Boston Dynamics
14Jim Keller#162 – Jim Keller: The Future of Computing, AI, Life, and Consciousness芯片 / 计算架构 / AI 硬件
15John Carmack#309 – John Carmack: Doom, Quake, VR, AGI, Programming, Video Games, and Rockets极致工程 / 编程 / AGI
16Ilya Sutskever#94 – Ilya Sutskever: Deep Learning深度学习 / OpenAI
17Andrew Ng#73 – Andrew Ng: Deep Learning, Education, and Real-World AIAI 教育 / 落地应用
18Francois Chollet#120 – Francois Chollet: Measures of Intelligence智能度量 / Keras / AGI 反思
19David Silver#86 – David Silver: AlphaGo, AlphaZero, and Deep Reinforcement Learning强化学习 / AlphaGo / DeepMind
20Chris UrmsonChris Urmson: Self-Driving Cars at Aurora, Google, CMU, and DARPA自动驾驶 / Aurora / Google
21Elon MuskElon Musk: Tesla AutopilotTesla Autopilot / 自动驾驶
22Kyle VogtKyle Vogt: Cruise AutomationRobotaxi / Cruise / 自动驾驶
23Mark Zuckerberg#383 – Mark Zuckerberg: Future of AI at Meta, Facebook, Instagram, and WhatsAppMeta AI / 开源模型 / 社交产品
24Sundar Pichai#471 – Sundar Pichai: CEO of Google and AlphabetGoogle / Gemini / 搜索与平台
25Stephen Wolfram#376 – Stephen Wolfram: ChatGPT and the Nature of Truth, Reality & ComputationChatGPT / 计算理论 / 知识表达
ADHH#474 – DHH: Future of Programming, AI, Ruby on Rails, Productivity & ParentingAI 编程 / 软件工程
AThePrimeagen#461 – ThePrimeagen: Programming, AI, ADHD, Productivity, Addiction, and God程序员工作流 / AI 工具
AMarc Andreessen#386 – Marc Andreessen: Future of the Internet, Technology, and AI科技投资 / 互联网 / AI
ARobert Playter#374 – Robert Playter: Boston Dynamics CEO on Humanoid and Legged Robotics人形机器人 / 足式机器人
AJim KellerJim Keller: Moore’s Law, Microprocessors, Abstractions, and First Principles微处理器 / 摩尔定律 / 第一性原理

听法框架

这 30 期可以按四条线听,而不是从 1 到 30 硬听:

线索推荐顺序解决的问题
AI 产业与算力Jensen Huang → DeepSeek/Dylan Patel & Nathan Lambert → Jim Keller谁控制算力、供应链、芯片和数据中心,模型能力为什么受物理世界约束
模型公司与 AGI 路线Sam Altman → Dario Amodei → Demis Hassabis → Yann LeCun → Mark Zuckerberg → Sundar PichaiOpenAI、Anthropic、DeepMind、Meta、Google 对 AGI、开源、安全和产品入口的分歧
AI 编程与工程生产力Cursor Team → Chris Lattner → DHH → ThePrimeagen → John CarmackAI 如何改变 IDE、编译器、语言、团队和个人编程工作流
自动驾驶与机器人Andrej Karpathy → Elon Musk → Chris Urmson → Kyle Vogt → Marc Raibert → Robert Playter端到端学习、车队数据、robotaxi、腿足机器人和真实世界部署的差异

1. Jensen Huang

官方 Episode:#494 – Jensen Huang: NVIDIA – The $4 Trillion Company & the AI Revolution

扩展笔记:Jensen Huang 访谈笔记:NVIDIA、AI 工厂与算力革命

这期适合放在第一位,因为它把 AI 产业最底层的约束讲清楚:rack-scale engineering、供应链、HBM、功耗、数据中心和 TSMC。Jensen Huang 讨论的不只是 GPU,而是从芯片、机柜、网络到软件生态的一整套 co-design。

这期的价值在于理解 NVIDIA 为什么不只是卖芯片。AI scaling laws 最终会落到供电、内存、制造能力、系统集成和客户部署速度上;这些约束决定了模型公司能多快扩张,也决定了 AI 数据中心为什么变成国家级基础设施。

重点听三件事:第一,rack-scale engineering 说明 AI 计算已经从单卡性能竞争变成整柜、整集群、整数据中心的系统工程;第二,memory、power、supply chain 是 scaling law 的硬边界;第三,NVIDIA 的护城河来自 CUDA、网络、系统集成、客户关系和供应链协同,而不是某一代 GPU 的单点优势。

这期应该和 DeepSeek/Dylan Patel & Nathan Lambert、Jim Keller 一起听。前者补产业链和地缘竞争,后者补处理器和计算抽象的底层逻辑。

2. Sam Altman

官方 Episode:#419 – Sam Altman: OpenAI, GPT-5, Sora, Board Saga, Elon Musk, Ilya, Power & AGI

扩展笔记:Sam Altman 访谈笔记:OpenAI、Sora、GPT-5 与 AGI 权力结构

这期是理解 OpenAI 战略和治理问题的核心材料。话题覆盖 OpenAI board saga、Ilya、Elon Musk lawsuit、Sora、GPT-5、memory、privacy、compute 和 AGI,是模型公司从研究实验室走向平台公司的一个切面。

它最值得听的不是某个产品预测,而是 Sam Altman 对规模、资本、组织和权力的处理方式。OpenAI 的挑战已经不只是训练更强模型,还包括算力融资、产品节奏、治理信任和社会影响。

重点听 OpenAI 如何同时处理三组矛盾:研究速度和安全治理、产品发布和长期 AGI 目标、闭源商业化和社会信任。Sora、GPT-5、memory、privacy 这些话题放在一起看,会发现 OpenAI 的产品路线不是孤立功能,而是在尝试把模型能力变成长期用户关系和平台入口。

这期适合和 Dario Amodei 对照。Sam Altman 更强调规模、资本和平台执行,Dario Amodei 更强调安全等级、模型性格和可控性。

3. Dario Amodei

官方 Episode:#452 – Dario Amodei: Anthropic CEO on Claude, AGI & the Future of AI & Humanity

扩展笔记:Dario Amodei 访谈笔记:Anthropic、Claude、Scaling 与 AI Safety

这期适合和 Sam Altman 对照听。Dario Amodei 的重点更偏向 scaling laws、安全等级、post-training、Constitutional AI、Claude 的产品性格,以及 Anthropic 对监管和 AGI 时间线的判断。

后半段还加入 Amanda Askell 和 Chris Olah,分别展开 Claude 的行为塑造与 mechanistic interpretability。它能帮助理解 Anthropic 为什么把“模型能力”和“模型可控性”绑定成同一件事。

重点听 Anthropic 的三层框架:能力层是 scaling laws 和 post-training,行为层是 Claude 的 character、system prompt 和 Constitutional AI,风险层是 ASL-3/ASL-4 这类安全等级。Anthropic 的路线不是简单“更保守”,而是把模型部署看成分级风险管理问题。

这期也适合和 Yann LeCun 放在一起听。Dario 仍然承认 scaling 的中心地位,Yann 则更强调 LLM 路线本身的局限。

4. Demis Hassabis

官方 Episode:#475 – Demis Hassabis: Future of AI, Simulating Reality, Physics and Video Games

扩展笔记:Demis Hassabis 访谈笔记:DeepMind、世界模型、科学发现与 AGI

Demis Hassabis 这一期更像 DeepMind 世界观的浓缩版:从自然界可学习模式、Veo、AlphaEvolve、生命起源、AGI 路径,到模拟现实和科学发现。它不是单纯聊 Gemini,而是在讨论 AI 如何成为探索自然规律的工具。

如果说 OpenAI 的叙事更接近产品和通用智能,DeepMind 的叙事更接近科学、搜索、强化学习和世界模型。这期适合用来理解“AI for science”为什么会成为下一阶段的重要方向。

重点听 DeepMind 对“智能”的定义更偏向问题求解和科学发现:AlphaGo/AlphaZero 是搜索和强化学习,AlphaFold 是科学结构预测,Veo 和世界模型则指向模拟现实。Demis 的 AGI 路线里,游戏、物理、生命科学不是边角话题,而是训练和验证通用智能的重要环境。

这期和 David Silver 是一组。Demis 给 DeepMind 的整体方向,David Silver 给强化学习和 self-play 的核心机制。

5. Dylan Patel & Nathan Lambert

官方 Episode:#459 – DeepSeek, China, OpenAI, NVIDIA, xAI, TSMC, Stargate, and AI Megaclusters

扩展笔记:DeepSeek 访谈笔记:R1、开源模型、GPU、TSMC 与 AI Megaclusters

这是一期高密度产业分析。Dylan Patel 从半导体、GPU 集群、出口管制、TSMC、NVIDIA 和 megacluster 角度解释 AI 竞争;Nathan Lambert 则补上模型训练、RL、开源和 DeepSeek 的技术侧理解。

这期很适合建立“模型能力不是孤立出现的”这个框架。DeepSeek 的成本争议、训练数据、GPU 使用、审查、开源策略和中美竞争,都要放在算力、供应链和人才流动里看。

重点听四个问题:DeepSeek 的低成本到底指训练成本、推理成本还是总研发成本;中国在 GPU 受限情况下如何组织算力和工程人才;TSMC、NVIDIA、出口管制和 GPU smuggling 如何影响竞争节奏;开源模型会不会改变模型公司的商业护城河。

这期是整份听单里最适合做产业地图的一期。听完再回头听 Jensen Huang,会更容易理解为什么 AI 公司说的是模型,真正卡住的是电力、封装、内存、网络和数据中心建设周期。

6. Andrej Karpathy

官方 Episode:#333 – Andrej Karpathy: Tesla AI, Self-Driving, Optimus, Aliens, and AGI

扩展笔记:Andrej Karpathy 访谈笔记:Tesla AI、自动驾驶、Software 2.0 与 AGI

Andrej Karpathy 这期横跨神经网络、Transformer、语言模型、Software 2.0、Tesla Vision、Data Engine、自动驾驶和 Optimus。它适合用来理解深度学习工程师如何把模型能力落到真实系统里。

自动驾驶部分尤其重要。Karpathy 把 perception、数据闭环、人类标注、视觉方案和系统迭代放在一起讲,能看出 Tesla AI 的核心并不是某个单点模型,而是持续收集、筛选、训练和部署数据的工程机器。

重点听 Software 2.0、Data Engine 和 Tesla Vision 之间的关系。自动驾驶不是写规则,也不是只训练一个网络,而是用真实车队不断发现失败案例、标注数据、训练模型、上线验证,再把新的失败案例放回数据闭环。

这期是自动驾驶线的核心。Elon Musk 给战略假设,Chris Urmson 给传统自动驾驶工程和安全路线,Kyle Vogt 给 robotaxi 运营路线,Karpathy 则把深度学习系统如何实际迭代讲清楚。

7. Cursor Team

官方 Episode:#447 – Cursor Team: Future of Programming with AI

扩展笔记:Cursor Team 访谈笔记:AI IDE、代码编辑、Agent 与未来编程

这期是理解 AI 编程工具最直接的一期。Cursor 团队讨论 code editor、Copilot、Cursor Tab、diff、上下文、prompt engineering、agent、后台运行代码、debugging 和模型选择。

它的重点不是“AI 会不会取代程序员”,而是编程交互界面正在改变:补全、编辑、生成、运行和调试逐渐合并成一个闭环。未来 IDE 的竞争,很大一部分会变成上下文组织能力和执行反馈能力的竞争。

重点听 Cursor 如何把模型能力变成产品体验:Tab 补全解决低摩擦编辑,diff 解决可控修改,context 解决模型不知道代码库的问题,agent 和后台运行代码则把 IDE 从文本编辑器推向执行环境。

这期和 Chris Lattner 互补。Cursor 讲开发者界面,Lattner 讲语言、编译器和 runtime。前者改变人怎么写代码,后者改变代码怎么跑得快。

8. Chris Lattner

官方 Episode:#381 – Chris Lattner: Future of Programming and AI

扩展笔记:Chris Lattner 访谈笔记:Mojo、编译器、AI Runtime 与未来编程

Chris Lattner 从 LLVM、Swift、MLIR、TPU、Mojo 和 Modular 的经验出发,讨论编程语言、编译器、类型系统、autotuning、分布式部署和 AI runtime。它适合理解 AI 工程为什么离不开编译器和系统软件。

这期和 Cursor Team 是互补关系。Cursor 代表开发界面变革,Lattner 代表底层执行栈变革:当 AI 工作负载越来越复杂,语言、编译器、runtime 和硬件之间的边界会重新被设计。

重点听 Mojo、autotuning、distributed deployment 和 Python 生态之间的张力。AI 工程一边需要 Python 的易用性,一边需要接近硬件的性能;Lattner 的路线是在语言和编译器层面重新打通这两端。

如果你关心 AI infra,这期比单纯的模型访谈更重要。因为模型能力最终要落到 kernel、memory layout、编译优化、分布式执行和硬件后端。

9. Yann LeCun

官方 Episode:#416 – Yann Lecun: Meta AI, Open Source, Limits of LLMs, AGI & the Future of AI

扩展笔记:Yann LeCun 访谈笔记:LLM 局限、JEPA、开源与 AGI 路线之争

Yann LeCun 这期适合作为 LLM 热潮中的反方校准。他重点谈 LLM 的局限、JEPA、video prediction、hierarchical planning、reasoning、hallucination、open source 和 Llama。

这期最有价值的是提供另一种 AGI 路线判断:不是把 autoregressive LLM 视为终点,而是强调世界模型、规划、抽象表征和非语言学习。无论是否同意他的判断,这期都能避免只从 scaling 角度理解 AI。

重点听 JEPA 和 LLM 的对比。LeCun 认为智能系统需要能预测世界状态、形成抽象表征并做层级规划,而不是只在 token 序列上做自回归预测。这个观点可以用来反问所有模型公司:当前 LLM 的推理到底是语言拟合,还是具备世界理解。

这期和 Demis Hassabis、Francois Chollet 是一组。三者都不满足于只用 benchmark 衡量智能,但各自的路径不同:DeepMind 强调科学和搜索,Chollet 强调泛化效率,LeCun 强调世界模型。

10. George Hotz

官方 Episode:#387 – George Hotz: Tiny Corp, Twitter, AI Safety, Self-Driving, GPT, AGI & God

扩展笔记:George Hotz 访谈笔记:tiny corp、开源硬件、自动驾驶与黑客式 AI

George Hotz 这期有很强的 hacker 视角。话题包括 tiny corp、NVIDIA vs AMD、tinybox、self-driving、programming、AI safety、Twitter、prompt engineering 和游戏。

它适合和 Jensen Huang、DeepSeek 那几期放在一起听:一个讲产业级供应链,一个讲地缘和集群,一个讲从个人工程师与开源硬件角度挑战既有栈。Hotz 的价值在于把“能不能自己做出来”这个问题问得很直接。

重点听 tinybox 和 NVIDIA vs AMD。Hotz 关心的是能不能把 AI 训练和推理从单一供应商生态里解放出来,这和 CUDA 护城河、开源驱动、硬件可获得性直接相关。自动驾驶部分则能看到 comma.ai 与 Tesla/Cruise 不同的工程取舍。

这期不适合当成稳定结论听,更适合当成工程直觉训练:当大家都默认某个栈不可替代时,Hotz 会追问底层到底卡在哪里。

11. Aravind Srinivas

官方 Episode:#434 – Aravind Srinivas: Perplexity CEO on Future of AI, Search & the Internet

扩展笔记:Aravind Srinivas 访谈笔记:Perplexity、AI 搜索与互联网入口

Aravind Srinivas 这期围绕 Perplexity、Google Search、RAG、搜索入口、startup 策略和未来互联网展开。它适合理解 AI 原生搜索为什么不是简单的“搜索框加聊天框”。

这期的核心问题是入口权力会不会变化。传统搜索依赖索引、排序和广告系统;AI 搜索要处理答案生成、引用可信度、实时信息、用户意图和商业模式之间的张力。

重点听 Perplexity 如何把 RAG 做成产品,而不是把它当成论文概念。真正难的是如何选择来源、如何让答案可追溯、如何处理实时网页、如何与 Google 的默认入口竞争。Aravind 还多次谈到 Larry Page、Jeff Bezos、Jensen Huang、Mark Zuckerberg 和 Yann LeCun,这让这期不只是搜索产品访谈,也是一堂创业者如何学习行业巨头的课。

这期适合和 Sundar Pichai 对照。一个从创业公司挑战搜索入口,一个从 Google 内部解释搜索如何被 AI 改造。

官方 Episode:#438 – Elon Musk: Neuralink and the Future of Humanity

扩展笔记:Elon Musk 与 Neuralink 团队访谈笔记:脑机接口、人机融合与真实用户

这期前半段是 Elon Musk 对 Neuralink、xAI、Optimus、问题求解和人机融合的判断,后半段由 Neuralink 团队解释脑机接口的工程细节。它覆盖 Telepathy、神经接口历史、生物物理、安全、升级和未来能力。

这期适合从“AI 之外的人机接口”角度补齐技术图景。AI 提升机器能力,BCI 则尝试提升人和机器之间的带宽,两者最终会在交互方式上相遇。

重点听两层内容。第一层是 Elon 对“人如何与 AI 共存”的判断:如果 AI 能力持续上升,人机输入输出带宽会成为瓶颈。第二层是 Neuralink 团队讲的工程问题:电极、植入、线程回缩、安全、升级、软件解码和用户训练。Noland Arbaugh 的参与也让这期不只是愿景,而是包含真实用户体验。

它应该和 Marc Raibert、Robert Playter 一起听。三期都在讨论 AI 进入物理身体或人类身体之后,工程难度如何从软件扩展到材料、手术、机械和安全。

13. Marc Raibert

官方 Episode:#412 – Marc Raibert: Boston Dynamics and the Future of Robotics

扩展笔记:Marc Raibert 访谈笔记:Boston Dynamics、腿足机器人与运动智能

Marc Raibert 这期是理解 Boston Dynamics 精神的好入口。内容从早期机器人、legged robots、BigDog、液压驱动、自然运动、Leg Lab 到 AI Institute 和 athletic intelligence。

它强调机器人不是“把模型塞进身体”这么简单。稳定行走、动态平衡、机械设计、控制、团队文化和真实世界测试缺一不可;这也是机器人进展看起来慢,但每一步都很难的原因。

重点听 athletic intelligence 这个概念。Raibert 关心的不是机器人会不会聊天,而是它能否在真实世界里保持平衡、适应地形、恢复动作并表现出类似运动员的身体智能。Boston Dynamics 的很多 demo 看起来像表演,本质上是在展示控制、机械和感知的闭环能力。

这期和 Robert Playter 互补。Raibert 更像研究和创始人视角,Playter 更像公司和产品化视角。

14. Jim Keller

官方 Episode:#162 – Jim Keller: The Future of Computing, AI, Life, and Consciousness

扩展笔记:Jim Keller 访谈笔记:处理器、AI 硬件、Dojo 与计算第一性原理

Jim Keller 这期把处理器设计、RISC/CISC、模块化设计、Moore’s Law、深度学习硬件、GPU、Tesla Autopilot、Dojo 和神经网络加速放在同一条线上。它适合用来理解 AI 硬件不是单独的芯片问题,而是计算抽象问题。

Keller 的表达方式很适合工程师:先抓第一性原理,再看哪些复杂性是历史包袱,哪些复杂性是真约束。这期能帮助把“算力”从一个口号还原成架构、带宽、缓存、互联和编程模型。

重点听模块化设计和 deep learning hardware。Keller 会把复杂处理器拆成可以推理的层次:指令集、微架构、缓存、互联、制造、编译器和软件栈。对 AI 来说,关键问题不是“GPU 是否足够快”,而是数据移动、矩阵计算、内存带宽和软件抽象如何共同决定吞吐。

这期适合放在 Jensen Huang 之后。Jensen 给数据中心级别的系统视角,Keller 给处理器和计算抽象视角。

15. John Carmack

官方 Episode:#309 – John Carmack: Doom, Quake, VR, AGI, Programming, Video Games, and Rockets

John Carmack 这期很长,但信息密度高。它从编程语言、现代编程、工作方式、id Software、Doom、Quake、VR、火箭、核能一路谈到 AGI。

这期最值得听的是工程判断。Carmack 一直强调可测量进展、直接面对系统复杂性和避免空泛抽象。对于做 AI 工具、系统或产品的人,这种工程审美比具体技术栈更有长期价值。

重点听他的工作方式和 AGI 部分。Carmack 的核心方法是把模糊目标拆成能快速验证的实验,并用代码、性能和可观察结果压低讨论噪声。Doom、Quake 和 VR 的历史也说明,真正的技术突破通常来自在硬件限制下做极端优化。

这期适合和 ThePrimeagen、DHH 一起听。三者都关心编程,但 Carmack 更接近极致个人工程能力,DHH 更偏框架和组织,ThePrimeagen 更偏日常工作流和性能直觉。

16. Ilya Sutskever

官方 Episode:#94 – Ilya Sutskever: Deep Learning

扩展笔记:Ilya Sutskever 访谈笔记:深度学习、GPT-2、推理与 AGI 信念

Ilya Sutskever 这期是早期深度学习路线的经典材料。话题包括 AlexNet、cost functions、RNN、deep double descent、backpropagation、reasoning、long-term memory、language models、GPT-2 和 staged release。

它适合回看 OpenAI 早期研究气质:对深度学习可扩展性的信念非常强,同时又已经开始意识到模型发布、安全和社会影响的问题。放在今天听,很多判断仍然能解释后来的发展路径。

重点听 Ilya 对“深度学习被低估”的判断。很多后来被证明重要的问题,在这期里已经出现:语言和视觉哪个更难、神经网络能否推理、长期记忆如何形成、GPT-2 的能力和发布策略。它不是最新产业访谈,但能帮助理解大模型路线为什么会从早期怀疑走到今天。

这期适合放在 Sam Altman 之前或之后听。一个是研究信念,一个是公司化之后的战略和治理。

17. Andrew Ng

官方 Episode:#73 – Andrew Ng: Deep Learning, Education, and Real-World AI

Andrew Ng 这期更偏教育和落地。内容包括在线教育早期、Google Brain、deeplearning.ai、unsupervised learning、AI career、是否读 PhD、AI Fund、Landing AI 和 AGI。

这期适合想进入 AI 或做企业 AI 落地的人。Ng 的视角不是只追最前沿模型,而是关注如何学习、如何组建项目、如何把 AI 变成真实业务里的生产力。

重点听两条线:学习路径和落地路径。学习路径包括怎样入门深度学习、是否需要 PhD、如何建立职业方向;落地路径包括企业如何发现可做的 AI 项目、如何组织数据、如何从 demo 进入业务流程。Andrew Ng 的长期价值在于把 AI 从研究前沿翻译成教育体系和产业项目。

这期适合给初学者,也适合给想在公司内部推动 AI 项目的人。

18. Francois Chollet

官方 Episode:#120 – Francois Chollet: Measures of Intelligence

Francois Chollet 这期围绕智能度量展开,涵盖语言、智能定义、GPT-3、semantic web、自动驾驶、ARC Challenge、generalization、Turing Test 和 Hutter Prize。

它适合作为 AGI 讨论的概念校准。Chollet 关心的是泛化效率和抽象能力,而不是只看模型在已有分布上的表现。听完这期,再看大模型 benchmark,会更容易区分“会做题”和“真的会迁移”。

重点听 ARC Challenge 和 generalization。Chollet 的问题意识是:一个系统如果需要海量训练样本才能解决某类任务,它到底有多智能?这种视角会挑战单纯依赖规模和 benchmark 的叙事,也能帮助理解为什么“未见任务上的抽象迁移”仍然是 AGI 讨论的核心。

这期适合和 Yann LeCun 一起听。两人都怀疑只靠当前 LLM 形式就能解决所有智能问题,但关注点不同:Chollet 更重度量,LeCun 更重架构。

19. David Silver

官方 Episode:#86 – David Silver: AlphaGo, AlphaZero, and Deep Reinforcement Learning

David Silver 这期是强化学习路线的代表。内容包括 AlphaGo、围棋规则、RL 个人历程、self-play、Lee Sedol、Kasparov、AlphaZero、reward functions 和创造性。

它适合理解为什么 self-play 曾经被视为通往通用智能的重要路径。相比 LLM 的大规模模仿学习,AlphaGo/AlphaZero 展示的是通过搜索、奖励和自我对弈产生超越人类经验的策略。

重点听 AlphaGo 到 AlphaZero 的变化。AlphaGo 结合人类棋谱、监督学习、强化学习和搜索;AlphaZero 更强调从自我对弈中学习。这个变化说明 AI 不只是学习人类数据,也可以通过明确目标和环境反馈发现新策略。

这期和 Demis Hassabis 是一组。Demis 讲 DeepMind 如何把 AI 用于科学和现实模拟,David Silver 讲强化学习和 self-play 的核心思想。

20. Chris Urmson

官方 Episode:Chris Urmson: Self-Driving Cars at Aurora, Google, CMU, and DARPA

Chris Urmson 这期是自动驾驶历史线的重要材料。他经历了 CMU、DARPA Grand Challenge、Google Self-Driving Car 和 Aurora,能把自动驾驶从学术挑战、工程竞赛讲到商业化公司。

这期适合和 Karpathy、Elon Musk、Kyle Vogt 对照听。Urmson 的路线更偏系统安全、工程成熟度和长期部署,能补上端到端视觉叙事之外的自动驾驶复杂性。

重点听 DARPA、Google 和 Aurora 三个阶段。DARPA 阶段证明无人车在受控挑战中可行;Google 阶段把它推向复杂道路系统;Aurora 阶段则要面对商业化、车规、安全案例和运营责任。Urmson 的价值在于他不是只讲模型,而是讲一个自动驾驶系统如何被验证和交付。

这期是自动驾驶线里的“工程成熟度”视角,适合纠正只从神经网络角度看自动驾驶的偏差。

21. Elon Musk

官方 Episode:Elon Musk: Tesla Autopilot

这期是 Tesla Autopilot 早期叙事的代表。它聚焦 Tesla、Autopilot、车队数据、神经网络和自动驾驶目标,是理解 Tesla 为什么坚持大规模真实道路数据路线的起点。

放在今天听,这期的价值不是验证某个时间表,而是观察 Tesla 自动驾驶战略的早期假设:摄像头、数据闭环、车队规模、软件更新和垂直整合。

重点听 Tesla 路线的几个前提:量产车队可以提供大规模真实数据,软件更新可以持续迭代,摄像头加神经网络可以覆盖足够多场景,垂直整合可以缩短反馈周期。无论后续时间表如何变化,这些前提仍然定义了 Tesla 与 robotaxi 公司不同的路线。

这期要和 Karpathy 一起听。Elon 讲战略和产品方向,Karpathy 讲数据、模型和工程闭环。

22. Kyle Vogt

官方 Episode:Kyle Vogt: Cruise Automation

Kyle Vogt 这期代表 Cruise 和 robotaxi 路线。它从 Cruise、Twitch、自动驾驶公司建设和城市无人车挑战出发,展示另一种不同于 Tesla 的商业化路径。

如果说 Tesla 更强调量产车队和端到端数据,Cruise 路线更强调限定区域、专用运营和 robotaxi 服务。两者对比,能看清自动驾驶不是单一技术问题,而是产品形态、监管和运营系统的组合。

重点听 robotaxi 的运营属性。Cruise 不是把自动驾驶卖给车主,而是要在城市中运营一套无人出行服务,因此难点包括远程支持、车队调度、城市法规、乘客体验、事故责任和区域扩张。它的成功标准也不是单车功能,而是服务网络能否稳定运行。

这期适合放在 Chris Urmson 之后。Urmson 给系统安全和长期工程视角,Kyle Vogt 给公司化和 robotaxi 运营视角。

23. Mark Zuckerberg

官方 Episode:#383 – Mark Zuckerberg: Future of AI at Meta, Facebook, Instagram, and WhatsApp

Mark Zuckerberg 这期适合理解 Meta 的 AI 战略。内容包括开源运动、下一代模型、Meta AI、bots、内容审查、社交产品、Quest、Apple Vision Pro、AI 风险和 embodied AGI。

它的核心价值在于解释 Meta 为什么愿意推动开源模型。对 Meta 来说,AI 既是基础设施,也是社交、广告、设备和创作者生态的入口;开源则是改变行业权力结构的手段。

重点听开源和平台之间的关系。Meta 推开源模型,不只是研究姿态,也是在避免 AI 基础设施被少数闭源 API 控制。对 Facebook、Instagram、WhatsApp、Quest 这些产品来说,AI 可以进入推荐、创作、客服、社交机器人和设备交互。

这期适合和 Sam Altman、Dario Amodei 对照。OpenAI 和 Anthropic 更偏闭源模型公司,Meta 更像社交平台用开源模型重塑基础设施。

24. Sundar Pichai

官方 Episode:#471 – Sundar Pichai: CEO of Google and Alphabet

Sundar Pichai 这期覆盖 Google 视角的 AI 平台转型:Veo、scaling laws、AGI/ASI、AI mode vs Google Search、Chrome、programming、Android、Google Beam、XR Glasses。

这期适合和 OpenAI、Perplexity、Meta 对照。Google 的问题不是没有技术,而是如何把 AI 嵌入搜索、浏览器、移动系统、生产力工具和硬件,同时不破坏原有商业系统。

重点听 AI mode vs Google Search。Google 的挑战是把生成式答案、传统搜索、广告生态、网页流量和用户信任同时放进一个新产品形态。Veo、Beam、XR Glasses 又说明 Google 不只想做聊天机器人,而是在视频、通信、设备和环境计算上布局。

这期和 Aravind Srinivas 是一组。Perplexity 从外部进攻搜索,Google 从内部重构搜索。

25. Stephen Wolfram

官方 Episode:#376 – Stephen Wolfram: ChatGPT and the Nature of Truth, Reality & Computation

Stephen Wolfram 这期从 WolframAlpha、ChatGPT、计算、现实本质、人类认知、AI 风险、truth、教育、consciousness 和 entropy 出发,把大模型放进更长的计算理论脉络里。

它适合作为技术听单里的哲学和理论补充。Wolfram 的强项是把语言模型、符号系统、计算宇宙和知识表达放到一起讨论,帮助理解 AI 不只是产品变化,也是知识组织方式的变化。

重点听 WolframAlpha 和 ChatGPT 的差异。一个偏结构化知识、符号计算和可验证推理,一个偏自然语言生成和模式拟合。两者结合后,问题会变成:AI 系统如何同时具备表达能力、计算能力、可验证性和对真实世界知识的更新能力。

这期适合放在最后听。它不直接回答哪家公司会赢,而是把 AI 放回“计算、真理、知识表达、教育和意识”这些更长期的问题里。

补充高价值候选

DHH

官方 Episode:#474 – DHH: Future of Programming, AI, Ruby on Rails, Productivity & Parenting

DHH 这期适合补软件工程文化视角。话题包括 Ruby、Rails、dynamic typing、beautiful code、small teams、meetings、离开云、拥有服务器、AI 编程和 vibe coding。

它的价值在于提醒我们:AI 工具之外,软件生产力仍然受团队规模、框架审美、部署方式和组织习惯影响。对长期写代码的人,这期比单纯的工具讨论更接近日常决策。

重点听 DHH 对 small teams、Rails manifesto、cloud exit 和 meetings 的看法。AI 让写代码更快,但如果团队被会议、复杂基础设施和过度抽象拖慢,工具提升会被组织浪费掉。DHH 的观点有强烈取舍:偏向简单系统、清晰边界、拥有基础设施和少而强的团队。

这期适合和 Cursor Team 一起听。Cursor 讲 AI 如何提升个人编码速度,DHH 讲组织和框架如何决定这些速度能不能变成真正产出。

ThePrimeagen

官方 Episode:#461 – ThePrimeagen: Programming, AI, ADHD, Productivity, Addiction, and God

ThePrimeagen 这期更像程序员工作流和人生经验的混合体。技术部分覆盖 debugging、Netflix/Twitch/YouTube infrastructure、语言学习、Python、Bash、FFmpeg、performance、Rust 和项目经验。

它适合补“每天写代码的人如何保持手感”。和 Cursor、Lattner、DHH 一起听,可以得到从 AI IDE、编译器、框架哲学到个人工作方式的完整视角。

重点听 debugging、performance 和语言学习。ThePrimeagen 的价值不是给出宏大预测,而是展示一个高强度程序员如何思考反馈循环:快速定位问题、理解系统瓶颈、用工具保持流动状态,并持续通过项目练习提升判断。

这期适合给已经在写代码的人。它和 AI 工具访谈的区别是,它更关心工程师自己的注意力、习惯、速度和韧性。

Marc Andreessen

官方 Episode:#386 – Marc Andreessen: Future of the Internet, Technology, and AI

Marc Andreessen 这期更偏科技投资和互联网历史。内容包括搜索、LLM training、truth、journalism、AI startups、browser、Netscape、AI 风险、核能、经济、中国和技术演化。

它适合从资本和产业叙事角度理解 AI。Andreessen 的观点鲜明,不一定要全盘接受,但能帮助识别硅谷乐观主义、平台迁移和技术扩散背后的投资逻辑。

重点听 AI startups、browser 和经济影响。Andreessen 会把 AI 看成新平台周期:基础模型、应用公司、浏览器入口、信息分发和劳动市场都会重新洗牌。他的乐观主义很强,但正因为强,适合拿来和 AI safety、监管和产业现实做对照。

这期可以和 Sam Altman、Aravind Srinivas、Sundar Pichai 一起听。一个讲资本和互联网周期,一个讲模型公司,一个讲搜索创业公司,一个讲平台巨头。

Robert Playter

官方 Episode:#374 – Robert Playter: Boston Dynamics CEO on Humanoid and Legged Robotics

Robert Playter 这期和 Marc Raibert 互补,更偏 Boston Dynamics 的产品和公司管理视角。话题包括 Atlas、DARPA Robotics Challenge、BigDog、Spot、Stretch、机器人入户、Optimus 和 ChatGPT。

这期适合理解机器人从 demo 到产品的难点:硬件可靠性、成本、客户场景、团队管理和公众恐惧。它能把“机器人很酷”拉回“机器人如何真的进入生产环境”。

重点听 Atlas、Spot、Stretch 三条产品线的差异。Atlas 展示人形和动态控制能力,Spot 更接近可销售平台,Stretch 面向仓储物流。机器人商业化的关键不是 demo 是否震撼,而是能否在明确场景里稳定创造价值。

这期适合和 Marc Raibert、Elon Musk & Neuralink Team 一起听。它们共同说明:当 AI 进入物理世界,安全、可靠性、维护、成本和用户信任会变成主问题。

Jim Keller

官方 Episode:Jim Keller: Moore’s Law, Microprocessors, Abstractions, and First Principles

这期是 Jim Keller 早期访谈,更集中在 Moore’s Law、微处理器、抽象和第一性原理。它适合作为 #162 的前置或补充材料。

如果只听一期 Jim Keller,可以先听 #162;如果想更系统地理解处理器工程和抽象层如何影响计算进步,这期也值得补上。

重点听 abstraction layers、parallelism、Moore’s Law 和“每隔几年从头开始”的工程观。Keller 会不断把复杂系统拆回简单原则:哪些层是必要抽象,哪些层只是历史堆积,哪些改动能真正带来数量级提升。

这期和 #162 合起来,能形成一条硬件理解路径:先理解处理器和抽象,再理解 AI 训练、GPU、Dojo 和神经网络加速为什么会重塑计算架构。

一条推荐听法

先听 Jensen Huang、DeepSeek/Dylan Patel & Nathan Lambert 和 Jim Keller,建立算力、芯片、集群和供应链框架。再听 Sam Altman、Dario Amodei、Demis Hassabis、Yann LeCun、Mark Zuckerberg、Sundar Pichai,理解模型公司和平台公司的分歧。然后听 Cursor Team、Chris Lattner、DHH、ThePrimeagen,看 AI 如何改变软件工程。最后补 Karpathy、Elon Musk、Chris Urmson、Kyle Vogt、Marc Raibert、Robert Playter,形成自动驾驶和机器人路线图。

这样听的好处是先从物理约束和产业约束出发,再进入模型能力和产品入口,最后回到真实世界系统。AI 不是单一模型进步,而是算力、数据、组织、产品、工具链和硬件系统共同推进的结果。