正在加载

返回列表
张小珺 Jùn|商业访谈录

张小珺 Jùn|商业访谈录

和你一起,从这里,探索新世界! 《张小珺商业访谈录》是一档深度访谈节目,以 2 至 7 小时的长对话为形式,聚焦真实的人物表达与高密度的前沿信息。由语言即世界工作室出品。 主持人张小珺是财经媒体人,专注中国科技业深度报道,覆盖 AI、科技巨头、风险投资与知名人物。曾 13 次获得国内外新闻奖项,其中 2022 年至 2024 年连续三届获得亚洲卓越新闻奖(SOPA)——被称为“亚洲普利策”。她也是语言即世界工作室的创始人。 “如果我的访谈能陪你走一段孤独的未知的路,也许有一天可以离目的地更近一点,我就很温暖。”——张小珺

分集
  • 2025-04-28 / 02:34:35

    2021 年,Sam Altman 以个人名义向美国核聚变初创公司 Helion Energy 注资 3.75 亿美金,这是他迄今最大的一笔个人下注。Helion 豪言称,将在 2028 年前建成全球首座 50 兆瓦聚变电厂。 马斯克持不同看法。他曾说:“我们的头顶一直就有一个取之不尽、用之不竭的核聚变反应堆——太阳”。他相信太阳能才是人类能源问题的根本路径。 不过,在许多人眼中,可控核聚变仍然是“能源界的圣杯”。 随着今天我们向 AGI 迈进,能源将是文明演进的最大瓶颈——毕竟,AGI 或许不惧怕人类,但一定害怕断电。 这集节目,我邀请了中国可控核聚变创业公司、能量奇点创始人杨钊来聊聊。相比 AI,可控核聚变是一条更漫长、更人迹罕至的创业之路。 它几乎是面对人类有史以来最复杂的物理难题之一,站在科技与人类文明的边界上,做技术摸索。 节目中,杨钊帮我们做了一次关于可控核聚变的前沿技术科普;作为中国可控核聚变事业的参与者,他也相对清晰地计算出了,人类驯服可控核聚变还需要多少资金要消耗?还有多少路程要走?我们也聊了聊,在更远处的未来,当能源成为无限,我们的世界、我们的文明又将怎样? 我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:)03:00 开始的快问快答 高频专业名词解释 04:10 核聚变、核裂变、可控核聚变、托卡马克、高温超导托卡马克,全世界只有 3 台全低温超导装置 13:22 多国联合推出的“国际热核聚变实验堆计划”(ITER), 一个超大型托卡马克装置,已投入资金 250 亿欧元,建设周期 30 年 14:47 高温超导材料和低温超导材料都是低温(高温超导在的能量增益的条件下,可以将装置体积缩小两个数量级,也意味建造成本大约缩小两个数量级) 19:17 一个关键指标:Q 值/能量增益由三乘积(等离子体的密度×温度×约束时间)决定,Q 值全球最高刚过 1,目前追求 Q>10 可控核聚变的历史 21:55 从爱因斯坦质能方程 E=MC²开始说起,非常小质量损失会产生巨大能量 27:09 从氢弹到惯性约束到磁约束,不同磁场形状对应不同磁约束分叉技术路线 27:50 上个世纪 60 年代,苏联想到用甜甜圈一样的磁场位形托卡马克路线 28:50 全世界大概有 100 台以上托卡马克装置 29:11 从用铜做托卡马克的时代过渡到用超导做托卡马克 30:17 2024 年,我们建成全世界第一台全高温超导托卡马克(“洪荒 70”装置) 核聚变创业这 4 年 34:01 2021 年想法:也许高温超导显著缩小装置体积,将成本两个数量级降低 39:43 想清楚以后搭团队,最开始 4 个人 41:05 杨钊的个人背景:斯坦福博士方向是比较底层的物理,量子引力、弦论、量子引力和量子信息的交叉,离这个世界比较远的基础物理 46:36 人类科学的“明珠”和“有生之年”系列 51:05 从博士毕业到核聚变创业之间?在金沙江创投美国做 EIR(驻场准创业者)、第一段人工智能和音乐教育结合的创业 55:36 2021 年初,针对核聚变科研院所和供应商的市场调研 “洪荒 70”、“洪荒 170”和经天磁体 59:37 “洪荒 70”是怎么建造的?做一台全高温超导托卡马克需要几步? 01:07:33 每个环节都在不断出问题,你越接近实物状态,你的问题越大、问题越多,改动修补成本越高 01:15:43 “洪荒 70”的意义 01:18:49 通往第一个可控核聚变商品的“三步走” 01:21:10 经天磁体(大孔径磁体)和“洪荒 170”的意义 01:35:18 点评世界上 3 台全低温超导装置(中国合肥的 EAST、韩国的 KSTAR、日本的 JT-60SA) 01:38:40 “洪荒 380”,按照完整能长时间运行的示范电站的要求做 人类驯服可控核聚变还有多少路程?01:41:40 Sam Altman 迄今为止最大的一笔个人投资是 Helion Energy:“磁场位形是直线性的,不像我们是甜甜圈” 01:45:06 核聚变和 AI 的关系是什么? 01:52:13 中美核聚变市场格局的分割与差异 01:54:10 我们和 CFS(Commonwealth Fusion Systems,美国麻省理工学院分拆出来的联邦核聚变系统公司)技术路线是相似的 01:56:40 真正聚变商业化的原料需要用氘氘去发电,而不是氘氚 02:03:16 当能源无限,世界会怎么样? 02:04:57 聊聊自我与组织、登山与跌落 02:30:57 最后的快问快答 位于上海临港的能量奇点现场及装置图: (上图:公司外) (上图:厂房内) (上图:“洪荒 70”建设中) (上图:“洪荒 70”等离子体) (上图:“洪荒 70”建成时刻) (上图:“经天磁体”) (上图:“经天磁体”的测试系统,“经天磁体”躺在大罐子里) 【更多信息】 联络我们:微博@张小珺-Benita 更多信息欢迎关注公众号:张小珺

  • 2025-04-06 / 02:29:41

    今天的嘉宾是清华大学交叉信息研究院助理教授、星动纪元创始人陈建宇。他的研究和创业方向都是人形机器人。 大语言模型浪潮爆发后,学界和工业界看见了机器人从专用走向通用的可能迹象,机器人革命随之而来。其中,本轮革命最重要的是,对机器人底层架构,也就是机器人“大脑”的探索。 但通用机器人还在科学研究阶段,处于产业发展早期。这集节目,陈老师将带领大家,概览式阅读机器人基座模型和当下最前沿的架构 VLA 架构(Vision-Language-Action Model,视觉语言动作模型)的经典论文。 希望我们的节目能直观地帮助更多人靠近科学前线,感受技术之美,并且能直观感知当前技术拐点。 还是那句话:期待 2025,我们和 AI 共同进步! (因为因为,陈老师真的分享了很多很多的动图和视频,本集结合视频服用效果更佳噢!可以前往:含投屏的视频版本。嘿嘿!预祝你学得开心!学得顺利啦!)我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:)02:30 陈建宇的研究和创业方向 04:11 讲解开始前,先提问几个小问题 17:36 当下最大变量:从专用模型到通用模型(robot foundation model)的可能性 21:12 大模型浪潮爆发后,机器人领域经历了两个阶段:从利用基础模型进行机器人研究(leveraging foundation models in robotics)到为机器人预训练基础模型(pretraining foundation models for robotics) 第一阶段:利用基础模型进行机器人研究(leveraging foundation models in robotics)21:59 机器人传统三板块:Planning+Perception+Actuation(规划+感知+执行)——第一步,用 LLM(Large Language Model,大语言模型)替代 Planning 23:54 由 Google Robotics 团队提出的具身智能开创性论文 Say Can《Do As I Can, Not As I Say: Grounding Language in Robotic Affordances》 (中文名:我能做到,而不是我说到:将语言与机器人的可供性相结合) 27:03 第二步,用 VLM(Vision-Language Models,视觉语言模型)替代 Perception 27:52 来自 Google 的论文《Inner Monologue: Embodied Reasoning through Planning with Language Models》 (中文名:内心独白:通过语言模型规划进行具身推理) 29:51 由清华和上海姚期智研究院提出的《DoReMi: Grounding Language Model by Detecting and Recovering from Plan-Execution Misalignment》 (中文名:DoReMi:通过检测和恢复规划-执行不一致来落地语言模型) 32:47 第三步,想把 Actuation 进一步自动化,用 Code LM(专门用于代码相关任务的大型语言模型)来替代 Actuation 32:24 由李飞飞团队提出的《VoxPoser: Composable 3D Value Maps for Robotic Manipulation with Language Models》 (中文名:VoxPoser:使用语言模型进行机器人操作的可组合 3D 价值地图) 第二阶段:为机器人预训练基础模型(pretraining foundation models for robotics)38:36 VLA 端到端模型(Vision-Language-Action Model,视觉语言动作模型)——“人是很智能的 VLA Agent” 39:53 关于 VLA 的经典论文及分类: 40:17 Aloha 论文《Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware》 (中文名:学习用低成本硬件进行精细双手操作) 47:36 Mobile Aloha 论文《Mobile ALOHA: Learning Bimanual Mobile Manipulation with Low-Cost Whole-Body Teleoperation》 (中文名:移动 ALOHA:使用低成本全身远程操作学习双手移动操作) 50:15 论文《A Generalist Agent》介绍了一个名为 Gato 的通用型人工智能代理 (中文名:通用型代理) 52:45 RT-1 论文《RT-1: Robotics Transformer for Real-World Control at Scale》 (中文名:RT-1:机器人 Transformer 用于大规模现实世界控制) 59:02 Octo 论文《Octo: An Open-Source Generalist Robot Policy》 (中文名:Octo:一个开源的通用机器人策略) 01:02:20 CrossFormer 论文《Scaling Cross-Embodied Learning: One Policy for Manipulation, Navigation, Locomotion and Aviation》 (中文名:扩展跨具身学习:操控、导航、运动和飞行的统一策略) 01:06:58 字节跳动 AI Lab 的两个工作 GR-1 和 GR-2: 《Unleashing Large-Scale Video Generative Pre-Training For Visual Robot Manipulation》(为视觉机器人操控释放大规模视频生成预训练模型) 《A Generative Video-Language-Action Model with Web-Scale Knowledge for Robot Manipulation》(用于机器人操作的网络规模知识生成视频-语言-动作模型》) 01:15:02 Palm-E 论文《PaLM-E: An Embodied Multimodal Language Model》 (中文名:PaLM-E:具身多模态语言模型) 01:20:02 当前 VLA 最有名的开山工作:Google 推出的 RT-2 论文《RT-2:Vision-Language-Action Models Transfer Web Knowledge to Robotic Control》 (中文名:RT-2:视觉-语言-动作模型将网络知识迁移到机器人控制中) 01:26:05 RT-X 论文《Open X-Embodiment: Robotic Learning Datasets and RT-X Models》 (中文名:开放 X 具身:机器人学习数据集与 RT-X 模型) 01:31:16 《OpenVLA: An Open-Source Vision-Language-Action Model》(约等于开源版 RT-2) (中文名:OpenVLA:一个开源的视觉-语言-动作模型) 01:32:56 陈建宇课题组《HiRT: Enhancing Robotic Control with Hierarchical Robot Transformers》 (中文名:HiRT:利用分层机器人 Transformer 增强机器人控制) 01:38:40 Figure AI Helix,没发论文,但是今年 Figure 最新架构 01:39:28 Pi0 论文《π₀: A Vision-Language-Action Flow Model for General Robot Control》 (中文名:π₀:一个视觉-语言-动作的流模型用于通用机器人控制) 01:41:36 英伟达最近发布的 GROOT N1 模型《GR00T N1: An Open Foundation Model for Generalist Humanoid Robots》 (中文名:GR00T N1:通用人形机器人的开放基础模型) 01:42:32 《Diffusion Policy: Visuomotor Policy Learning via Action Diffusion》 (中文名:扩散策略:通过动作扩散进行视觉运动策略学习) 01:47:39 清华发布的《RDT-1B: A Diffusion Foundation Model for Bimanual Manipulation》 (中文名:RDT-1B:双手操作机器人的扩散基础模型) 01:51:04 《Prediction with Action: Visual Policy Learning via Joint Denoising Process》(动作预测:通过联合去噪过程进行视觉策略学习) 和续作《Video Prediction Policy: A Generalist Robot Policy with Predictive Visual Representations》(视频预测策略:一个预测视觉表征的通才机器人策略) 02:03:06 两个未来方向:《UP-VLA: A Unified Understanding and Prediction Model for Embodied Agent》(UP-VLA:具身智能体的统一理解与预测模型) 《Improving Vision-Language-Action Model with Online Reinforcement Learning》(通过在线强化学习改进视觉-语言-动作模型) 02:09:22 最后的提问 【技术之美】系列: 逐句讲解 DeepSeek-R1、Kimi K1.5、OpenAI o1 技术报告——“最优美的算法最干净” 逐篇讲解 DeepSeek 关键 9 篇论文及创新点——“勇敢者的游戏” 逐篇讲解 DeepSeek、Kimi、MiniMax 注意力机制新论文——“硬件上的暴力美学” 【更多信息】 联络我们:微博@张小珺-Benita,小红书@张小珺 更多信息欢迎关注公众号:张小珺

  • 2025-03-30 / 02:01:10

    很多人在催更《全球大模型季报》的 2025 年第一集,在 Q1 的最后一天,终于和大家见面了! 这一集广密依然带来了信息满满的有关于全球大模型最新的的前沿认知。经历了最近几个月的全球 AI 格局巨变,他最大的变化是,重新坚信了 Pre-training(预训练)——认为只有 Pre-training 才能决定模型内在的上限,涌现新能力,而 Post-training+RL(后训练+强化学习)是加强。 在这一集季报中,我们对于 Q1 的全球明星 DeepSeek、作为模型“盗火者”的 Manus、OpenAI 的烟雾弹、硅谷的认知分歧与价值观、未来的范式级新路线,都进行了一一讨论。更重要的是,他更新了在一位 AGI 原教旨主义者的眼中,AGI 的主线、珠峰与路途。 希望《全球大模型季报》能持续陪伴你,2025,我们和 AI 共同进步! 我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:)04:22 Pre-training 叙事卷土重来今天最大非共识是 Pre-training 空间还非常大,Pre-training 决定了模型内在的上限 还是要再喊一下,大家还是要重视 Pre-training 了,这个最本质 OpenAI 现在不那么重视 Pre-training,为什么?OpenAI 的 Pre-train 核心团队一直挺动荡 11:56 Coding 是最通用赛博世界的环境,是模型的手我对两年内实现 AGI 有前所未有的信心 Coding 意义不在于编程本身,而在于 Coding 是数字经济 GDP 活动最重要的环境,是最通用的赛博世界的环境 Coding 是比搜索引擎和推荐引擎重要的东西 19:55 OpenAI vs Anthropic:战略是不同组织能力的表达 OpenAI 和 Anthropic 同宗同源,最开始路线一样,但走着走着,核心战略 bet 或路线已经发生了分化 OpenAI 是 frontier team 做出了 O 系列,frontier team 的老大 Mark Chen 现在成为了仅次于 Sam/Greg 的三号人物 硅谷的认知分歧?这个问题本质是:智能重要,还是流量重要? 我有点担心 OpenAI 过早的走向一家消费互联网公司 30:18 一位 AGI 原教旨主义眼中的 AGI roadmap(路线图)智能提升是唯一主线,智能本身就是最大应用 今天回头看,ChatGPT 只是这座高山山脚的第一站,后面还有很多个山头:Coding、Coding Agent、General Agent、AI for Science、Robotics ChatGPT 只是前菜,接下来 Agent 才是正餐 今天还是围绕智能主线,最重要的是 push 智能能力往上走,做应用的要构建一个环境或容器,承接研究溢出的智能红利 文生图有可能是 OpenAI 烟雾弹 今天做 Robotics Foundation model/Research 的做法不够本质 26/27 年可能是 AI for Science 爆发的时间点 43:00 智能的本质是什么?这是个极好的问题——大家有想法可以打在评论区:) 人类进化就 3 个关键词:1. 生存,2. 探索,3. 自动化 智能进步的衡量标志是什么? 一个 Chatbot 对话可能消耗几千个 Token,一个 Perplexity 搜索大概几十 K Token,但一个 Manus 平均可能要 70-80 万个 Token 48:03 Agent 是新物种“智能水平离 AGI 越近,可能就越像宇宙大爆炸” Agent 落地最关键的 3 个能力:1. Long Context reasoning, 2. Tool use, 3. Instruction following 指令遵循 AGI 接下来的 milestone 是 long-term memory,这个会取代 long context 55:49 未来范式级的路线,可能 Online Learning 是一个 如果说未来还有范式级的路线,可能 Online Learning 是一个,让模型可以在线自主探索并学习 对 GPU 或者英伟达叙事影响有多大? 怎么看待贾扬清的公司(Lepton AI)被卖掉?英伟达在下一盘什么大棋? 01:02:45 模型与产品的关系、壁垒和商业模式今天定价为什么 20 美元,是 copy SaaS 的定价吗?但 SaaS 不会消耗大量 token 裸模型发布的时代即将结束?形成壁垒主要是两个:一是成为 Cloud,OpenAI 自己变成微软的 Azure Cloud;二是成为 OS,要有生态,后面打造新的 Operating System 投资人怎么投 AI 应用? 模型长期会把产品吃掉吗?本质是,feature system vs Learning system 哪个更快 Perplexity/Cursor/Manus 都是“模型的盗火者” 01:15:11 全球大模型公司竞争格局和全球 AI 产品公司 GPT-4.5 算不算领先?GPT-5 为什么一直在跳票?OpenAI 有没有失败的风险? 怎么看待 OpenAI 支持了 Anthropic 的 MCP 协议?OpenAI 和微软为什么会有裂痕?分家对微软影响多大? Manus vs Perplexity,都是执行力很强的团队,被称作“套壳之王” 理想的投资组合:25% Anthropic, 25% Bytedance, 10% OpenAI, 10% Mira Thinking Machine Lab, 5% SSI, 5% Cursor, 5% Manus, 另外 15%还没想好 如果 DeepSeek 融资,我会放基金的 25% 01:54:32 中美格局:如何跨越地缘封锁科技投资不是靠“混”能混出结果的,很多 VC investor 到处混圈子,其实没意义,还是得靠“创造” 【全球大模型季报】系列 2023 年:口述全球大模型这一年:人类千亿科学豪赌与参差的中美景观 2024 年 Q1:和广密聊 AGI 大基建时代:电+芯片=产出智能 2024 年 Q2:口述全球大模型这半年:Perplexity 突然火爆和尚未爆发的 AI 应用生态 2024 年 Q3:AGI 范式大转移:和广密预言草莓、OpenAI o1 和 self-play RL 2024 年 Q4:大模型季报年终特辑:和广密预言 LLM 产品超越 Google 之路 【免责声明】 单纯内容分享,不作为投资建议。 【更多信息】 联络我们:微博@张小珺-Benita,小红书@张小珺 更多信息欢迎关注公众号:张小珺

  • 2025-03-16 / 02:00:19

    今天发布的是和理想汽车自动驾驶研发副总裁郎咸朋的聊天。本次访谈发生在 2024 年 12 月,和我们之前发布的《对李想的 3 小时访谈》在同一时期进行。 郎咸朋 13-18 年在百度做自动驾驶,18 年加入理想,过去 10 年都在中国的自动驾驶领域。他以亲历者的视角聊了自动驾驶 10 年演进史,详解了其中的关键节点和技术细节。这次谈话更像是对自动驾驶的一次技术科普。我觉得我们聊的还不错,所以决定分享给大家。 (因为访谈发生在去年,如果大家听到今年,指的是 24 年;如果听到去年,指的是 23 年。) 期待 2025,我们和 AI 共同进步! 我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:)01:32 10 年前的自动驾驶当成有轨电车研发,现在看起来很可笑 04:30 2018 年,从高精地图+激光雷达到 BEV+Transformer,Tesla 是标杆 12:07 当年激光雷达 50-60 万/台,早期百度/Cruise 一辆车 7-8 个激光雷达,传感器成本远高于这辆车(当时我们在百度,一辆车 500 万人民币) 13:09 为什么特斯拉要用视觉解决问题?为什么自己造芯片? 15:16 特斯拉一辆车的传感器+芯片成本?一辆车有几个芯片? 20:06 特斯拉总在用“升维”方式解决问题 25:06 激光雷达和 camera 解决方案区别 28:46 端到端、“我们以前做自动驾驶都做错了” 41:14 我的工作经历:13-18 年在百度,18 年开始在理想 50:50 “L3 不是 L2 的延长,而是 L4 的先导” 01:15:15 端到端是最典型的强化学习,端到端+VLM+世界模型是 RL 架构 01:26:40 2024 年 3 月李想对智驾团队发火 01:32:23 “卫城”项目:“他就觉得你一定要跪下来求他”“老子就算死也要站着死” 01:35:51 想过职业生涯栽在这儿吗?李想脾气不太好? 【从蒸汽机到无人驾驶】系列 对李想的 3 小时访谈(播客版):宅男、AI、家庭、游戏和天梯 和何小鹏聊,FSD、“在血海游泳”、乱世中的英雄与狗熊 和楼天城聊聊 Robotaxi 和 ACRush:“L2 做得越厉害,离 L4 越远” 从蒸汽机到无人驾驶 3|和孟醒聊特斯拉 FSD 进化史 从蒸汽机到无人驾驶 4|Waymo 和它的对手们:我暗中考察了四个月 【更多信息】 联络我们:微博@张小珺-Benita,小红书@张小珺 更多信息欢迎关注公众号:张小珺

  • 2025-03-02 / 03:22:46

    今天的嘉宾是肖弘(小红/小宏),一名 AI 应用创业者。 我们从去年在不同时期进行谈话,可以算是展开了一场“接力式访谈”。 大模型的模型能力还在迅速变化,身处其中的创业者要不断根据外部环境身段柔软地时时调整姿势。《商业访谈录》希望记录一名 AI 应用创业者,在技术变革之中、当一切都处于不稳定状态下的持续思考历程。而这个历程富有魅力之处就在于,它是变化的,而且还会继续变化。 我们正在开启的 2025 可能会是 AI 应用爆发的元年、Agent 爆发的元年,这集节目正是来自一线“AI 应用爆发”、“Agent 爆发”的前沿声音。 肖弘提供了一种身处浪花中创业者的心态:“世界不是线性外推的,要让自己成为博弈中的重要变量。” 期待 2025,我们和 AI 共同进步! 我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:) 第一次访谈发生在 2024 年秋天,彼时小红刚完成一轮融资。(提醒大家注意的是,第一次访谈中,当我们说到今年、去年这些词语的时候,可能脑海里需要转化一下——“去年”指的是 2023 年,“今年”指的是 2024 年) 03:03 开始的快问快答 05:15 连续创业者、第一段创业、沮丧时刻、不同年龄段毕业生的最优选 17:04 已经把大学赚的钱花完了,山穷水尽 33:16 “VC 是很贵的集资手段”,它的贵不体现在你不好的时候,而是体现在好的时候 42:10 最重要的转折点:预判大厂的预判、《大空头》、等待、诱惑 52:27 每次觉得自己技能点还可以的时候,就会冒出一个新维度——这次是资本 56:19 嗅到泡沫的味道 58:15 卖过公司 founder 的生活和心态、“让你的生活状态变得昂贵是更昂贵的” 01:05:55 第二段创业的第一款产品:浏览器插件、Monica.im、ChatGPT for Google 01:28:04 从 2022 年底创业开始每年重要的决策 01:48:38 有模型 vs 没模型,“贸工技”vs“技工贸”,“模型是技术平权” 02:02:14 我脑海中大模型应用的分类和方法论:主场景补充、模型能力带来的变化、模型能力在特定领域的外溢 第二次访谈发生在 2025 年春节后,此时 DeepSeek 一时间改写了中国 AI 应用底层生态,我们坐下来又聊了一次。这次话题主要围绕他即将要发布的 Agent 产品(Manus,但当时还没上线),他讲述了对新产品的完整思考过程。 02:09:32 2025 年春节真是梦回 2023 年呐! 02:10:09 我尝试把火过的 AI 应用作为少量数据点,总结规律做预测 02:20:00 开源一个 AI 创业 idea:预判大模型的下一个能力是什么,先做好应用,在那里等着 02:21:01 大模型原厂做什么 vs 应用公司做什么 02:23:51 DeepSeek 最佛却取得最好结果,精神上给了大家鼓励:BE YOURSELF!! 02:26:27 从产品角度解析为什么 DeepSeek 全球爆火,而 OpenAI o1 遗憾错过 (02:29:00-02:29:44 注:这里有几处口误,不是 Perplexity 而是 DeepSeek) 02:31:12 对即将要发布的新产品的完整思考:国内 Agent 的第一枪! 02:47:49 这几天正在经历“A-ha moment”,真的觉得在制造生命一样的东西 02:49:27 在一切都不稳固的状态下,AI 应用创业者应该保持什么心态? 02:51:36 大厂能理解你的创新的时候就是很危险的时候 02:58:24 用时代的年龄思考,而不是用生理的年龄思考 03:01:02 我让 DeepSeek 解释“贪、嗔、痴” 03:01:53 为什么不做底层模型? 03:04:39 Peak Ji(Manus 首席科学家)问黄仁勋:接下来几年什么事情发生会让你觉得很惊讶?黄仁勋的回答:Basically nothing。 03:09:08 Founder 是没得选的 03:12:20 Founder 应该用“博弈的方式”思考,而不是用“逻辑推理的方式”思考 03:15:00 一位 founder 的生活和对世界的认知 03:17:50 最后的快问快答 【更多信息】 联络我们:微博@张小珺-Benita,小红书@张小珺 更多信息欢迎关注公众号:张小珺

  • 2025-02-23 / 02:36:12

    今天这集节目延续我们的论文系列。我邀请 MIT 计算机科学与人工智能实验室的在读博士松琳,来给大家解读上个星期 DeepSeek 和 Kimi 发布的全新技术报告。 DeepSeek 和 Kimi 又一次技术对垒。在同一天发布论文,两篇集中在改进注意力机制以处理长文本任务上。而春节前,MiniMax 也发布了一篇注意力机制相关的论文。 松琳将带领大家阅读这 3 篇注意力机制有关的文章,解析不同模型公司的技术哲学和路线选择。 我们希望能让更多人领略 AI 科技平权,体验技术之美。 2025,我们和 AI 共同进步! (如果如果,你觉得光听还不够刺激,觉得一定要坐在电脑前看着投屏、拿起纸笔学习更有沉浸感…如果你实在是真心想要找虐的话…请前往:含投屏的视频版本。预祝你学习顺利啦!)我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:)02:30 讲解开始前,先提问几个小问题 15:36 DeepSeek 最新论文《Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention》讲解论文中文名:《原生稀疏注意力:硬件对齐且原生可训练的稀疏注意力》 路线:稀疏注意力机制 本篇工作最大亮点:Native Sparse Attention 全线压制 Full Attention 01:19:14 Kimi 最新论文《MoBA: Mixture of Block Attention for Long-Context LLMs》讲解论文中文名:《MoBA:面向长文本上下文的块注意力混合架构》 路线:稀疏注意力机制 01:44:42 MiniMax 春节前的论文《MiniMax-01: Scaling Foundation Models with Lightning Attention》讲解论文中文名:《MiniMax-01:利用闪电注意力扩展基础模型》 路线:线性注意力机制 02:30:07 最后强化学习一下【技术之美】系列: 逐句讲解 DeepSeek-R1、Kimi K1.5、OpenAI o1 技术报告——“最优美的算法最干净” 逐篇讲解 DeepSeek 关键 9 篇论文及创新点——“勇敢者的游戏” 【更多信息】 联络我们:微博@张小珺-Benita,小红书@张小珺 更多信息欢迎关注公众号:张小珺

  • 2025-02-20 / 02:07:21

    今天这集节目是春节前,我和前今日头条用户产品负责人、前 MiniMax 产品负责人张前川的一次聊天。 张前川从 2005 年开始入行成为产品经理,经历过百度、360、字节、知乎等公司,最后一次出现在新闻是他从大模型公司 MiniMax 离职。 这次聊天分成两个部分:第一部分是他作为一位 20 年的产品经理的思考,特别是他观察到的中国内容产品演变史。 第二部分是他最近半年的所思所想。和上一集节目张亚勤对 AGI 勾勒的乐观前景不同,关于 AGI,张前川发出了对人类威胁的预警,并分析人类灭绝的 n 种可能性。 他告诉我,他接下来会考虑成立一家 pro-human 的非营利组织。 (本集节目录制于春节前) 我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:)内容产品的 20 年演变史 02:00 张前川自我介绍:一位产品经理的 20 年 (曾供职过的企业:百度、360、字节、新浪微博、知乎、MiniMax) 03:39 搜索引擎、拉里·佩奇和俞军 17:35 2005-2025,过去 20 年,内容分发产品的演化历史和内生逻辑 24:28 推荐引擎、今日头条和张一鸣 28:28 小红书在推荐引擎范式的延长线上吗?为什么小红书不是字节做的? 39:29 微信送礼物的功能 maybe 对于小红书更有意义 42:50 泛化如水流有方向:女生向男生,年轻向年长用户的泛化更容易 52:00 面试时张一鸣问我的问题 离开大模型公司的张前川,发出 AGI 预警这里对 AGI 推演和 92 集张亚勤的观点截然不同 54:10 AI 是人类的最后一个发明,加速度无限大 57:00 把 AI 当目的 vs 把人当目的(更多公司是在 for AI 的目的?) 01:09:08 Agent 就是“baby 阶段的 AGI” 01:19:56 人类灭绝的 n 种可能性(人利用 AI 灭绝人类/AI 有意识的灭绝人类/AI 无意识的灭绝人类) 01:24:30 人类如何幸福生存下去? 01:26:03 如果 AI 产品收费模式是付费制,大部分人类会逐渐失去和 AI 的连接 01:40:21 AGI 公司的承诺和制度安排 01:58:48 人类不要逃避危险本身而逃避思考 【更多信息】 联络我们:微博@张小珺-Benita,小红书@张小珺 更多信息欢迎关注公众号:张小珺

  • 2025-02-17 / 00:53:07

    人人都谈论 AGI,但在可见的未来,AGI 到底是一幅什么样的画面? 针对这个话题,我邀请了清华大学智能产业研究院(AIR)院长、前百度公司总裁张亚勤院士,来聊聊。 在他的脑海中,人工智能会按照信息智能〉物理智能〉生物智能的图谱逐步实现 AGI。这种构想和信仰之下,AGI 呈现的是一个乐观的前景画面。 但这不是人们预感 AI 进化的全部图景,在之后的节目中,我也会推出对 AGI 的另一种思考与隐忧。 我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:) 01:45 在 AI 冬眠期,微软亚洲研究院成立了 03:57 微软怎么管理亚洲研究院?目标如何设置? 05:53 清华智能产业研究院(AIR)的目标和路径,不做基层通用大模型 10:45 我脑海中的 AGI 地图:信息智能〉物理智能〉生物智能 12:40 信息智能是大脑的智商,5 年内达到 AGI 水平 14:25 物理智能首先落地是自动驾驶,人形机器人需要 10 年 15:51 机器人分三类:家庭机器人、工厂机器人、社会机器人 21:05 人形机器人:未来可能每个人有一个你的 copy、你的“分身” 22:25 为什么大模型大幅加速了自动驾驶和具身智能的开发速度? 39:38 生物智能:20 年实现,人的寿命更长,诞生新物种 45:56 构想 10 年后的世界 51:27 最后推荐两本书 【更多信息】 联络我们:微博@张小珺-Benita,小红书@张小珺 更多信息欢迎关注公众号:张小珺

  • 2025-02-11 / 03:20:52

    2025 年这个春节,DeepSeek 一举改写了全球 AGI 大叙事。在万般热闹之际,我们特别想沉下来做一些基础科普工作。 在《商业访谈录》89 集节目中,我邀请了加州大学伯克利分校人工智能实验室在读博士生潘家怡,为大家对照解读了春节前的 DeepSeek-R1-Zero、R1、Kimi 发布的 K1.5,以及 OpenAI 更早发布的 o1 技术报告。这些模型聚焦的都是大模型最新技术范式,RL 强化学习,简单来说就是 o1 路线。 今天这集,我邀请的是香港科技大学计算机系助理教授何俊贤。他的研究方向是大模型推理,从很早就开始关注 DeepSeek 的系列研究。我们会 focus 在最近引发全球 AI 届关注的 DeepSeek 上。 何老师将带领大家从 DeepSeek 的第 1 篇论文开始,阅读经过挑选的这家公司历史上发布的 9 篇论文。 我们希望帮助大家从一个更延续、更长期、也更技术底层的视角来理解 DeepSeek,以及它所做的复现与创新工作;与此同时也希望能让更多人感受到技术之美。 (如果如果,你觉得光听还不够刺激,觉得一定要坐在电脑前看着投屏、拿起纸笔学习更有沉浸感…如果你实在是真心想要找虐的话…请前往:含投屏的视频版本。嘿嘿!预祝你学习顺利啦!2025 我们和 AI 共同进步!)我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:)03:01 讲解开始前,先提问几个小问题整体风格:Open、Honest、低调、严谨的科学态度 DeepSeek 基座模型 21:00 《DeepSeek LLM Scaling Open-Source Language Models with Longtermism》技术讲解 45:48 《DeepSeekMoE: Towards Ultimate Expert Specialization in Mixture-of-Experts Language Models》技术讲解 01:06:40 《DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language Model》技术讲解 01:40:17 《DeepSeek-V3 Technical Report》技术讲解 DeepSeek 推理模型 02:05:03 《DeepSeek-Coder: When the Large Language Model Meets Programming - The Rise of Code Intelligence》技术讲解 02:12:16 《DeepSeek-Coder-V2: Breaking the Barrier of Closed-Source Models in Code Intelligence》技术讲解 02:47:18 《DeepSeek-Prover: Advancing Theorem Proving in LLMs through Large-Scale Synthetic Data》和《DeepSeek-Prover-V1.5: Harnessing Proof Assistant Feedback for Reinforcement Learning and Monte-Carlo Tree Search》技术讲解 02:52:40 《DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》技术讲解 03:01:41 9 篇论文到这里都讲完啦!最后我们一起强化学习一下!关于强化学习往期节目: AGI 范式大转移:和广密预言草莓、OpenAI o1 和 self-play RL|全球大模型季报 4 和 OpenAI 前研究员吴翼解读 o1:吹响了开挖第二座金矿的号角 王小川返场谈 o1 与强化学习:摸到了一条从快思考走向慢思考的路 逐句讲解 DeepSeek-R1、Kimi K1.5、OpenAI o1 技术报告——“最优美的算法最干净” 开源一场关于 DeepSeek 的高质量闭门会: 一场关于 DeepSeek 的高质量闭门会:“比技术更重要的是愿景” 【更多信息】 联络我们:微博@张小珺-Benita,小红书@张小珺 更多信息欢迎关注公众号:张小珺

  • 2025-02-07 / 01:03:08

    1 年前,在我的报道《朱啸虎讲了一个中国现实主义 AIGC 故事》中,他的观点淋漓尽致地展现了一个现实版中国 AI 故事。 他用“我们一看就知道,这个肯定没戏”,“我们一开始就说了,我就不看好大模型”,“ 我都不愿意去聊,你知道吗?这没有意义”,表态绝不会投资 6 家中国大模型创业公司中的任何一家。 然而,时隔 1 年,Allen Zhu 对待通用人工智能的态度出现了惊奇的逆转。 这是朱啸虎现实主义故事的 1 周年连载。希望《商业访谈录》能持续为大家呈现中国 AI 市场的风云变幻与市场中人的心态起伏。2025,期待我们和 AI 共同进步! 我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:) 01:30 DeepSeek 快让我相信 AGI 了 03:08 这是对领先者的 curse、诅咒 05:21 闭源模型还有没有价值?是很严峻的灵魂拷问 06:00 20 天做到 2000 万 DAU:DeepSeek 是全球 App 增速历史第一,不需要任何限定语 07:00 梁文锋觉得,意识不一定是一个非常高技能、高门槛的事情 11:19 不用担心在别人的地基上盖房子,对 AI 应用公司是极大的解放 14:40 初始语料需要博士级别、各个领域专家级别的人来打标签 15:53 DeepSeek 这次唯一没有公开的可能就是预训练语料 17:40 OpenAI 成本很高,如果不能持续保持领先,挑战会挺大 18:09 中国大模型公司都需要重新思考 20:05 今天的 DeepSeek 是追赶者还是创新者角色? 21:02 怎么看梁文锋?梁文锋是你的反面吗? 21:40 我肯定会投啊!我肯定会投!——这个价格已经不太重要了,关键是参与在这里面 22:59 我今天上午和梁文锋说,R1 可能会被认为是机器 AI 意识的元年 24:00 至少搜索肯定是被彻底取代了——这是毫无疑问的! 26:14 AI 产品的数据飞轮价值不大,这是我这两年最大一个教训 27:51 如果你是 DeepSeek CEO,你当下最关切、最紧要需要解决的问题是什么? 31:32 怎么看特朗普上任第二天宣布的 Stargate(星际之门)项目?怎么看英伟达? 33:29 “朱啸虎们”怎么看待“梁文锋们”? 34:07 复盘 1 年前《朱啸虎讲了一个中国现实主义 AIGC 故事》里的观点,哪些被打脸?哪些更坚定? 36:16 尤其在中国,你可以假设底层模型是免费的! 37:07 回顾 2024 年的大模型行业,你会把哪些时刻当作关键节点? 40:45 字节今天如果马上改开源追赶,那也不太容易 41:30 今年会不会看到通义千问把自己的生态向 DeepSeek 兼容,这样一个标志性事件? 42:08 点评新出现的 AI 产品(包括但不限于 Perplexity、Cursor、Devin) 47:39 聊小红书、具身智能、杭州和理想汽车 52:26 现在全世界就只有中美有 AI 能力,出海都是 Low-Hanging Fruits(低垂的果实) 52:57 我今天看到在新加坡的泡泡玛特,买盲盒还要配货,你想到吗?!买盲盒都要配货!! 55:30 答 DeepSeek 问 59:50 最后的快问快答 朱啸虎往期节目: 你们要的朱啸虎,来了 1 年前的报道: 《朱啸虎讲了一个中国现实主义 AIGC 故事》 【更多信息】 联络我们:微博@张小珺-Benita,小红书@张小珺 更多信息欢迎关注公众号:张小珺

00:00
00:00 / 00:00
未播放