张小珺 Jùn|商业访谈录
努力做中国最优质的科技、商业访谈。 张小珺:财经作者,写作中国商业深度报道,范围包括 AI、科技巨头、风险投资和知名人物,也是播客《张小珺 Jùn | 商业访谈录》制作人。 如果我的访谈能陪你走一段孤独的未知的路,也许有一天可以离目的地更近一点,我就很温暖:)
-
2025 年这个春节,DeepSeek 一举改写了全球 AGI 大叙事。在万般热闹之际,我们特别想沉下来做一些基础科普工作。 在《商业访谈录》89 集节目中,我邀请了加州大学伯克利分校人工智能实验室在读博士生潘家怡,为大家对照解读了春节前的 DeepSeek-R1-Zero、R1、Kimi 发布的 K1.5,以及 OpenAI 更早发布的 o1 技术报告。这些模型聚焦的都是大模型最新技术范式,RL 强化学习,简单来说就是 o1 路线。 今天这集,我邀请的是香港科技大学计算机系助理教授何俊贤。他的研究方向是大模型推理,从很早就开始关注 DeepSeek 的系列研究。我们会 focus 在最近引发全球 AI 届关注的 DeepSeek 上。 何老师将带领大家从 DeepSeek 的第 1 篇论文开始,阅读经过挑选的这家公司历史上发布的 9 篇论文。 我们希望帮助大家从一个更延续、更长期、也更技术底层的视角来理解 DeepSeek,以及它所做的复现与创新工作;与此同时也希望能让更多人感受到技术之美。 (如果如果,你觉得光听还不够刺激,觉得一定要坐在电脑前看着投屏、拿起纸笔学习更有沉浸感…如果你实在是真心想要找虐的话…请前往:含投屏的视频版本。嘿嘿!预祝你学习顺利啦!2025 我们和 AI 共同进步!)我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:)03:01 讲解开始前,先提问几个小问题整体风格:Open、Honest、低调、严谨的科学态度 DeepSeek 基座模型 21:00 《DeepSeek LLM Scaling Open-Source Language Models with Longtermism》技术讲解 45:48 《DeepSeekMoE: Towards Ultimate Expert Specialization in Mixture-of-Experts Language Models》技术讲解 01:06:40 《DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language Model》技术讲解 01:40:17 《DeepSeek-V3 Technical Report》技术讲解 DeepSeek 推理模型 02:05:03 《DeepSeek-Coder: When the Large Language Model Meets Programming - The Rise of Code Intelligence》技术讲解 02:12:16 《DeepSeek-Coder-V2: Breaking the Barrier of Closed-Source Models in Code Intelligence》技术讲解 02:47:18 《DeepSeek-Prover: Advancing Theorem Proving in LLMs through Large-Scale Synthetic Data》和《DeepSeek-Prover-V1.5: Harnessing Proof Assistant Feedback for Reinforcement Learning and Monte-Carlo Tree Search》技术讲解 02:52:40 《DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》技术讲解 03:01:41 9 篇论文到这里都讲完啦!最后我们一起强化学习一下!关于强化学习往期节目: AGI 范式大转移:和广密预言草莓、OpenAI o1 和 self-play RL|全球大模型季报 4 和 OpenAI 前研究员吴翼解读 o1:吹响了开挖第二座金矿的号角 王小川返场谈 o1 与强化学习:摸到了一条从快思考走向慢思考的路 逐句讲解 DeepSeek-R1、Kimi K1.5、OpenAI o1 技术报告——“最优美的算法最干净” 开源一场关于 DeepSeek 的高质量闭门会: 一场关于 DeepSeek 的高质量闭门会:“比技术更重要的是愿景” 【更多信息】 联络我们:微博@张小珺-Benita,小红书@张小珺 更多信息欢迎关注公众号:张小珺
-
1 年前,在我的报道《朱啸虎讲了一个中国现实主义 AIGC 故事》中,他的观点淋漓尽致地展现了一个现实版中国 AI 故事。 他用“我们一看就知道,这个肯定没戏”,“我们一开始就说了,我就不看好大模型”,“ 我都不愿意去聊,你知道吗?这没有意义”,表态绝不会投资 6 家中国大模型创业公司中的任何一家。 然而,时隔 1 年,Allen Zhu 对待通用人工智能的态度出现了惊奇的逆转。 这是朱啸虎现实主义故事的 1 周年连载。希望《商业访谈录》能持续为大家呈现中国 AI 市场的风云变幻与市场中人的心态起伏。2025,期待我们和 AI 共同进步! 我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:) 01:30 DeepSeek 快让我相信 AGI 了 03:08 这是对领先者的 curse、诅咒 05:21 闭源模型还有没有价值?是很严峻的灵魂拷问 06:00 20 天做到 2000 万 DAU:DeepSeek 是全球 App 增速历史第一,不需要任何限定语 07:00 梁文锋觉得,意识不一定是一个非常高技能、高门槛的事情 11:19 不用担心在别人的地基上盖房子,对 AI 应用公司是极大的解放 14:40 初始语料需要博士级别、各个领域专家级别的人来打标签 15:53 DeepSeek 这次唯一没有公开的可能就是预训练语料 17:40 OpenAI 成本很高,如果不能持续保持领先,挑战会挺大 18:09 中国大模型公司都需要重新思考 20:05 今天的 DeepSeek 是追赶者还是创新者角色? 21:02 怎么看梁文锋?梁文锋是你的反面吗? 21:40 我肯定会投啊!我肯定会投!——这个价格已经不太重要了,关键是参与在这里面 22:59 我今天上午和梁文锋说,R1 可能会被认为是机器 AI 意识的元年 24:00 至少搜索肯定是被彻底取代了——这是毫无疑问的! 26:14 AI 产品的数据飞轮价值不大,这是我这两年最大一个教训 27:51 如果你是 DeepSeek CEO,你当下最关切、最紧要需要解决的问题是什么? 31:32 怎么看特朗普上任第二天宣布的 Stargate(星际之门)项目?怎么看英伟达? 33:29 “朱啸虎们”怎么看待“梁文锋们”? 34:07 复盘 1 年前《朱啸虎讲了一个中国现实主义 AIGC 故事》里的观点,哪些被打脸?哪些更坚定? 36:16 尤其在中国,你可以假设底层模型是免费的! 37:07 回顾 2024 年的大模型行业,你会把哪些时刻当作关键节点? 40:45 字节今天如果马上改开源追赶,那也不太容易 41:30 今年会不会看到通义千问把自己的生态向 DeepSeek 兼容,这样一个标志性事件? 42:08 点评新出现的 AI 产品(包括但不限于 Perplexity、Cursor、Devin) 47:39 聊小红书、具身智能、杭州和理想汽车 52:26 现在全世界就只有中美有 AI 能力,出海都是 Low-Hanging Fruits(低垂的果实) 52:57 我今天看到在新加坡的泡泡玛特,买盲盒还要配货,你想到吗?!买盲盒都要配货!! 55:30 答 DeepSeek 问 59:50 最后的快问快答 朱啸虎往期节目: 你们要的朱啸虎,来了 1 年前的报道: 《朱啸虎讲了一个中国现实主义 AIGC 故事》 【更多信息】 联络我们:微博@张小珺-Benita,小红书@张小珺 更多信息欢迎关注公众号:张小珺
-
2025 年这个春节,DeepSeek 一举改写了全球 AGI 大叙事。在万般热闹之际,我们特别想沉下来做一些基础科普工作,一起来研读这几篇关键的技术报道。 今天这集节目,我邀请加州大学伯克利分校人工智能实验室在读博士生潘家怡,来做技术解读。他的研究方向是语言模型的后训练。 这期播客中,家怡将带着大家一起来读,春节前 DeepSeek 发布的关键技术报告,他在报告中发布了两个模型 DeepSeek-R1-Zero 和 DeepSeek-R1;并对照讲解 Kimi 发布的 K1.5 技术报告,以及 OpenAI 更早之前发布的 o1 的技术博客,当然也会聊到它春节紧急发布的 o3-mini。这几个模型聚焦的都是大模型最新技术范式,RL 强化学习。 希望我们的节目能帮更多人一起读懂这几篇论文,感受算法之美,并且准确理解目前的技术拐点。 (以下每篇技术报告都附了链接,欢迎大家打开 paper 收听✌️) 期待 2025,我们和 AI 共同进步! 【嘉宾小记】 加州大学伯克利分校人工智能实验室在读博士生,上海交通大学本科毕业。他的研究方向主要集中在语言模型的后训练领域,通过强化学习等方法提升 AI 在智能体行为决策与推理方面的能力。这是他做的有关 R1-Zero 小规模复现工作:github.com 我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:)03:46 讲解开始前,先提问几个小问题 16:06 OpenAI o1 技术报告《Learning to reason with LLMs》讲解报告链接:openai.com 中文标题翻译:《让大语言模型学会推理》 OpenAI 在报告中有几个重点: Reinforcement Learning — 强化学习 It learns to recognize and correct its mistakes. It learns to break down tricky steps into simpler ones. It learns to try a different approach when the current one isn’t working. (它学会识别并纠正自己的错误,学会将复杂的步骤分解为更简单的步骤,学会在当前方法行不通时尝试不同的解决途径。)这些是模型自己学的,不是人教的。 我们还在技术早期,他们认为这个技术可拓展,后续性能会很快攀升。 33:03 DeepSeek-R1-Zero and DeepSeek-R1 技术报告《DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》讲解报告链接:github.com 中文标题翻译:《DeepSeek-R1:通过强化学习激励大语言模型的推理能力》 35:24 摘要(Abstract) 37:39 导论(Introduction) 44:35 发布的两个模型中,R1-Zero 更重要还是 R1 更重要? 47:14 研究方法(Approach) 48:13 GRPO(Group Relative Policy Optimization,一种与强化学习相关的优化算法) 57:22 奖励建模(Reward Modeling) 01:05:01 训练模版(Training Template) 01:06:43 R1-Zero 的性能、自我进化过程和顿悟时刻(Performance, Self-evolution Process and Aha Moment) 值得注意的是,“Aha Moment”(顿悟时刻)是本篇论文的高潮: 报告称,在训练 DeepSeek-R1-Zero 的过程中,观察到一个特别引人入胜的现象,即“顿悟时刻”。这一时刻出现在模型的中间版本中。在这个阶段,DeepSeek-R1-Zero 通过重新评估其最初的方法,学会了为一个问题分配更多的思考时间。这种行为不仅是模型推理能力不断增长的有力证明,也是强化学习可能带来意想不到且复杂结果的一个迷人例证。 这一时刻不仅是模型的“顿悟时刻”,也是观察其行为的研究人员的“顿悟时刻”。它凸显了强化学习的力量与美感:我们并没有明确地教导模型如何解决问题,而是仅仅为其提供了正确的激励,它便自主地发展出高级的问题解决策略。这种“顿悟时刻”有力地提醒我们,强化学习有潜力在人工智能系统中解锁新的智能水平,为未来更具自主性和适应性的模型铺平了道路。 01:14:52 模型能涌现意识吗? 01:16:18 DeepSeek-R1:冷启动强化学习( Reinforcement Learning with Cold Start) 01:24:48 为什么同时发布两个模型?取名“Zero”的渊源故事? 01:28:51 蒸馏:赋予小模型推理能力(Distillation: Empower Small Models with Reasoning Capability) 01:35:27 失败的尝试:过程奖励模型(PRM)与蒙特卡罗树搜索(MCTS) 01:42:33 DeepSeek-R1 技术报告是一片优美精妙的算法论文,有很多“发现”,这是它成为爆款报告的原因 01:43:50 对 DeepSeek-R1 训练成本的估算: 往高里估,一万步 GRPO 更新, 每步就算 1000 的 batch size(试一千次),一次算一万个 token;模型更新用的 $2.2 / 1M tokens, 总共是 100B tokens — 0.22M 算上效率损失,模型训练也有一定开销,说破天也就 1M;如果优化的话很有可能只有 10 万美金左右的成本 相比之下,预训练用了 600 万美金,相当便宜 01:49:05 KIMI K1.5 技术报告《KIMI K1.5: SCALING REINFORCEMENT LEARNING WITH LLMS》讲解中文标题翻译:《KIMI K1.5:利用大语言模型扩展强化学习》 报告链接:arxiv.org 该报告公开了许多技术技巧细节,对于想要复现的人,两篇 paper 一起使用更佳。如,数据构造、长度惩罚、数学奖励建模、思维链奖励模型、异步测试、Long2short、消融实验等。 02:20:07 DeepSeek 论文的结尾谈未来往哪里发展? 02:24:35 以上是三篇报告所有内容,接下来是提问时间,我们继续强化学习一下!“数据标注”在几篇论文中藏得都比较深,小道消息 OpenAI 一直以 100-200 美元/小时找博士生标数据 “DeepSeek 的论文隐藏了技术细节,但把算法的精妙之处和美展现给你,让你感受技术之美,给你震撼。” 它解密了后训练范式革命可以何处去,让你发现原来算法这么简单! 再一次验证——“最优美的算法永远是最干净的。” 关于强化学习往期节目: AGI 范式大转移:和广密预言草莓、OpenAI o1 和 self-play RL|全球大模型季报 4 和 OpenAI 前研究员吴翼解读 o1:吹响了开挖第二座金矿的号角 王小川返场谈 o1 与强化学习:摸到了一条从快思考走向慢思考的路 开源一场关于 DeepSeek 的高质量闭门会: 一场关于 DeepSeek 的高质量闭门会:“比技术更重要的是愿景” 【更多信息】 联络我们:微博@张小珺-Benita,小红书@张小珺 更多信息欢迎关注公众号:张小珺
-
2025 刚开年,全球 AI 届就已高度共识,将 2025 年定义为“智能体元年”。 北京时间 1 月 24 日凌晨,OpenAI 率先抢跑,发布智能体产品 Operator(操作员),打响了全球智能体竞赛的第一枪。 在 Operator 发布前,广密在我们的节目中预言,25 年核心关键词是 Agent、Agent、Agent,这些 AI 产品最终会演变成一个任务容器,朝着“下一个 Google”方向进发。 本集节目,在 Operator 发布后,我邀请前 OpenAI 研究员、清华叉院信息研究院助理教授吴翼,从技术视角解读 Operator 和 Agent 之年。 我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:) 02:55 对 Operator 的感官感受 04:19 Operator 在 AGI 路线图上的地标:多模态、连续交互、闭环控制系统 06:34 OpenAI 内部还有更好的模型,智力会刷得很高,Operator 带有泛化性 08:17 Operator 是多模态、闭环的 o1,一个 Agent o1 的版本 08:57 为什么 Operator 是单独入口? 11:13 Operator 包含的技术要点:基座模型、高质量数据集、高效大规模支持 Agent 的强化学习系统 14:10 有关 Operator 底层用的新模型:Computer-Using-Agent(CUA) 19:02 2025 是 Agent 之年:多模态模型+强化学习 20:49 回溯到 2016 年,OpenAI 成立后第一个大项目就是 Web Agent,但失败了 22:40 OpenAI 的 5 级分类:聊天机器人 Chatbots〉推理者 Reasoners〉智能主体 Agents〉创新者 Innovators〉组织 Organizations,技术演进轨迹,人类参与越来越少 31:26 Operator 在与人类协作时,如何平衡自主决策和人类指令的优先级? 32:30 Operator 怎么整合语言、视觉和动作等不同模态的信息? 34:11 Operator 能否支持与其他 Agent 的协作?这种协作的机制是什么? 38:45 广密说 Chatbot 不是提取智能最有效的交互方式,Operator 能有效提取智能吗? 42:14 OpenAI 智能提升与更多产品的关系 49:48 Agent 这个词从博弈论进入人工智能,现在指大语言模型调用外部世界 54:29 Agent 中有创业公司的机会吗? 58:57 Operator 释放了信号:逻辑推理从抽象世界走向视觉物理世界的开端 01:02:27 如果 Agent 在未来成为主流,人类与 AI 的协作方式会发生哪些变化? 01:06:46 大公司全部开着重装坦克往前走,其他人怎么办? 预言单集:大模型季报年终特辑:和广密预言 LLM 产品超越 Google 之路 吴翼往期:和 OpenAI 前研究员吴翼解读 o1:吹响了开挖第二座金矿的号角 【更多信息】 联络我们:微博@张小珺-Benita,小红书@张小珺 更多信息欢迎关注公众号:张小珺
-
这里是《张小珺商业访谈录》2025 年与大家见面的第 1 集节目,我邀请的嘉宾是理想汽车创始人兼 CEO 李想。 2024 年 12 月,理想将车机助手理想同学作为手机版 App 推出,并于此前做了基座大模型。这相当于,这家人们认知中的新能源车企,要跨界参与到与字节豆包、Kimi 等个人助手的红海之战。 这场对话涵盖了这名非技术背景、被认为在产品上有天赋的创始人,过去两年对人工智能完整的技术与产品观的思考。他也首度谈了谈,MEGA 失利、苹果放弃造车、雷军造车成功、如果他当了 OpenAI CEO、理想会做机器人吗、怎么管理 00 后等各种话题。 此外,播客还放出了一部分加长版聊天。这部分和此前两小时会稍微有一些重复,保留的都是一些觉得李想有增量表达,也许能给大家一些启发的地方(如果不想听,可以直接跳过)。 同时,这部分偏后的篇幅会更加个人,聊了聊一名宅男的日常生活,他长达几十年的玩游戏史,改变过他的游戏,以及从游戏中获得的世界观。 祝大家 2025 年,正直勇敢有阅读量:) 我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:)02:55 第一节:谈人工智能 1. 我绝对不止做一棵树了 2. 你都不能让你雇的人相信,你怎么让大众相信? 3. 我做 OpenAI CEO 会比 Sam Altman 更好吗? 4. 理想同学+Mind GPT 要去和豆包、Kimi 竞争了? 5. 基座模型是操作系统+编程语言 6. L4 就是智能体 7. 终极产品想象是硅基家人 8. 人工智能表达的是能力,不是功能 9. 李想有理想吗? 56:12 第二节:谈智能驾驶 1. 三年我们能推出把方向盘摘掉的产品 2. 我们相比特斯拉又不缺胳膊少腿 3. L4 实现,买车的人会更多 4. 我们 100%会做机器人,但不是现在 01:17:50 第三节:谈汽车之战 1. 买法拉利 2. 复盘 MEGA 失利 3. 今天做的所有事是为了拿 L4 门票 4. 对雷军说,小米车要想成功,你必须 all in 5. 2030 年,我们有概率做一辆超级跑车 6. 我从来没有司机 01:42:47 第四节:消失的李想 1. 典型的李想的一天 2. AI 是知识、认知和能力平权 3. 我人生最大改变是,对自己好 4. 从对事不对人,到先对人再做事 5. 只要所有的中国企业不放弃 02:08:42 以上是对李想的正式访谈内容,以下是播客的加长内容。 02:08:42 补充内容(可跳过) 02:31:49 宅男、家庭、孩子、《再见爱人》、游戏和天梯 02:49:24 最后的快问快答 嘉宾推荐的书: 《高效能人士的七个习惯》 苹果三部曲:《史蒂夫·乔布斯传》《蒂姆·库克传》《乔纳森传》 【更多信息】 本集文字版本:腾讯新闻原文 & 作者的收藏夹 联络我们:微博@张小珺-Benita,小红书@张小珺 jùn 更多信息欢迎关注公众号:张小珺
-
今天这集是我和广密【全球大模型季报】第 5 集,是 2024 年 Q4 季报,也是我们录制的第二次跨年特辑。 提前和大家见面啦:) 这次你会发现,我们的聊天篇幅开始从大模型技术转向对大模型产品的探讨。很大概率来说,产品会是 2025 年 AI 的最大趋势之一。AI 产品会如何落地?产品形态又会如何演变? 广密带来了最新猜想。他提出,过去半年他最强烈的认知变化是,不管国外的 ChatGPT、Anthropic、xAI、Perplexity,还是国内的豆包、Kimi,甚至是做 Coding 相关的 Cursor、Devin……虽然各个产品的产品形态不一,从不同路径发散,但最后会殊途同归。他们最终很可能收敛到同一个叙事之下,争夺同一片领地。 很开心转眼之间,【全球大模型季报】已经陪伴大家 1 年,明年仍然希望这个系列能持续地帮大家了解最前沿的 AGI 动态并带来认知进化。 本集是《张小珺 Jùn|商业访谈录》和《海外独角兽》的串台节目。我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯。02:33 Part 1: OpenAI ChatGPT 本质是奔着“下一个 Google”方向去了,如何 beat Google 是最大的牌 一定要逛计算机历史博物馆,理解“计算架构+信息分发”演变的主线逻辑 Google 也是从 Yahoo 边缘市场撑大做起来,伟大公司是从边缘市场起来 小红书非常有意思,融合了搜索+推荐+问答+做任务一体化 这些产品最终的最终会变成任务引擎、任务容器,是下一个 Google 电商过去最核心的是 GMV,订单转化率,AI 时代我感觉是任务完成率 Chatbot 对话形态大概率不是提取智能最有效的交互方式,模型如何更主动? 可能的一个产品形态是个人助理或者超级助理 Context 非常核心,绝大多数人都还没意识到,是一条关键的暗线 如果 AI 的生成能力增强了,未来会生成的是什么?Mobile 最大增量是内容,LLM 最大增量新型软件 既然这些 LLM 产品想成为 Google 已经变成了一张明牌,你觉得 Google 有能力阻止这件事发生吗? “下一个 Google”的产品,会是一家垄断吗? 微软和 OpenAI 同床异梦,微软可能会投资 Anthropic 51:04 Part 2: 硅谷其他 AI 公司和产品 Anthropic:得 Coding,得开发者,得 API 消耗,有机会得生态,做 OS Anthropic 比较专注 Agent,怎么让 Agent 更快落地是更高优先级 Killer App 长期要有竞争力,要端到端垂直整合能力,向下优化,优化成本、模型架构、模型大小、调整模型数据分布、甚至向下优化推理芯片 xAI:还是注定要成功,但是 upside 还有多少不太确定 Perplexity:更像是一个信息处理的 Agent Cursor:Coding 产品形态要快速迭代,之前补全下一个代码,Cursor 补全下一个 Action,明年可能端到端生成软件 Devin:第一个真正意义上做长距离复杂任务的 Agent,明年最具有商业价值的是 long horizon Agent(长期规划智能体) Mistral:已经不用再关注了,他们内部也正式放弃预训练了 01:02:24 Part 3: 对 2025/2026 关键预言性判断 1/ Long horizon task 是下个重点,重要核心圈子几个大佬级人物都在重点做 2/ 产品形态的探索,全新的交互界面 3/ AI 商业模式的探索,今天商业模式还是移动梦网时代 4/ 高质量+scalable 的数据,尤其是各个垂直行业里面,有没有几千条甚至上万条,任务+Reward 数据,要高水平专家标注 5/ GPT-5/4.5 Orion:提升能有多大 6/ O1 后面天花板走到哪:大规模 scale RL/o1 之后会怎么样,会不会很快遇到瓶颈 7/ 假设 Coding 能力明年提升 10 倍,软件开发范式怎么改变 8/ Context 很重要,大家都还不够重视 创业公司没法同时做好这么多,得找锋利的切入点,一根针捅破天 01:11:11 Part 4: 再谈 Scaling Law Ilya 最近提的 pretrain data wall(预训练数据壁垒)是什么? 后训练中有一个关键问题是奖励模型(reward model),整个地球上没有一个 reward model 衡量所有人,你相信会未来有吗? O1 系列天花板会卡在哪?这条路通往 AGI 吗? Scaling Law 关键阻碍不是算力,不是算法,是 data 问题 ChatGPT 有数据飞轮吗?未来会出现吗?哪些产品里有高价值数据? 01:22:19 Part 5: 复盘 2024 回顾一下,能定义 2024 年全球大模型产业的关键时刻? 全球大模型又狂卷一年,卷出了什么? 今天想要进入决赛圈,条件是什么? 哪些去年的判断你今天更坚信了,哪些去年的判断你今天认知有改变? Mega7 巨头里面最看好哪个? 硅谷人才在流向哪几家公司? 明年如果只投一个方向,投什么? 这一轮大的机会,我总结是这 3 个…… 2024 关键词?2025 关键词? 【全球大模型季报】系列 2023 年:口述全球大模型这一年:人类千亿科学豪赌与参差的中美景观 2024 年 Q1:和广密聊 AGI 大基建时代:电+芯片=产出智能 2024 年 Q2:口述全球大模型这半年:Perplexity 突然火爆和尚未爆发的 AI 应用生态 2024 年 Q3:AGI 范式大转移:和广密预言草莓、OpenAI o1 和 self-play RL 【更多信息】 联络我们:微博@张小珺-Benita,小红书@张小珺 jùn 更多信息欢迎关注公众号:张小珺
-
Kevin Xu 曾经参加奥巴马总统竞选,并在美国商务部和白宫都工作过。今天,我邀请他来聊聊美国总统大选的幕后故事。 由于 Kevin 在科技业从业多年,他提供了一种有意思的视角来看美国政治与大选活动——总统候选人作为一个产品,它在走向市场的过程中,如何与国家叙事实现 PMF(Product Market Fit,产品市场匹配度)? 我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:) 01:30 自我介绍 02:23 22 岁参与奥巴马竞选团队,后担任他在白宫的新闻助理 03:13 美国大选的框架:scale up、地推、集资、媒体… 06:46 大选就是把产品(候选人)和市场(国家环境)做 Product Market Fit 08:25 总统竞选成员每天具体在干嘛? 14:31 大选输赢对于竞选团队成员的职业生涯有多大影响? 15:30 大选怎么获胜?“首先你的产品要好” 19:25 从商务部(骆家辉任上)到白宫新闻部,给奥巴马写新闻稿 22:08 特朗普的胜选在预期内,有些与 08 年雷同 25:09 特朗普是个好产品吗?共和党缘何胜利?民主党缘何惨败? 30:12 奥巴马这个产品如果放在现在,还能 fit 今天的美国吗? 31:35 哈里斯是一个仓促的、还没有准备好的产品? 32:19 我在大选框架中亲历 4 次,大选当天都是枯燥的一天 33:36 是共和党跟着特朗普走,不是特朗普跟着共和党走,特朗普就是特朗普 34:50 特朗普如何争取硅谷精英选票?他对美国科技业的后续影响? 【更多信息】 联络我们:微博@张小珺-Benita,小红书@张小珺 jùn 更多信息欢迎关注公众号:张小珺
-
做这集节目是因为,我想看看那些融了很多钱的 AI 创业者在干嘛?他们似乎已经很久不出来发声了,把整个舆论场留给几家基础大模型公司和巨头们。 本集嘉宾是深言科技创始人岂凡超。 他公司的融资规模没有大模型公司那么大,但相比一般的创业者,也已经属于账上有非常多钱的了。在去年融资中,估值 12 亿元人民币。拿了这么多钱找方向,做了 1 年,他们现在怎么样了? 这是岂凡超第一次接受访谈。 我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:) 01:48 自我介绍 02:45 94 年,博士还没毕业开始创业 12:49 清华 AI 创业的脉络和门派 14:34 ChatGPT 之前,见了 100 个投资人 22:18 ChatGPT 之后,资本环境发生过山车式的变化 25:39 23 年下半年开始发现差异化训模型变难,于是战略转型 29:30 不认可模型即产品,未来没有模型公司 33:50 我们产品有 5 个模型组合,试图解决模型输出不确定性 40:11 产品构想:新闻阅读?信息助手? 42:40 内容生产消费分发变迁史 44:52 内容是信息的载体,从以内容为颗粒度到以信息为颗粒度 53:36 内容生产消费链路变化,重心一直从内容创作者往消费者移 56:49 新一代创作者会是什么样? 60:06 刚上线的产品:语鲸 70:30 聊聊好产品:Cursor、NotebookLM、Perplexity 73:55 创业像航海,没有航海图 81:18 我干的一件很蠢的事 83:18 90 后 CEO 幼稚吗?大发雷霆吗?两面三刀吗?画饼吗?喜欢管理者做信息差管理吗? 88:28 大模型输出的不确定性很大程度影响 AI 组织 102:15 最后的快问快答 嘉宾推荐的书: 《自私的基因》 《学会提问:批判性思维指南》 【更多信息】 联络我们:微博@张小珺-Benita,小红书@张小珺 jùn 更多信息欢迎关注公众号:张小珺
-
最近关于英伟达战略和组织的新书《英伟达之道》上线,这本书的作者 Tae Kim 专访了黄仁勋。我邀请本书译者和上过我们节目的王亚军来聊聊:黄仁勋和 3 万亿美元英伟达是如何炼成的? 我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:) 02:45 黄仁勋的危机感来源:移民家庭、在“问题少年学校”受霸凌 09:54 服务员黄仁勋特别不喜欢顾客点奶昔 16:16 英伟达的三位创始人和创办(黄仁勋、普里姆和马拉科夫斯基) 22:05 Nvidia 为什么叫 Nvidia:要成为让所有人嫉妒的公司? 23:52 英伟达发展的三个阶段:从 NV1、NV2 的败笔开始 36:22 细数英伟达发展史上的重大战略决策,成功的和再次失败的 48:57 黄仁勋怎么治理公司?白板文化、Top 5、机长、“战略不是文字,是行动”、“运送一整头牛”… 01:30:16 联合创始人普里姆的离开,黄仁勋没有二号位 01:33:11 3 万亿美元英伟达是如何炼成的? 往期英伟达节目:谈谈黄仁勋搭建的组织系统:分布式操作系统,“就像一台 GPU” 【更多信息】 联络我们:微博@张小珺-Benita,小红书@张小珺 jùn 更多信息欢迎关注公众号:张小珺
-
最近,我访谈了以太坊联合创始人 Vitalik Buterin,他站在加密技术(Crypto)的彼岸远眺人工智能技术。 Vitalik 是俄裔加拿大人,出生于 1994 年,19 岁大学辍学创立以太坊,20 多岁成了最年轻的加密亿万富翁。在中国,人们称他“V 神”。 他试图阐述一种技术哲学观。在他的认知中,AI 和 Crypto 代表的是两种底层哲学。AI 更中心化、富有权力,它可能正在构建史无前例的强大权力中枢;而 Crypto 相反,倡导的是一种去中心、平等的生存主义哲学。 技术革命或将推动关乎人类命运的“权力游戏”。 我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:) 02:00 我会 6 门语言 05:00 站在 Crypto 技术浪潮那一端看人工智能革命,在想什么? 10:03 AI 是非常有权力的,ChatGPT 是非常中心化的应用 13:35 OpenAI 第一步为了安全牺牲了开源,第二步为了利益牺牲了安全 28:21 如果人工智能的终极势力抑或是“老大哥”要毁灭人类… 35:18 比人类更聪明的东西一定会出现,有两种选择 37:56 Crypto 和 AI 可以如何结合? 41:13 如果我们行业就是发个币、做个交易所,这个行业是失败的 44:44 为什么以太坊生态或 Web3 生态依然没有实际应用? 46:40 中心化的应用 vs 去中心化的应用(提到的产品名:Farcaster、Twitter、Warpcast、Firefly) 53:30 如何看待 Crypto 行业中的投机分子? 56:19 谈自己:生活、思考、恐惧 【更多信息】 本集文字版本:腾讯新闻原文 & 作者版本 联络我们:微博@张小珺-Benita,小红书@张小珺 jùn 更多信息欢迎关注公众号:张小珺