给软件开发者准备的优质简报,每日阅读 10分钟。
OpenAI closes funding round at an $852B valuation
OpenAI以8520亿美元估值完成1220亿美元创纪录融资轮
- OpenAI宣布完成总额1220亿美元的融资轮,投后估值达8520亿美元,较2月份公布的1100亿美元初步承诺有所增长
- 软银领投本轮融资,Andreessen Horowitz和D. E. Shaw Ventures参与;微软作为长期合作伙伴也参与投资,但具体金额未披露(截至去年底微软已投资超130亿美元)
- 本轮融资首次通过银行渠道向更广泛的投资者开放,从个人投资者处筹集30亿美元;此前亚马逊、英伟达和软银作为战略投资者分别承诺投入500亿、300亿和300亿美元
- ChatGPT目前拥有超9亿周活跃用户和超5000万订阅用户;公司每月收入达20亿美元,去年总收入131亿美元,但仍在消耗现金且尚未盈利
- 为控制成本,公司已缩减部分重大支出计划,关闭了包括Sora短视频应用在内的部分功能和产品
- 随着IPO预期增强,CEO萨姆·奥特曼面临证明公司高估值的压力
Claude Code Unpacked : A visual guide
Claude Code 源代码解析平台 Claude Code Unpacked
- Claude Code Unpacked 是一个第三方非官方项目,基于公开源代码深入分析 Claude Code 的内部实现,展示了从按键输入到终端渲染响应的完整技术流程,与 Anthropic 公司无关联。
- 系统核心为 11步智能体循环:输入(键盘/stdin)→消息→历史→系统→API→令牌→工具调用→循环→渲染→钩子→等待,每一步均有对应源代码文件可追溯。
- Claude Code 内置 52个工具,分为8大类:文件操作(6个)、执行(3个)、搜索与获取(4个)、智能体与任务(11个)、规划(5个)、MCP(4个)、系统(11个)、实验性(8个)。
- 系统提供 95个斜杠命令,分为5大类别:设置与配置(12个)、日常工作流(24个)、代码审查与Git(13个)、调试与诊断(23个)、高级与实验性(23个)。
- 源代码中隐藏了 8个未发布功能:终端虚拟宠物(Buddy,根据账户ID生成物种和稀有度)、持久记忆模式(Kairos,支持会话间的记忆整合)、超长时规划(UltraPlan,支持30分钟执行窗口)、多智能体协调者模式(Coordinator Mode,在隔离的git worktree中并行处理)、远程控制桥接(Bridge)、后台守护进程(Daemon Mode,基于tmux)、Unix域套接字通信(UDS Inbox)、会话自动学习总结(Auto-Dream)。
EmDash – a spiritual successor to WordPress that solves plugin security
EmDash:解决WordPress插件安全问题的全新开源CMS
- EmDash是一个完全使用TypeScript重写的开源CMS,基于Astro框架构建,采用MIT许可证,定位为WordPress的精神继承者,旨在功能兼容但未使用任何WordPress代码。
- 其核心安全创新在于插件架构:每个插件都在独立的Dynamic Worker沙箱中运行,只能执行其清单中明确声明的权限,从根本上解决了WordPress中96%安全漏洞源于插件的问题。
- 采用无服务器架构,可部署在Cloudflare Workers或任何Node.js服务器上,实现真正的按需扩展至零,并且仅按实际消耗的CPU时间计费。
- 内置x402开放支付标准支持,使网站无需额外开发即可为内容设置按次付费,为AI代理时代的内容创作者提供了内置的商业模式。
- 作为AI原生CMS,提供了内置的MCP服务器、CLI工具和Agent Skills,使AI代理能以编程方式管理网站,包括内容操作、插件开发和WordPress主题迁移。
- 默认采用基于通行密钥的无密码认证,支持可插拔的身份验证,并提供了便捷工具,可将现有WordPress站点(包括自定义内容类型和媒体)完整迁移至EmDash。
A dot a day keeps the clutter away
点贴系统:用3美元贴纸解决零件收纳难题
- 核心机制:首先淘汰所有不透明收纳容器,改用统一规格透明收纳箱;每次使用一个箱子就贴一个彩色圆点,同一天多次使用仅贴一个点,每年用不同颜色区分,系统已坚持四年
- 量化价值:通过累计每个盒子每年的使用天数,直观量化真实使用频率,帮助判断哪些零件值得保留、哪些长期闲置应淘汰——弥合直觉与数据之间的认知鸿沟
- 意外发现:跨项目通用零件(胶带、电池、磁铁、通用连接器、DC-DC转换器、USB-C线缆)使用频率最高;传感器、压电模块、专用连接器因过于垂直化而使用较少;示波器和函数信号发生器四年仅分别获得5个和2个点
- 收纳层级:透明收纳箱作为顶层目录,厚实透明袋子作为子目录细分品类(每箱约10袋,每袋约10个分类),形成类似文件系统结构的层级体系,参照Johnny Decimal系统理念
- 三层存储:高频使用盒子放在桌面15英尺内("热区"),低频使用放入实验室柜子("温区"),长期无使用记录则移至外部储藏棚("冷区"),冷区长期未动用物品最终捐赠或出售
- 实践要点:标签贴在箱体正面而非盖子上、日期标注所有物品和袋子形成时间胶囊、贴纸分散放置确保两秒内可贴上、所有物品都有固定归属;仅对使用频率模糊的物品贴点,实验室支柱工具无需测量
Ask HN: Who is hiring? (April 2026)
2026年4月Hacker News"谁在招聘?"帖子精华
- Hacker News官方账号"whoishiring"发布的月度招聘帖,发布4小时获139票赞成、114条评论,收录逾百个来自各规模公司的岗位,要求发帖者必须是公司内部人员而非第三方,并明确标注REMOTE/HYBRID/ONSITE工作模式。
- 多家AI公司获大额融资:Norm Ai获1.4亿美元(黑石、贝恩、Vanguard等投资),PhysicsX将计算流体动力学模拟从数天压缩至毫秒级推理,Nuance Labs研发"人类情感基础模型"实现语音/表情/肢体语言实时理解,Prior Labs的TabPFN模型发表在Nature并获300万次下载。
- 技术栈以Rust、Python、TypeScript为主流,分布式系统、Kubernetes、LLM/Agent开发经验被普遍强调;薪资差距悬殊,初级工程师最高达30万美元+股权(Mechanize),高级工程职位普遍在19-28万美元区间(Norm Ai)。
- 行业分布涵盖核能(Oklo先进裂变反应堆)、建筑机器人(Monumental自主砌砖系统)、医疗AI(多家公司)、量化金融(Quadrature无交易员纯AI交易)、体育科技(GameBrain AI体育分析)、航空(Archer电动飞机、Beacon AI驾驶舱系统)等领域。
- 公司规模从4人的Conductor(今年增长10倍、刚获2200万美元A轮)到300+人的DuckDuckGo皆有招聘;约半数岗位支持完全远程,地域覆盖北美、欧洲及全球多个国家。
Show HN: Zerobox – Sandbox any command with file, network, credential controls
Zerobox:基于 OpenAI Codex 沙箱运行时的轻量级跨平台进程隔离工具
- 由 OpenAI Codex 沙箱运行时提供支持的进程隔离工具,支持 macOS 和 Linux,Windows 支持正在规划中
- 默认拒绝模式:文件写入、网络访问和环境变量默认被阻止,除非显式配置允许
- 凭据注入:API 密钥等敏感信息在沙箱进程内部显示为占位符(ZEROBOX_SECRET_xxx),真实值仅在网络代理层对授权域名进行替换注入
- 精确的访问控制粒度:支持按路径控制文件读写、按域名过滤网络出站流量,并可灵活管理环境变量继承规则
- 提供 TypeScript SDK(
import { Sandbox } from "zerobox"),支持模板标签语法和 Deno 风格 API,可实现逐工具级别的沙箱隔离 - 单二进制部署,无需 Docker 或虚拟机,性能开销极低(命令执行增加约 10ms 延迟,内存增加约 7MB)
- 典型使用场景:安全运行 AI 生成的代码、限制 LLM 工具调用权限、保护代码仓库在构建和测试过程中的安全
StepFun 3.5 Flash is #1 cost-effective model for OpenClaw tasks (300 battles)
OpenClaw竞技场AI模型性能排名:头部与尾部的巨大鸿沟
- OpenClaw竞技场通过真实任务对战评估AI模型性能,排名范围(Rank Spread)反映排名确定性——范围越窄,对模型真实排名的把握越高
- 前两名模型以绝对优势领跑:Step 3.5 Flash(1327±88)和Grok 4.1 Fast(1274±70),其排名范围均为1-3,表明这两强地位稳固
- 中国模型表现亮眼:Minimax M2.7以1182分位列第三,Glm 5 Turbo仅凭43场对战就冲到第七(1045分),Deepseek V3.2和Kimi K2.5也进入前十
- 尾部模型与头部差距悬殊:第十五名Nemotron 3 Super 120b得分仅568±91,不足第一名的一半
- OpenAI和Anthropic的旗舰模型表现不及预期:GPT-5.4仅排第八,Claude Opus 4.6跌至第十四,Claude Sonnet 4.6排第十二
TurboQuant KV Compression and SSD Expert Streaming for M5 Pro and IOS
SwiftLM:原生 Apple Silicon MLX LLM 推理服务器
- 100% 原生 Apple Silicon 实现:基于 Metal 和 Swift 构建,无 Python 运行时、无 GIL 限制、无不必要的数据拷贝,以单一二进制文件在 Apple 芯片上实现裸机性能
- OpenAI 兼容 API:提供
/v1/chat/completions(支持流式输出和多轮对话)、/v1/models、/health等端点,可直接替换 OpenAI SDK - TurboQuant KV 缓存压缩:采用混合 V2+V3 架构,K-Cache 使用 3-bit PolarQuant + 1-bit QJL(4.25 bits/dim),V-Cache 使用 3-bit PolarQuant(3.125 bits/dim),综合约 3.6 bits/坐标,相比 FP16 压缩 3.5 倍且精度损失接近零
- SSD 专家流式传输(实验性):针对 100B+ MoE 模型设计,零拷贝技术将专家层直接从 NVMe SSD 流式传输到 GPU 命令缓冲区,避免 macOS 统一内存交换导致的 Watchdog 内核崩溃
- 配套 iOS 应用:SwiftLM Chat 支持在 iPhone/iPad 上直接从 HuggingFace 下载 MLX 模型并本地运行,提供下载进度显示、模型目录浏览、RAM 适配提示及 iOS 生命周期加固
- 硬件要求:需 macOS 14.0+、Apple Silicon(M1-M5),在 M5 Pro(64GB 统一内存)上使用 Qwen3.5-122B-A10B-4bit 模型进行测试验证