给软件开发者准备的优质简报,每日阅读 10分钟。
SpaceX says it has agreement to acquire Cursor for $60B
SpaceX与Cursor AI达成战略合作
- SpaceXAI与Cursor AI正式建立合作关系,共同打造世界顶级的编程与知识工作AI
- Cursor AI拥有领先的产品及面向专业软件工程师的分发渠道优势
- SpaceX提供具备百万H100等效算力的Colossus训练超级计算机作为算力支撑
- 双方通过优势互补,致力于构建全球最实用的AI模型
- 合作条款规定SpaceX有权在年底前以600亿美元收购Cursor,或支付100亿美元获得双方合作成果
ChatGPT Images 2.0
ChatGPT Images 2.0 正式发布:新一代图像生成时代开启
- 交互模式与格式灵活性:提供图像模式和经典模式两种交互方式,支持横向、正方形、纵向等多种灵活宽高比,满足从横幅广告到手机屏幕的各种场景需求
- 多语言文字渲染能力突破:能够准确呈现日语、中文、韩语、印地语、阿拉伯语、西里尔文、希腊文、孟加拉文、梵文等十余种全球语言和文字系统,显著提升跨语言图像生成质量
- 视觉风格覆盖范围极广:支持摄影、插画、漫画、像素艺术、35毫米胶片、艺术装饰风格、包豪斯风格、法国新浪潮电影风格等多种视觉风格选项
- 人物图像逼真度大幅提升:可生成高端时尚大片、电影感影像、纪实风格照片、抓拍照片以及超现实主义风格等多种人物图像,展现高度一致的肖像生成能力
- 配备思维模式(Thinking Mode):支持深度推理和实时搜索功能,能够将信息理解与视觉呈现无缝衔接,实现从输入到成品的端到端视觉内容创作流程
- 跨领域应用能力强:涵盖教育信息图、产品设计、商业广告、学术海报、旅行宣传、动漫创作、书籍封面设计等多个领域,展现全面的内容生成适应性
Claude Code to be removed from Anthropic's Pro plan?
Anthropic 或已将 Claude Code 从 20 美元 Pro 订阅中移除
- Ed Zitron 在 Bluesky 发帖指出,Anthropic 似乎已从其 20 美元/月的 Pro 订阅套餐中移除了 Claude Code 功能
- 消息来源为 Anthropic 官方定价页面 (claude.com/pricing)
- Ed Zitron 请求拥有 20 美元套餐的用户帮助确认此消息
- 此帖子发布于 2026 年 4 月 21 日
GitHub CLI now collects pseudoanonymous telemetry
GitHub CLI 遥测数据收集说明
- GitHub CLI 会发送假名化遥测数据,帮助团队了解功能实际使用情况,从而优先安排工作并评估功能是否满足用户需求(例如在新子命令发布后评估其使用情况)
- GitHub CLI 为开源软件,用户可在
cli/cli仓库中审查遥测功能的完整实现代码 - 通过设置环境变量
GH_TELEMETRY=log或运行gh config set telemetry log可启用日志模式,届时 JSON 数据将打印到标准错误流而非实际发送,用户可查看 payload 中的具体字段,包括命令名称、操作系统、设备 ID、调用的标志位、时间戳、CLI 版本等维度信息 - 通过设置
GH_TELEMETRY=false(支持 0、false、disabled、空字符串等多种假值)、DO_NOT_TRACK=true,或运行gh config set telemetry disabled均可禁用遥测,环境变量优先级高于配置文件设置 - 遥测数据发送至 GitHub 内部分析基础设施,GitHub 隐私处理方式参见 GitHub 通用隐私声明
- 扩展程序可能独立收集自己的使用数据,禁用 CLI 遥测不会影响扩展程序的遥测行为;本文档描述的是
gh命令行工具的客户端数据收集,不适用于 GitHub Copilot 或 Copilot CLI
Qwen3.6-27B: Flagship-Level Coding in a 27B Dense Model
Qwen3.6-27B正式发布:27B参数dense模型实现旗舰级代码能力
- Qwen3.6-27B是一款270亿参数的完全开源dense模型,支持多模态思维和非思维两种模式,在代码智能体能力上达到旗舰级水平,在所有主要代码基准测试中超越了上一代开源旗舰模型Qwen3.5-397B-A17B(总参数397B/激活17B的MoE架构)
- 在代码基准测试中显著优于Qwen3.5-397B-A17B:SWE-bench Verified达77.2分(vs 76.2)、SWE-bench Pro达53.5分(vs 50.9)、Terminal-Bench 2.0达59.3分(vs 52.5)、SkillsBench Avg5达48.2分(vs 30.0,提升60%),在仅使用约1/15参数量的条件下实现全面超越
- 在推理任务上同样表现优异,GPQA Diamond达87.8分(vs 88.4),可与参数量大数倍的模型竞争;原生支持多模态视觉语言能力,可在单一统一检查点中处理图像、视频和文本,实现多模态推理、文档理解和视觉问答
- 作为dense架构模型,部署简单无需MoE路由复杂性,支持128K上下文窗口,可通过Qwen Studio在线体验、阿里云Model Studio API调用,以及Hugging Face和ModelScope下载开源权重进行自托管部署
- 可无缝集成OpenClaw、Claude Code、Qwen Code等主流代码助手,支持preserve_thinking功能保留所有先前轮次的思维内容,建议用于智能体任务场景
Windows 9x Subsystem for Linux
Hailey发布WSL9x项目:在Windows 9x上运行现代Linux
- WSL9x是一个让Windows 9x系统同时运行Windows和Linux应用程序的项目,现代Linux内核与Windows内核在ring 0特权级别协作运行
- 与现代WSL不同,该项目不使用硬件虚拟化技术,因此即使在486处理器上也能运行,Hailey戏称这是在Linux移除486支持之前的"压哨"之作
- 项目代码托管于Codeberg,Hailey称这可能是其最伟大的黑客作品,透露该项目构思长达6年但与早期的DOSLinux项目并无直接代码继承关系
- 技术实现上只需调用少量VMM内部服务如VMMCreateThread及内存上下文相关函数,这些服务虽标注为仅供内部使用但实际可用
- 社区反响热烈,多位用户将其与2000年代的coLinux项目进行类比,还有人提议为其开发Wayland合成器或X服务器,Hailey表示网络功能理论上只需为两端编写网络驱动即可实现
Making RAM at Home [video]
在家自制RAM存储器实验
- 频道Dr.Semiconductor专注于半导体科学实验与科普内容创作,拥有6.87万订阅者
- 视频发布于2026年4月20日,获得47.6万次观看和3.8万次点赞
- 内容展示在非专业环境下自制RAM存储器的实验过程
- Projects in Flight频道为视频中的硅片掺杂工艺提供了参考
- 背景音乐使用RuneScape音乐,遵循Jagex公司粉丝内容政策
- 创作者通过Patreon平台获得观众支持
Our eighth generation TPUs: two chips for the agentic era
谷歌第八代TPU:面向智能体时代的两款芯片
- 谷歌在Cloud Next大会上发布第八代Tensor处理单元,推出TPU 8t(训练)和TPU 8i(推理)两款专用架构,由谷歌DeepMind参与合作设计,标志着十年技术积累的集大成之作
- TPU 8t作为训练引擎,单个超级Pod可扩展至9,600颗芯片和2 PB共享高带宽内存,提供121 ExaFlops算力,配合Virgo网络实现近线性扩展至百万芯片规模,较上一代性能提升近3倍
- TPU 8i专为推理设计,配备288 GB高带宽内存和384 MB片上SRAM(较前代提升3倍),新型Collectives Acceleration Engine将片上延迟降低5倍,性能功耗比较前代提升80%,支持近乎翻倍的客户容量
- 两款芯片均采用自研Axion ARM架构CPU作为主机,支持JAX、MaxText、PyTorch、SGLang和vLLM等主流框架,并提供裸机访问权限,可通过AI Hypercomputer平台获取
- 功耗效率实现系统级突破,芯片性能功耗比较Ironwood提升2倍,网络与计算集成于同一芯片降低数据传输功耗,数据中心每单位电力产出是五年前的6倍
- TPU 8t通过RAS功能实现超过97%的"goodput"(有效计算时间),包括自动检测重路由故障链路和光学电路交换自动恢复;TPU 8i的Boardfly架构将网络直径减少50%以上
Over-editing refers to a model modifying code beyond what is necessary
编程模型的"过度编辑"问题:最小化代码修复研究
- 问题定义:过度编辑指模型修复代码时输出功能正确但结构改动远超最小必要修复的现象,这是一种"棕地开发"(brown-field)失败模式——现有代码已被团队理解并有意写成那样,模型应只修复问题而非重写,且这种失败对测试套件不可见,工程师需审查更多代码、更难追踪变更
- 测量方法:研究者通过程序化破坏BigCodeBench的400个问题创建评估数据集,采用令牌级Levenshtein距离(基于Python分词器的原子语法单元计算)和认知复杂度增量作为量化指标,归一化后比较模型输出与真实最小修复的差异
- 前沿模型表现:GPT-5.4过度编辑程度最高(推理模式下归一化Levenshtein达0.395,认知复杂度增量2.313),Claude Opus 4.6表现最佳(Levenshtein仅0.060且Pass@1达0.912);尽管GPT-5.4在通用设置中挣扎,其推理模式下收到明确提示后改进幅度仅次于GPT-5
- 推理模型特性:推理模型默认比非推理模型更易过度编辑(更多"改进"未需改进的代码),但收到"尽可能保留原代码及逻辑"指令后改进幅度显著更大,证明过度编辑是通过指令可调整的默认行为而非能力缺陷
- 训练方法对比:监督微调(SFT)域内近乎完美但域外完全失效并导致43%的灾难性遗忘;DPO和rSFT仅略微改进;强化学习(RL)结合功能正确性与编辑最小化的奖励,在所有指标上均超越基线且不损害通用编程能力(LiveCodeBench无退化),表明RL是唯一能泛化的方法
- 扩展性验证:LoRA在64-rank时几乎匹配全参数微调效果(大部收益在rank 1到16已实现),表明对于已具备能力的风格层面调整,少量参数即可奏效;RL训练在4B和14B Qwen3模型上均取得一致改进
5x5 Pixel font for tiny screens
小屏幕专用5×5像素字体的设计与实现
- 5×5像素是保持可读性的最小无妥协字体尺寸:2×2像素完全不可行,3×3像素技术上可实现但完全不可读,4×4像素无法正确绘制"E"、"M"、"W"等字符,而5×5像素足够将大多数小写字母缩小一像素绘制,与大写字母形成视觉区分;更窄的4×5和3×5尺寸虽可行,但会牺牲"M"、带点零以及U/V/Y的辨识度
- 字体仅占用350字节内存,专为AVR128DA28等配备16KB RAM的8位微控制器设计:低分辨率OLED屏幕如160×128或128×64需要像素高效字体才能充分发挥作用,这些微控制器虽廉价低功耗且坚固耐用,但内存远不足以支持常规图形显示——即使最低分辨率的384×288显示屏也需11万像素
- 等宽设计简化编程并提高排版安全性:所有字符可安全绘制在6×6网格上,字符串长度始终等于字符数乘以6,无需担心数字宽度差异导致的溢出问题
- 设计基于lcamtuf的5×6字体,而lcamtuf的字体又受ZX Spectrum的8×8字体启发,提供可直接使用的C头文件格式字体数据
- 更小尺寸字体探索:3×5像素可增加50%列数但"M"、"W"、"Q"受损,3×4像素无法区分大小写,3×3像素字母仍可勉强辨认,2×3像素大多数字母无法识别;3×2像素通过翻转宽高比反而比2×3更易辨认,而2×2像素仅有10个独立字形更接近密码而非字体
- 在真实硬件上显示时,子像素产生的伪投影效果增强了可读性:像素间隙有效提升了"e"和"g"的辨识度,彩色屏幕上的伪阴影效果尤为明显,但即使在单色显示器上字体也比预期更加平滑
We found a stable Firefox identifier linking all your private Tor identities
IndexedDB API漏洞可绕过Firefox及Tor Browser隐私隔离机制
- 漏洞机制:
indexedDB.databases()API在所有Firefox系浏览器中返回的数据库顺序由内部哈希表迭代决定,该顺序具有确定性、稳定性和进程级作用域,可作为跨站追踪标识符 - 技术根源:Firefox隐私浏览模式下,数据库名被映射为UUID存储在全局哈希表
StorageDatabaseNameHashtable中,后续通过nsTHashSet收集时不做排序,迭代顺序由哈希表内部桶布局决定 - 跨源追踪能力:由于该标识符具有进程作用域而非源作用域特性,不同网站可独立观察到相同的数据库返回顺序,无需 cookies 或跨站存储即可实现跨源活动链接
- 持久性威胁:Firefox隐私模式下关闭窗口后标识符仍可保留(只要Firefox进程仍在运行);Tor Browser的"新身份"功能也无法清除此标识符,直接违背了"防止后续活动与之前可链接"的设计承诺
- 高熵标识容量:仅需控制16个数据库名即可产生约44比特理论熵,远超实际应用中区分并发浏览器实例所需的标识强度
- 修复方案:对返回结果进行规范化排序(如字典序)以消除内部存储布局导致的熵泄露;Mozilla已在Firefox 150和ESR 140.10.0中完成修复
Martin Fowler: Technical, Cognitive, and Intent Debt
Martin Fowler随笔:AI时代的工程美德与思考
- 2026年Pragmatic Summit上,Martin Fowler与Kent Beck接受Gergely Orosz现场采访,围绕AI与历史技术变革的对比、敏捷方法论的经验教训、TDD的角色定位、不健康绩效指标的危害,以及如何在AI原生行业立足等话题展开讨论
- Larry Wall提出的程序员三大美德——傲慢(hubris)、急躁(impatience)和懒惰(laziness)中,Bryan Cantrill认为"懒惰"最为深刻:它驱动开发者创建精炼的抽象,使系统尽可能简单而非更复杂;但LLM天然缺乏这种美德,会不断堆砌代码而非优化,系统会变得更大而非更好
- Fowler分享了修改音乐播放列表生成器的个人经历:通过应用YAGNI原则删减不需要的功能,整个程序仅用几十行代码就实现了新需求,他反思若使用LLM是否会同样陷入过度设计而自己却浑然不觉
- Jessica Kerr展示了将TDD原则应用于AI提示代理的方法:首先在指令中告知编码代理更新文档需同步更新文档文件,再添加审查代理验证PR是否遗漏文档更新——体现了先设定验证条件再编写代码的TDD思路
- Mark Little从科幻电影《Dark Star》中汲取灵感,借用炸弹#20与人类的哲学辩论场景,指出当前AI系统过度优化决策能力而缺乏克制,需要被教导何时应该不做出决定;在日益自主的世界中,克制不是局限,而是最关键的能力