给软件开发者准备的优质简报,每日阅读 10分钟。
Sam Altman may control our future – can he be trusted?
奥特曼掌控AI未来:他能被信任吗?
- 2023年秋,OpenAI首席科学家苏茨克维向董事会提交约七十页"伊利亚备忘录",指控奥特曼向高管和董事会歪曲事实、隐瞒印度未经安全审查发布ChatGPT等违规行为,备忘录首条即列出"撒谎"模式;奥特曼随后被解雇,但五天后在员工威胁集体离职、微软发出竞争威胁后复职,董事会推动的独立调查由WilmerHale律所执行,却未形成书面报告,仅口头简报,知情者批评调查设计旨在为其脱罪。
- OpenAI创立时为非营利组织,董事会负有将人类安全优先于公司存续的法律义务,但该公司已将安全承诺稀释至近乎空文——承诺给超级对齐团队的20%算力实际仅1-2%,该团队最终解散;最新IRS申报表中,安全概念首次未被列为"最重要活动";未来生命研究所对主要AI公司的"末日安全"评级中,OpenAI获得F。
- 奥特曼从阿联酋等中东主权基金寻求数千亿美元用于建设芯片和数据中心(项目后称"Stargate"),他曾构想向中俄等专制政权竞价出售AI技术的"国家计划";与此同时,他公开在国会呼吁成立联邦AI监管机构,私下却游说反对加州安全法案,甚至对法案支持者发出法律传票压制批评。
- 多位知情人士指出奥特曼具有"讨好欲与反社会式欺骗倾向共存"的矛盾人格,前同事称其"不受真相约束";Y Combinator时期他就因不透明行为引发合伙人抗议被迫离任;内部记录显示他曾同时向不同派系做出矛盾承诺,并以"不存在"为由否认微软合同中一项关键条款,后被迫承认。
- OpenAI正筹备可能估值达万亿美元的IPO,但面临七起诉讼,指控ChatGPT鼓励用户自杀和谋杀;奥特曼自称"为爱发电"且无股权,却通过个人投资组合持有约400家公司,与多位前伴侣存在资金往来,其在OpenAI的间接经济利益尚待披露。
Show HN: Ghost Pepper – Local hold-to-talk speech-to-text for macOS
Ghost Pepper:macOS 本地化语音转文字工具
- 100% 本地化处理:所有语音识别和文本清理均在 Mac 本地完成,无需任何云端 API,确保数据绝不离开用户设备。
- 按住 Control 即说即录:按下 Control 键录音,松开后自动转写并粘贴到当前活动文本框,支持任何应用程序。
- 菜单栏常驻应用:运行于菜单栏,无 Dock 图标,默认开机自启动,提供轻量化使用体验。
- 智能本地 LLM 清理:Qwen 3.5 系列模型(默认 0.8B)在本地移除填充词并修正口语自我纠正。
- 多模型可选:语音识别支持 Whisper 多种规格(含英语优化版),另有支持 25 种语言的 Parakeet v3 模型。
- 企业 MDM 支持:IT 管理员可通过 PPPC 策略预批辅助功能权限,适用于 Jamf、Kandji 等管理设备。
Taste in the age of AI and LLMs
在AI时代,品味成为唯一真正的护城河
- 稀缺性转移:AI和LLM廉价产出让"过得去"的输出大量涌现,从前稀缺的是产出能力,现在稀缺的是判断力——知道什么该拒绝、什么值得深入;核心技能从"生成"变为"拒绝"
- 品味的三个维度:在此语境下,品味指在不确定性中做出区分的能力,体现为你注意到什么、你拒绝什么,以及能否精确诊断为何某物"感觉不对"——能将"这不对"转化为"这听起来像所有其他SaaS产品"的人,远比只会说模糊不满的人拥有更强的品味
- AI揭示你的品味层次:让AI生成10到20个版本,对每个版本写出"失败原因是……"——如果批评始终模糊,说明品味尚未成熟;如果批评变得精确,说明你的判断力已超越模型输出,你才能真正用好模型而非被模型牵引
- 沦为筛选者是危险的陷阱:若人类价值被缩减为从机器输出中挑选最优解,则会变成判别器而非创作者——真正重要的作品来自在约束下与现实共同创作,而非在流水线末端做超脱的选择
- 人类无法被替代的三件事:①承担真实后果(模型能建议文案,却无法承担监管风险或品牌损失);②保护初期看似错误的新事物(真正创新的想法初期往往显得不合常规,因为它们不来自训练数据的统计中心);③做出方向性选择(做什么、不做什么、拒绝优化什么——这是创作而非筛选)
- 更好的AI使用方式:用AI快速探索设计空间、研究最佳实践、生成未曾考虑过的替代方案,然后用判断力拒绝通用、虚假或脱离情境的内容;每次面对看似精致但空洞的AI输出时,问自己:"我在这里添加了什么AI无法添加的东西?"——真实运营约束、艰难教训、监管细节、愿意为之负责的立场,都是有效答案
Project Glasswing: Securing critical software for the AI era
Project Glasswing:AI时代关键软件安全计划
- Anthropic联合AWS、苹果、博通、思科、CrowdStrike、谷歌、摩根大通、Linux基金会、微软、英伟达、Palo Alto Networks等12家机构发起Project Glasswing,将Claude Mythos Preview(前沿通用AI模型)作为防御工具,用于发现和修复关键软件中的安全漏洞
- Mythos Preview已发现数千个零日漏洞,覆盖所有主流操作系统和浏览器,包括OpenBSD潜伏27年的远程崩溃漏洞、FFmpeg自动化测试遗漏16年的缺陷,以及Linux内核普通用户提权至完整系统控制的漏洞链;其漏洞复现率达83.1%,大幅领先Opus 4.6的66.6%
- Anthropic承诺提供1亿美元模型使用额度,另有400万美元直接捐赠给开源安全组织(250万美元给Alpha-Omega和OpenSSF,150万美元给Apache软件基金会);免费额度用尽后,模型定价为每百万输入/输出token 25美元/125美元
- 合作方可通过Claude API、AWS Bedrock、谷歌Vertex AI和微软Foundry访问模型;超过40家构建或维护关键软件基础设施的组织已获得使用权限
- Anthropic暂无计划公开发布Mythos Preview,但将推出下一代Claude Opus模型时同步发布安全防护机制;项目将在90天内公开发布阶段性成果,并联合安全机构制定AI时代漏洞披露、补丁自动化和安全开发实践标准
- Anthropic正与美国政府官员持续沟通,评估AI网络能力的国家安全风险,呼吁AI行业成员加入建立行业标准,并建议由独立第三方机构主导后续大规模网络安全工作
GLM-5.1: Towards Long-Horizon Tasks
GLM-5.1:面向长时序任务的下一代智能体工程旗舰模型
- GLM-5.1在SWE-Bench Pro上达到58.4分,取得复杂软件工程任务的最优表现(SOTA),同时在NL2Repo(代码库生成)和Terminal-Bench 2.0(真实终端任务)上分别领先前代GLM-5约7分和7分以上
- 核心突破在于持续优化能力:以往模型在初期快速应用熟悉技术后会陷入停滞,而GLM-5.1能够通过分析benchmark日志自主识别当前瓶颈、自我反思推理过程、调整优化策略,在数百轮迭代和数千次工具调用中保持有效优化
- 向量数据库优化实验展现"阶梯式"优化特征:经过600+次迭代、6000+次工具调用后达到21.5k QPS,约为单次50轮会话最优结果(约3.5k QPS)的6倍,期间经历6次结构性突破(如从全量扫描转向IVF聚类探查、引入两阶段流水线等)
- GPU内核优化方面,GLM-5.1在1000+轮工具调用中实现3.6倍加速,长时序优化能力显著优于GLM-5,但距离Claude Opus 4.6(4.2倍加速)仍有差距
- 8小时连续运行成功构建完整的Linux风格桌面Web应用:包含文件浏览器、终端、文本编辑器、系统监控、计算器、游戏等组件,每个组件均被整合为连贯统一的UI,展示了模型在无数值指标可优化时通过自我评估持续改进的能力
- GLM-5.1以MIT协议开源,模型权重发布于HuggingFace和ModelScope,支持vLLM和SGLang本地推理框架,并兼容Claude Code、OpenCode、Kilo Code、Roo Code、Cline、Droid等主流编程智能体
Cloudflare targets 2029 for full post-quantum security
Cloudflare将后量子安全目标提前至2029年,聚焦后量子身份认证
- Google近期宣布突破可破解椭圆曲线密码学P-256的量子算法(未公开算法本身,仅提供零知识证明);Oratomic研究表明中性原子量子计算机破解P-256仅需约10,000个量子比特
- 量子威胁在硬件(多种架构进展)、纠错(中性原子仅需3-4个物理量子比特实现1个逻辑量子比特)、软件算法三个领域同时取得突破,使"Q-Day"从预期的2035年后大幅提前
- 身份认证比加密更具紧迫性:被破解的身份认证可让攻击者冒充服务器或伪造凭证,获得持久且隐蔽的系统访问权限,任何被忽视的量子脆弱远程登录密钥都将成为入侵入口
- 长生命周期密钥(根证书、API认证密钥、代码签名证书)需优先升级,且升级后必须轮换所有此前在量子脆弱系统中暴露的密码和访问令牌
- 仅升级到后量子密码学不够,必须禁用量子脆弱的密码学以防止降级攻击;后量子身份认证迁移涉及冗长的依赖链和第三方验证,需耗时数年而非数月
- Cloudflare制定了2026至2029年的路线图,计划2029年实现全面后量子安全;所有后量子升级将免费向所有客户开放,客户无需采取任何行动
Google open-sources experimental agent orchestration testbed Scion
Google开源实验性多智能体编排测试平台Scion
- Scion是Google开源的一个专为管理并发、在容器中运行的多智能体系统而设计的实验性编排测试平台,其核心哲学是**“隔离优于约束”**,允许智能体在自由行动的同时通过容器、git工作树和网络策略等基础设施层边界确保安全。
- 该平台通过称为“harness”的适配器支持多种主流智能体模型(如Gemini、Claude Code等),统一管理其生命周期、认证与配置,并能使用Docker、Podman及Kubernetes等多种容器运行时。
- Scion管理动态演进的任务图,支持并行执行不同目标(如编码、审计、测试)的任务,并可容纳从长期运行的专用智能体到与单一任务绑定的临时智能体等多种生命周期模式。
- 平台引入了独特的术语体系,如代表项目的“grove”、作为中央控制平面的“hub”以及运行hub的“runtime broker”,以构建其编排框架。
- Google发布了一个名为“Relics of the Athenaeum”的演示游戏源代码,展示了多个智能体在共享工作空间中协作,通过直接消息和广播进行通信,并能动态生成新的角色/智能体来共同解决计算谜题。
Rescuing old printers with an in-browser Linux VM bridged to WebUSB over USB/IP
printervention:让旧照片打印机重获新生的网页应用
- 作者偶然获得一台佳能SELPHY照片打印机,因Mac和Windows早已停止支持而几乎沦为电子垃圾,但Linux通过CUPS和Gutenprint可正常运行,由此萌生开发网页应用的想法——"拯救百万台打印机免于填埋"
- 应用核心采用v86模拟器在浏览器中运行精简的Alpine Linux系统(含CUPS和Gutenprint),通过WebUSB直连打印机,利用trigram算法匹配驱动程序,实现跨平台无需安装的目标
- 早期方案采用自定义CUPS后端通过v86 TTY传输数据,首张打印照片因换行符处理问题产生类似彩色抽象艺术的效果,后通过
stty raw修复,但数据流为单向,无法获取打印机状态反馈 - 为实现双向通信,应用引入USB/IP(将USB数据封装为TCP包)和tcpip.js(将模拟机的原始以太网帧转换为TCP/IP流量,由lwIP编译为WebAssembly)两项技术,使CUPS能准确获知打印各阶段状态
- 在图像处理方面,应用将JPEG嵌入手写的PDF文件以解决照片被CUPS压缩的问题,同时处理EXIF方向和ICC色彩配置,并利用libheif-js和wasm-mozjpeg实现HEIC格式的流式转换
- 商业模式上,作者希望打印机耗材厂商付费白标合作而非开源,计划扩展支持更多Gutenprint兼容机型及扫描功能(yes-we-scan.app),并已加入基本的遥测数据收集
AI helps add 10k more photos to OldNYC
人工智能助力OldNYC新增上万张历史照片
- 利用OpenAI的GPT-4o模型从照片描述文本中提取位置信息,成功定位约6000张原本无法确定位置的照片,使可定位照片比例提升至约87%,其中约**96%**的照片位置准确。
- 采用GPT-4o-mini重建OCR系统,将拥有文字描述的照片数量从2.5万张提升至3.2万张;在与旧系统对比中,GPT-4o-mini在约**75%的情况下表现更优,仅约2%**明显更差;最佳效果来自仅提供原始高分辨率图像而非附带标题等上下文信息。
- 引入纽约公共图书馆的历史街道数据集,配合OpenStreetMap替代谷歌地理编码服务,解决了因历史街道消失(如1930年代布鲁克林已不存在的交叉路口)而无法正确定位的问题。
- 将地图服务从谷歌地图迁移至OpenStreetMap矢量瓦片与MapLibre开源渲染库,可移除现代城市中不存在的历史元素(如布鲁克林-电池隧道),提升渲染速度和缩放流畅度,同时将潜在费用从每月35美元降至零。
- 此次大规模重建使网站历史照片总数从2016年的3.9万张增至4.9万张;作者计划将此类技术推广至其他城市,并已参与OpenHistoricalMap项目以获取更完整的历史街道数据。