给软件开发者准备的优质简报,每日阅读 10分钟。
Ask HN: How is AI-assisted coding going for you professionally?
2026年专业程序员AI辅助编程体验综述
- 生产力效果呈两极分化:部分开发者声称获得2-10倍生产力提升,将AI编程工具视为革命性突破;另一部分则抱怨生成的代码存在隐蔽bug、维护成本高昂,实际生产力为负,甚至面临裁员风险
- 大型遗留代码库和专用领域表现欠佳:AI在全新项目(greenfield)、样板代码生成、快速原型方面表现出色;但在大型遗留代码库、Unity游戏开发、医学成像、嵌入式系统等专用领域任务上力不从心,容易产生看似合理实则错误的代码
- 代码审查负担激增成为核心痛点:同事发送大量AI生成的"slop"垃圾代码需要人工审核,多代理协作时出现"上下文衰减"和版本分歧问题,AI生成的代码看似正确但存在隐蔽bug导致调试比人工编写代码更困难
- 成功使用AI的关键是工程化工作流:Claude Code、Cursor、Codex是最常用工具;成功者强调需要详细的spec文档、计划-实施-审查循环、代理配置文件(skills/agents.md),以及对AI输出的持续监督和修正;失败者多因缺乏项目约束和清晰的需求描述导致结果严重偏离预期
- 职场环境面临独特挑战:管理层热衷用AI生成冗长的设计文档但无人阅读、团队出现"不对称预期"(一方输出垃圾另一方需认真审查)、初级开发者技能退化引发职业焦虑;有趣的是,个人项目效果普遍优于职场环境,在职场需与他人协作时问题更复杂
How I write software with LLMs
我如何用LLM编写软件
- 我喜欢的是制作东西,而非编程本身。LLM出现后,我能用它来制作想做的任何东西,这让我重新找回了编程的乐趣
- 工作流采用多代理系统:架构师(Claude Opus 4.6)负责与人类讨论需求、制定详细的低层次计划并拆分任务,开发者(Sonnet 4.6)严格按计划实现代码,一至三个审查者(Codex、Gemini、Opus独立评审)进行代码审查,审查者意见冲突时由架构师仲裁,人类需明确说"approved"才会真正开始执行
- 多模型协同是核心——不同模型性格迥异,Opus决策与作者思路高度一致,Codex 5.4吹毛求疵适合做代码审查,Gemini 3 Flash有时能发现其他模型看不到的方案;让另一个模型审查代码比自审更能发现问题
- 人类深度参与仍不可或缺——纠正LLM的方向性错误、确保其理解具体架构细节、在关键决策点把关,这是项目真正属于"我的"的核心原因,也是避免项目失控的关键
- 核心技术前提是对所用技术的深入理解:当我对某项技术不熟悉时(如移动应用),LLM做出的糟糕架构决策无法被及时发现,项目会快速失控成无法维护的状态——这是真实的失败模式
The 49MB web page
新闻网站的49MB网页负担
- 访问《纽约时报》仅浏览四个标题就触发了422次网络请求,下载49MB数据,页面完全加载耗时两分钟,这一数据量超过Windows 95操作系统(28张软盘)或相当于10-12首高音质MP3歌曲
- 程序化广告拍卖在浏览器主线程中同步执行:用户尚未读完标题,浏览器已被迫处理数十个来自Rubicon Project和Amazon Ad Systems的并发竞价请求,同时下载数MB追踪JavaScript并向a.et.nytimes.com、doubleclick.net等端点高频发送用户行为信标
- 新闻网站采用"Z-Index战争"式敌对设计:GDPR Cookie横幅、订阅弹窗、通知提示叠加出现;Economic Times实际内容仅占屏幕15%,用户需先关闭两个Google登录模态框才能阅读;阅读至第二段时广告突然注入导致文本下移250像素(CLS灾难)
- 移动端体验更为恶劣:Guardian移动端内容仅占视窗11%,粘性视频播放器滚动后缩小至右下角继续播放且关闭按钮违反费茨定律,"X"按钮与广告点击区相邻制造误点陷阱,这些设计使读者被迫3倍频繁滚动
- 轻量替代方案证实用户需求:text.npr.org、lite.cnn.com等无追踪、无弹窗版本及RSS订阅证明简洁、以内容为中心的体验仍被渴望,出版商需在短期CPM收益与长期读者信任间寻求平衡
Chrome DevTools MCP (2025)
Chrome DevTools MCP 支持编码代理调试活动浏览器会话
- Chrome DevTools MCP 服务器新增自动连接功能,编码代理可直接连接到正在运行的 Chrome 实例,无需启动新浏览器
- 编码代理可复用现有浏览器会话(包括已登录状态),例如修复需要登录才能访问的问题时无需重新登录
- 编码代理可访问 DevTools UI 中的活动调试会话,支持 Elements 面板选中的元素和 Network 面板中的网络请求,实现手动调试与 AI 辅助调试的无缝切换
- 该功能依赖 Chrome M144(当前为 Beta 版本),通过在 MCP 服务器配置中添加
--autoConnect参数启用,需同时指定--channel=beta - 为保障安全,每次远程调试请求都会弹出用户授权对话框,且调试期间浏览器顶部会显示"Chrome is being controlled by automated test software"横幅
- 设置步骤:在 Chrome 中访问
chrome://inspect/#remote-debugging启用远程调试,然后配置 MCP 服务器使用--autoConnect参数连接
Cert Authorities Check for DNSSEC from Today
证书颁发机构即日起检查DNSSEC
- 从2026年3月15日起,所有证书颁发机构(CA)在域名启用DNSSEC时必须验证其DNSSEC签名有效性
- 此要求源于CAB Forum于2025年6月通过的Ballot SC-085v2提案
- CA在查询CAA记录以确认是否有权为域名颁发证书时,必须验证所收到的DNS响应是否有效
- 在ACME(自动证书管理环境)证书颁发流程中,CA也必须验证DNS记录的有效性
- 作者Mike Cardwell已运行DNSSEC约14年,最初使用bind9,后迁移至PowerDNS
- 建议域名所有者检查其注册商是否支持DNSSEC,这可能是一键式操作
Starlink Mini as a failover
Starlink Mini 作为家庭网络故障转移方案
- Starlink Mini 硬件售价 £159,搭配每月 £4.50 待机模式套餐,可作为主光纤宽带(FTTP)故障时的备用网络连接;如订阅 Residential Max 计划可免费获赠设备
- 待机模式提供 500kbps 无限低速流量,足以支持 Google Meet、FaceTime、Claude 及低画质 Netflix 等应用,成本低于多数移动数据备份方案
- 延迟表现优秀:平均 26ms(最佳 18ms,峰值 65ms),平均功耗约 13W;设备需对天空有较清晰视野,但可穿透薄玻璃或在部分遮挡下仍可使用
- Starlink 使用运营商级 NAT(CGNAT),导致 IPv4 无法端口转发,需借助 Cloudflare Tunnel 或 IPv6 解决;IPv6 通过 DHCPv6 前缀分配提供 /56 地址段
- UniFi 设备存在 IPv6 默认路由缺失的 Bug,需手动通过 SSH 添加默认路由(IPv6 连接必须使用 SLAAC,不能用 DHCPv6),此修复在固件更新后可能失效,需创建启动脚本实现持久化
- 搭配 UniFi 多 WAN 配置,将 Starlink 设为 WAN2 并设置故障转移优先级,主网络中断时流量自动切换;因不依赖本地基础设施,停电期间仍可持续工作
Meta’s Renewed Commitment to jemalloc
基础设施投资:Meta 重新承诺支持 jemalloc
- Meta 重新承诺支持 jemalloc 高性能内存分配器,将其视为与 Linux 内核和编译器同等重要的软件基础设施核心组件,持续适应底层硬件和上层软件的变化
- 近年来 jemalloc 开发逐渐偏离核心工程原则,短期决策虽带来即时收益,但产生的技术债务最终拖慢了发展进程;Meta 已虚心接受社区反馈,与包括项目创始人 Jason Evans 在内的社区成员深入反思并调整方法
- 原始 jemalloc 开源仓库已解除归档,Meta 计划减少维护需求并现代化代码库,同时持续演进分配器以适应最新和新兴硬件与工作负载
- 技术债务清理:聚焦代码清理、重构,提升 jemalloc 的可靠性、易用性和长期可维护性
- 大页分配器优化:持续改进 hugepage allocator (HPA) 以更好利用透明大页 (THP),提升 CPU 效率
- 内存效率改进:优化打包、缓存和清理机制,提升内存使用效率
- AArch64 平台优化:确保 jemalloc 在 ARM64 架构上具备良好的开箱即用性能
- Meta 欢迎社区贡献和合作,期待通过行动证明持续投入的诚意,共同推动 jemalloc 未来发展
My Journey to a reliable and enjoyable locally hosted voice assistant (2025)
本地托管语音助手构建历程
- 作者从Google Home(Nest Minis)迁移到本地Home Assistant Assist,后端从Ollama改为性能更优的llama.cpp;迁移原因包括隐私顾虑(家中部署在线麦克风)及Google Assistant功能日益退化
- 语音硬件:1个HA Voice Preview Satellite、2个Satellite1 Small Squircle Enclosures、1个Pixel 7a;语音服务器为Beelink MiniPC(需USB4)搭配USB4 eGPU外接显卡 enclosure
- GPU推荐:RTX 3090/RX 7900XTX(24GB,响应1-2秒)效果最佳;RTX 5060Ti/RX 9060XT(16GB,响应1.5-4秒)可满足基本需求;RTX 3050(8GB)仅适合4B小模型
- 软件配置:语音识别用Wyoming ONNX ASR+Nvidia Parakeet V2(OpenVINO优化后推理约0.3秒),文字转语音用Kokoro TTS(支持多语音混合)或Piper,模型运行器推荐llama.cpp
- 模型测试中GGML GPT-OSS:20B MXFP4在多设备工具调用、上下文理解、误听解析、忽略误触发四项指标均表现最佳;通过ChatGPT迭代优化提示词实现天气查询、地点搜索、知识问答等功能
- 音乐播放采用sentence automation trigger结合Music Assistant实现语音搜索播放;自定义唤醒词"Hey Robot"使用微WakeWord训练器仅需约30分钟GPU训练时间
The “small web” is bigger than you might think
"小网络"比你想象的更大
- "小网络"指使用普通网页浏览器和服务器建立的私人网站,无广告、无企业追踪,代表互联网回归非商业化个人使用的努力;与之类似的Gemini协议使用完全不同的技术,目前全球约6000个"胶囊"站点,活跃用户约百人
- Kagi搜索引擎维护的小网站列表从去年的约6000个增长到2026年3月的约32000个,表明小网络正在快速发展
- 作者编写程序检查这些网站的RSS/ATOM订阅源,排除了无时间戳、已关闭或无法正常获取的站点后,筛选出约25000个有效站点
- 进一步排除每月更新少于一次的网站后,最终剩余约9000个活跃站点,仅2026年3月15日当天就产生了1251次新内容更新(而非仅修改错别字)
- 由于更新数量庞大,无法像Gemini协议那样在小网站上实现单页聚合展示,这使作者原计划创建类似聚合器的想法变得不切实际
- 尽管无法全面聚合,但小网络的规模和活跃度表明:在这个被广告主导的互联网时代,私人、非商业化的网站依然占有一席之地,这值得庆祝
LLM Architecture Gallery
LLM架构图鉴:Sebastian Raschka的大语言模型架构大全
- 该页面由Sebastian Raschka博士整理,收录了40款主流开源大语言模型的架构图和详细规格表,最后更新于2026年3月16日
- 模型涵盖从2019年11月的GPT-2 XL(1.5B)到2026年3月的最新发布,包括DeepSeek V3.2(671B)、Mistral 3 Large(673B)、Nemotron 3 Super(120B)等
- 解码器类型分为Dense(密集型)、Sparse MoE(稀疏专家混合)、Hybrid(混合)三大类,其中MoE架构已成为超大规模模型(数百B参数)的主流选择
- 注意力机制呈现多样化发展:传统MHA、GQA(分组查询注意力)、MLA(多查询注意力)、滑动窗口注意力(SWA),以及Gated DeltaNet、Lightning Attention等线性注意力变体
- DeepSeek V3(671B总参数/37B活跃参数)的架构设计被Mistral 3 Large、Llama 4 Maverick、GLM-4.5/4.7/5等多款后续模型借鉴采用
- 2025-2026年混合架构成为新趋势:Qwen3 Next和Qwen3.5采用Gated DeltaNet与Gated Attention混合、Kimi Linear引入线性注意力层替代部分Transformer注意力、Nemotron 3系列探索Mamba-2状态空间模型与Transformer混合
- 页面数据来源于《The Big LLM Architecture Comparison》《From GPT-2 to gpt-oss》《From DeepSeek V3 to V3.2》《A Dream of Spring for Open-Weight LLMs》四篇深度分析文章,支持购买实体海报(14570×12490像素)