- Published on
2025-第三十一周
- Authors
- Name
- AgedCoffee
- @__middle__child
该周报主要为各个地方内容的汇总整理
- 技术
- 过去十年中众多、繁多、数不胜数的 JavaScript 运行时
- 打造当下适用的砌体布局
- 如何在 React Router 中使用 Action Routes - sergiodxa
- Introducing Platformatic AI-Warp 1.0.0
- 工具
- sverweij/dependency-cruiser: 依赖关系验证与可视化。自定义规则。支持 JavaScript、TypeScript、CoffeeScript,以及 ES6、CommonJS、AMD 模块。
- json-schema-for-humans
- GithubStarsManager
- spire-doc-mcp-server
- react-video-editor
- wakaru
- DailyHotApi
- create-better-t-stack
- hajimi-king
- resumePolice
- 更新
- 译:AI SDK 5
- cacheSignal
- 停止重复渲染 — TanStack DB,专为 TanStack Query 设计的嵌入式客户端数据库 | TanStack 博客
- Announcing TypeScript 5.9 RC
- 使用 Storybook 和 Vitest 进行组件测试
- 设计
- 好设计的十个原则,来自 Dieter Rams 的 Vitsoe
- AI
- shadcn-ui-mcp-server
- ag-ui
- eigent
- icepick
- 12-factor-agents
- 写代码从来不是瓶颈 - ordep.dev
- 其他
- trae_telemetry_research
技术
过去十年中众多、繁多、数不胜数的 JavaScript 运行时
过去十年,JavaScript 运行时和引擎的多样化发展使其能够适应各种场景,从云端到边缘计算、智能设备甚至微控制器。本文探讨了推动这种多样化的原因,以及为何单一运行时无法满足所有需求。
- 🌐 边缘计算的崛起:从 Cloudflare Workers 到 Deno Deploy,JavaScript 在边缘计算领域迅速扩张,各公司竞相推出低延迟运行时。
- 🔌 微控制器的适配:针对资源受限的微控制器,轻量级引擎如 Duktape 和 JerryScript 应运而生,支持极低内存环境运行。
- 🤝 多语言引擎的兴起:通过 JVM、.NET 等平台实现 JavaScript 与其他语言的互操作,如 Graal.js 和 Rhino。
- 📱 原生应用的多样化:从基于 Web 视图的框架(如 Cordova、Electron)到原生渲染方案(如 React Native、NativeScript),JavaScript 覆盖了移动、桌面和智能电视平台。
- ⚡ Node.js 的扩展与挑战:尽管 Node.js 在服务端占主导地位,但其在移动端的应用仍面临限制,催生了 JITless 模式等创新。
- 🏆 竞争推动创新:不同引擎(V8、JavaScriptCore、QuickJS 等)和运行时的竞争促使性能、资源占用等关键指标的优化。
- 🔮 未来趋势:JavaScript 生态持续扩张,开发者对跨平台、高性能和易用性的需求推动新技术(如 Node-API、Static Hermes)的发展。
打造当下适用的砌体布局
CSS 专家去年对新的瀑布流布局功能的语法进行了深入讨论,主要分为两大阵营和一个折中方案:
- 🏗️ 使用
display: masonry
- 🏗️ 使用
grid-template-rows: masonry
- 🏗️ 使用
item-pack: collapse
目前尚未达成一致决议,但 Firefox 已支持第二种语法,Chrome 正在测试第一种语法。由于浏览器支持不统一,作者探索了一种仅用 66 行 JavaScript 实现的跨浏览器解决方案。
关键实现步骤:
- 🔍 检测浏览器是否原生支持瀑布流布局(通过
grid-template-rows: masonry
) - 🧩 若不支持,则通过 CSS Grid 模拟:
- 设置
grid-auto-rows: 0px
- 设置
row-gap: 1px
- 通过
getBoundingClientRect
获取项目高度 - 结合列间距计算项目应占行数
- 设置
- 🖼️ 等待媒体资源加载完成后再计算布局
- 📱 使用 ResizeObserver 实现响应式调整
- 🛠️ 支持多列跨度/自定义列数等高级功能
额外提示:
- ⚡ 可结合 Tailwind 实现更灵活的响应式布局
- 📦 作者在 Splendid Labz 提供了封装好的工具库
当前方案优势:
- ✅ 生产环境可用
- 🔥 仅 66 行 JavaScript
- 🎨 支持图片/视频等媒体元素
- 🌐 兼容所有支持 CSS Grid 的浏览器
如何在 React Router 中使用 Action Routes - sergiodxa
React Router 中的 Action Routes 模式用于集中处理资源操作(如创建、更新、删除),通过单一文件定义服务端和客户端逻辑,提升代码复用性和可维护性。
🛠 Action Routes 简介
通过 Resource Routes 处理特定操作,集中逻辑于单个文件,支持服务端和客户端操作。📂 配置 Action Routes
创建routes/actions
文件夹,按名词-动词.ts
命名(如post-create.ts
),并通过prefix
将路由前缀设为/actions
。🔄 服务端操作与验证
使用 Zod 验证输入数据,结合身份检查(如authenticate
)和状态码工具(如created
、badRequest
)返回类型化响应。🎯 客户端副作用处理
通过clientAction
处理成功/失败后的 UI 反馈(如显示 Toast 或重定向),复用服务端操作结果。🌍 国际化支持
在操作中直接集成 i18n,返回本地化的错误或成功消息。🔐 权限控制
依赖中间件处理身份验证,在操作内实现细粒度授权(如订阅检查),返回forbidden
等状态码。🏗 设计优势
减少重复逻辑,提升可测试性,长期维护更灵活。适用于多路由触发同一操作的场景。📌 命名建议
推荐扁平化路由结构(如post-create.ts
),便于管理和理解。
Introducing Platformatic AI-Warp 1.0.0
Platformatic AI-Warp 1.0.0 正式发布,这是一款革命性的 AI 网关解决方案,旨在简化开发者集成多 AI 提供商的过程,提供统一、可扩展的智能平台。
- 🚀 全面 AI 网关:Platformatic AI-Warp 1.0.0 提供最全面的 AI 集成解决方案,帮助开发者轻松整合 OpenAI、DeepSeek、Google Gemini 等多种 AI 服务。
- 🔄 无缝会话恢复:支持会话上下文自动保存,即使服务重启或负载均衡切换,也能恢复对话。
- 🌐 统一 API 接口:通过单一 API 连接多个 AI 提供商,无需更改代码即可切换模型。
- 🛡️ 智能故障恢复:自动在模型失败或达到速率限制时切换至备用模型,确保服务高可用性。
- 💾 企业级会话管理:支持内存存储或分布式 Valkey/Redis 存储,适用于多实例部署。
- 🌊 实时流式传输:支持 Server-Sent Events (SSE) 流式响应,并具备自动恢复功能,提升容错能力。
- 📈 生产级可靠性:优化 HTTP 客户端、连接池、超时管理,并支持优雅降级和错误恢复。
- 🏗️ 灵活部署:可自托管、支持 Kubernetes、Docker、Serverless 及边缘计算,适应各种部署需求。
- ⚡ 快速上手:通过
npx wattpm@latest create
或npm install @platformatic/ai-client
快速集成。
工具
sverweij/dependency-cruiser: 依赖关系验证与可视化。自定义规则。支持 JavaScript、TypeScript、CoffeeScript,以及 ES6、CommonJS、AMD 模块。
Dependency-cruiser 是一个用于验证和可视化 JavaScript、TypeScript、CoffeeScript 等项目中依赖关系的工具,支持 ES6、CommonJS 和 AMD 模块系统。
- 🛠️ 功能:验证依赖关系、可视化依赖图、支持自定义规则检测循环依赖等问题。
- 📦 安装:可通过 npm、yarn 或 pnpm 安装,支持生成配置文件。
- 📊 可视化:支持生成多种格式的依赖图(如 SVG、mermaid、JSON 等)。
- ⚙️ 规则配置:提供默认规则(如检测循环依赖),并支持自定义规则。
- 📝 报告:支持多种报告格式(文本、图形、HTML 等)。
- 🌍 多语言支持:支持 TypeScript、CoffeeScript、JSX、TSX、Vue 等。
- 📜 许可证:MIT 开源协议。
- 🤝 社区:拥有活跃的开源社区支持,定期更新和维护。
- 🔗 资源:提供详细文档、命令行参考和 API 说明。
json-schema-for-humans
该工具用于为 JSON Schema 生成美观的静态 HTML 或 Markdown 文档页面,支持多种功能和自定义选项,便于快速部署和高效加载。
GithubStarsManager
GithubStarsManager 是一个用于管理 GitHub 收藏仓库的应用,支持自动拉取、AI 分析、分类标签、订阅发布通知等功能,提供桌面客户端下载,无后端依赖数据需自行保存。
- 🌟 功能亮点:自动拉取 GitHub 收藏仓库,AI 生成描述/标签/分类,支持自然语言搜索和过滤器快速查找。
- 🔔 发布订阅:可订阅收藏仓库的发布通知,及时查看和下载新版本文件。
- 🤖 自定义 AI 模型:支持使用兼容 OpenAI 接口的自定义 AI 模型 API。
- 📥 使用方式:下载源码或克隆仓库,通过
npm install
安装依赖,npm run dev
运行;也可下载 MacOS 桌面客户端。 - ⚠️ 注意事项:无后端服务,重要数据需自行保存;应用完全由 AI 开发,功能更新和问题修复依赖 AI 实现。
- 📊 仓库信息:18 星标,2 人关注,1 次分叉,最新版本 v0.1.1,主要语言为 TypeScript(95.9%)。
- 🌐 在线演示:提供演示链接,MIT 协议开源。
spire-doc-mcp-server
Spire.Doc MCP Server 是一个基于模型上下文协议(MCP)的服务,允许用户通过 AI 代理直接操作 Word 文档,无需安装 Microsoft Word。它支持文档创建、编辑、格式转换等功能,并提供丰富的 API 工具集。
- 📄 核心功能:无需 Microsoft Word 即可创建、修改和转换 Word 文档(DOC/DOCX 等)。
- 🛠️ 多样化操作:支持段落/表格管理、格式调整、文档保护、水印添加及合并比较。
- 🔄 格式转换:高保真转换 Word 至 PDF/图片/HTML 等 10+ 格式,支持双向转换。
- 🐍 快速部署:Python 3.10+ 环境,通过
uv
一键安装,默认端口 8000 启动服务。 - ⚙️ AI 集成:配置 Cursor IDE 后,AI 助手可直接调用 18 种文档处理工具。
- 📂 环境配置:通过
WORD_FILES_PATH
变量指定文档存储路径(默认./word_files
)。 - 📊 工具分类:提供文档、段落、表格、格式、转换 5 大类 18 种工具(如创建文档、合并文件、单元格编辑等)。
- 📜 输入/输出支持:兼容 DOC/DOCX 等 6 种输入格式,输出涵盖 PDF/EPUB/Markdown 等 10+ 格式。
react-video-editor
一个基于 React 和 TypeScript 开发的视频编辑应用项目,具有丰富的编辑功能和实时预览特性。
- 🎬 时间线编辑:支持在可视化时间线上排列和修剪媒体内容。
- ✨ 特效与转场:可应用多种视觉效果、滤镜和转场动画。
- 🔊 多轨道支持:同时编辑多个视频和音频轨道。
- 📥 导出选项:提供多种分辨率和格式的视频导出功能。
- 👁️ 实时预览:编辑后立即查看效果预览。
- 🌐 在线演示:已部署的实时演示版本可通过链接访问(React Video Editor Live Demo)。
- 💻 开发环境:需配置
.env
文件中的PEXELS_API_KEY
,支持通过pnpm
快速启动本地开发。
wakaru
Wakaru 是一个针对现代前端 JavaScript 的反编译器,能够从打包和转译后的代码中恢复原始代码。
- 🧩 解包功能:支持从 webpack 和 browserify 中分离出模块化的 JavaScript 代码。
- 🔍 反混淆功能:能够还原经过 Terser、Babel、SWC 和 TypeScript 转译的代码。
- 🔄 语法恢复:检测并恢复降级的语法(包括辅助函数)。
- 🛡️ 测试保障:所有功能均通过测试,代码使用 TypeScript 编写。
- 🎮 在线演示:提供详细的实时演示示例。
- ⚙️ CLI 工具:支持交互式和非交互式模式,可通过参数配置输出目录、并发数等。
- 📚 API 支持:提供
@wakaru/unpacker
和@wakaru/unminify
两个 npm 包,支持自定义规则处理代码。 - ⚠️ 注意事项:项目处于早期开发阶段,API 可能变动,且浏览器端使用需谨慎(包体积较大)。
DailyHotApi
今日热榜是一个聚合热门数据的 API 接口,提供多种部署方式和丰富的热门榜单数据源,支持开发者和用户快速获取各类平台的热门内容。
- 🚀 极速响应 - 提供极快的 API 响应速度,便于开发者集成和使用
- 📡 多模式支持 - 支持 RSS 和 JSON 两种数据返回模式,适应不同需求
- 🛠️ 灵活部署 - 支持 Docker、手动部署、Vercel、Railway 等多种部署方式
- 📂 简明路由 - 简明的路由目录结构,便于新增和维护接口
- 🌐 示例站点 - 提供示例站点展示 API 使用效果,支持用户提交自己的站点
- 📊 丰富数据源 - 聚合哔哩哔哩、微博、知乎、抖音等数十个平台的热门榜单数据
- ⚙️ 技术友好 - 支持 Node.js 调用,提供详细的部署和使用文档
- ⏳ 缓存机制 - 默认缓存数据 60 分钟,减少频繁请求对服务器的压力
create-better-t-stack
Better-T-Stack 是一个现代化的 CLI 工具,用于快速搭建端到端类型安全的 TypeScript 项目,提供最佳实践和可定制配置。
- 🚀 快速开始:支持 npm、bun 和 pnpm 安装,通过简单命令即可创建项目。
- 🔧 功能丰富:零配置设置、端到端类型安全、支持多平台(Web/移动/桌面)、多种数据库和 ORM 选择。
- 🔒 内置认证:集成 Better-Auth,提供开箱即用的身份验证功能。
- 📱 多平台支持:可选 PWA 和 Tauri 桌面应用集成。
- 🏗 项目结构:采用 Turborepo 驱动的 Monorepo 架构,包含 CLI 工具和文档网站。
- 📚 文档完善:提供详细文档和示例,可通过官网 better-t-stack.dev 查阅。
hajimi-king
Hajimi King 是一个用于搜索 GitHub 代码中 API 密钥的工具,支持代理轮换、增量扫描和智能过滤,可将发现的密钥同步到外部服务。项目处于 beta 阶段,功能可能变动。
- 🎪 核心功能:GitHub 密钥搜索、代理支持、增量扫描、智能过滤、外部同步
- 🔮 待开发:数据库存储、API/可视化展示、付费密钥检测
- 🏠 本地部署:需 Python 环境、GitHub Token 配置、依赖安装
- 🐳 Docker 部署:支持环境变量或.env 文件配置,推荐使用代理
- ⚙️ 配置选项:必填 GitHub Token,可选代理、同步服务等参数
- 🔍 查询文件:自定义搜索表达式是高效搜索的关键
- 🛡️ 安全建议:最小化 Token 权限、定期轮换、勿提交真实密钥
- 📊 项目状态:222 星标、82 分叉,代码以 Python 为主
resumePolice
这是一个关于"简历警察"项目的介绍,该项目旨在帮助用户优化简历并提供专业的修改建议。
- 📌 项目名称: 简历警察 🕵️♂️,已帮助修改超过 500 份简历
- 🙏 特别感谢: AiHubMix 为本项目提供了调用额度支持
- 📝 核心功能: 提供中英文简历审查提示词,包含完整的角色设定和评估标准
- 🇨🇳 中文提示词:适用于中文简历审查
- 🇺🇸 英文提示词:适用于英文简历审查
- ❓ 问题解决: 帮助程序员优化简历,排查问题,针对岗位 JD 做精准备战
- 🔧 使用方法:
- 方法一:导入工作流文件
- 方法二:拖拽文件导入 Dify 应用平台
- ⚙️ 配置要求: 需选择模型并配置 API Key(如 Gemini)
- 🎯 核心理念: 采用"批判 - 解析 - 建议"三位一体模型
- ❓ 批判:直接指出问题
- 🤔 解析:解释负面影响
- 💡 建议:提供具体方案
更新
译:AI SDK 5
AI SDK 5 发布,为全栈 AI 应用带来类型安全的聊天、Agentic 循环控制等多项重大改进,支持主流 Web 框架,并引入语音生成与转录功能。
🚀 AI SDK 概览
- 每周下载量超 200 万次,是 TypeScript/JavaScript 领先的开源 AI 工具包
- 统一 Provider API 支持任意语言模型,与主流 Web 框架深度集成
💬 重新设计的聊天功能
- 分离
UIMessage
(应用状态源)和ModelMessage
(模型优化格式) - 支持全栈类型安全,可定制消息元数据、工具调用和数据流
- 分离
🔄 Agentic 循环控制
stopWhen
定义停止条件(如步数限制或特定工具调用)prepareStep
动态调整每步参数(模型、提示、工具等)Agent
类封装配置,简化多步流程
🎙️ 实验性语音功能
- 统一 API 支持语音生成(TTS)与转录(STT)
- 兼容 OpenAI、ElevenLabs 等提供商,一行代码切换
🛠️ 工具改进
- 动态工具支持运行时未知的工具类型
- Provider 执行的工具(如 OpenAI 网页搜索)自动处理
- 生命周期钩子(如
onInputDelta
)增强控制
🔌 框架支持
- React、Vue、Svelte 功能对等,新增 Angular 支持
- 模块化架构允许自定义传输层(如 WebSocket)
⚙️ 底层增强
- V2 规范统一 Provider 接口,支持全局 Provider 配置
- 提供原始请求/响应访问,便于调试和扩展
- 兼容 Zod 4 验证库
📦 迁移与入门
- 提供自动化 codemod 工具简化升级
- 推荐新项目直接采用 Zod 4
- 文档含模板、示例及分步迁移指南
cacheSignal
该 PR 引入了cacheSignal()
API,与现有的cache()
功能配合使用,主要用于在缓存生命周期结束时中止未完成的网络请求或资源。它适用于服务器和客户端渲染场景,并提供了错误处理的便捷方式。
- 🚀 新增 API:引入
cacheSignal()
,返回一个AbortSignal
,在缓存生命周期结束时自动中止请求或资源。 - ⏳ 生命周期控制:服务器端在渲染完成时中止,客户端在缓存刷新时中止。
- 🛠 错误处理优化:通过检测
signal.aborted
忽略因中止触发的错误,避免误报。 - 🌐 跨环境兼容:在非 React 渲染环境中返回
null
,保持灵活性;客户端禁用缓存时暴露空实现。 - 🔄 SSR/RSC支持:与
renderToReadableStream
的signal
联动,但独立处理渲染完成或错误时的中止逻辑。 - 📦 代码变更:包含 6 个提交,修改 24 个文件,主要涉及 Fiber 和 Flight 的实现及测试。
- 📊 性能影响:部分包大小微增(如
react-noop-renderer
增长 18.8%),但核心包变化极小。
停止重复渲染 — TanStack DB,专为 TanStack Query 设计的嵌入式客户端数据库 | TanStack 博客
TanStack DB 是一个客户端数据库层,旨在解决 React 应用中因数据更新导致的性能问题。它通过差异数据流技术,仅更新发生变化的部分,从而大幅提升性能。TanStack DB 可以与现有的 TanStack Query 集成,提供实时查询、乐观更新和简化的架构。
- 🚀 性能优化:TanStack DB 使用差异数据流技术,仅更新变化的部分,例如在 M1 Pro 上更新 10 万条数据中的一行仅需 0.7 毫秒。
- 🔄 实时查询:通过
useLiveQuery
实现自动更新,无需手动处理数据过滤和重新渲染。 - ⚡ 乐观更新:自动处理乐观更新和错误回滚,减少样板代码。
- 📊 简化架构:TanStack DB 支持标准化数据集合和增量连接,减少 API 调用和网络依赖。
- 🔌 后端灵活性:支持 REST、GraphQL、WebSocket 等多种数据源,并可自定义集合。
- 🔄 增量采用:可以逐步采用,无需大规模迁移,适合现有项目。
- 🤝 与 TanStack Query 集成:TanStack Query 负责数据获取,TanStack DB 负责数据一致性和性能优化。
- 🛠 同步引擎支持:与 Electric、Trailblaze 和 Firebase 等同步引擎集成,实现实时更新和高效数据加载。
- 🎯 目标:提供真正的后端灵活性、增量采用、大规模查询性能、可靠的乐观更新和类型安全。
- 📅 下一步:TanStack DB 0.1 版本已发布,欢迎遇到性能问题的团队试用并提供反馈。
Announcing TypeScript 5.9 RC
TypeScript 5.9 发布候选版(RC)正式推出,带来多项新功能和优化,包括改进的 tsc --init
配置、支持 import defer
语法、新增 --module node20
选项等。
- 🚀 TypeScript 5.9 RC 发布:可通过
npm install -D typescript@rc
安装体验。 - ⚙️ 精简的
tsc --init
配置:生成的tsconfig.json
更简洁,默认启用现代模块和严格类型检查选项。 - 📦 支持
import defer
:延迟模块执行,优化性能,适用于条件加载或高开销初始化场景。 - 🔧 新增
--module node20
:稳定支持 Node.js 20 的模块解析行为,默认目标为es2023
。 - 📖 DOM API 摘要描述:现在工具提示会显示更详细的 API 功能说明,提升开发体验。
- 🔍 可扩展的悬停预览:在 VS Code 中支持展开/折叠类型信息,无需跳转到定义。
- 📏 可配置悬停长度:通过
js/ts.hover.maximumLength
调整工具提示的显示内容量。 - ⚡ 性能优化:减少重复类型实例化,优化文件存在性检查,提升编译速度。
- ⚠️ 行为变更:
ArrayBuffer
不再作为TypedArray
的父类型,可能影响部分代码类型检查。 - 🔜 即将发布正式版:计划一周内推出最终版本,欢迎试用并提供反馈。
使用 Storybook 和 Vitest 进行组件测试
Storybook 9 通过与 Vitest 合作,推出了全新的组件测试工作流,覆盖交互、可访问性和视觉测试,提升开发效率和测试覆盖率。
- 🚀 组件测试优势:兼具单元测试速度和端到端测试的真实性,适合大规模 UI 状态测试。
- 🔍 三种测试类型:
- 👆 交互测试:模拟用户行为,通过 Vitest 一键运行并调试。
- ♿️ 可访问性测试:基于 axe-core 检查 WCAG 合规性,新增分组高亮和深度链接功能。
- 🖼️ 视觉测试:通过 Chromatic 云服务自动检测视觉差异。
- 🛠️ 测试工具集成:
- 🚥 测试小部件:一键运行所有测试,支持监视模式和批量测试。
- 📊 覆盖率报告:分析代码执行情况,确保覆盖关键 UI 变体。
- ⚡ Vitest 驱动:高性能测试运行器,支持 CLI/CI 和 VS Code 集成。
- 📥 快速上手:
- 新项目:
npm create storybook@latest
- 现有项目升级后安装插件:
@storybook/addon-vitest
、@storybook/addon-a11y
等。
- 新项目:
- 🔮 未来计划:MSW 数据模拟、多视口/主题/本地化测试、多步骤测试语法优化。
设计
好设计的十个原则,来自 Dieter Rams 的 Vitsoe
Dieter Rams 提出的十条好设计原则,强调创新、实用、美观、易理解、内敛、诚实、持久、细节、环保及简约,旨在对抗设计界的混乱与浮夸。
- 🌟 好设计是创新的:技术与创意结合,创新非目的而是手段。
- 🛠️ 好设计让产品好用:兼顾功能、心理与美学需求,剔除干扰。
- 🎨 好设计是美的:美感与实用性并重,提升日常幸福感。
- 📖 好设计易于理解:结构清晰,产品能自我解释,无需说明。
- 🧘 好设计是内敛的:克制中立,为用户表达留白。
- 💎 好设计是诚实的:不夸大功能或价值,拒绝虚假承诺。
- ⏳ 好设计是持久的:超越潮流,经典永存。
- 🔍 好设计注重细节:每个细节都深思熟虑,体现对用户的尊重。
- 🌱 好设计是环保的:节约资源,减少污染,贯穿产品生命周期。
- ✂️ 好设计是越少越好:回归纯粹,专注本质,摒弃冗余。
AI
shadcn-ui-mcp-server
Shadcn UI v4 MCP 服务器是一个为 AI 助手提供全面访问 shadcn/ui v4 组件、模块、示例和元数据的协议服务器,支持 React 和 Svelte 框架,可通过 GitHub API 集成实现高效开发。
ag-ui
AG-UI 是一种轻量级、基于事件的协议,用于标准化 AI 代理与用户界面应用的连接方式,强调简单性和灵活性,支持实时用户上下文与界面的无缝集成。
eigent
Eigent 是全球首个多智能体工作团队,助您释放非凡生产力。
icepick
Icepick 是一个基于 TypeScript 的轻量级库,专注于构建高容错、可扩展的 AI 代理。它通过处理持久化执行、任务队列和调度等复杂问题,让开发者能专注于核心业务逻辑。
- 🛠️ 简单集成:所有功能均为普通函数,轻松与现有代码库和业务逻辑结合。
- 📜 代码示例:通过定义输入/输出模式、工具集和代理逻辑,快速构建可调用工具或其他代理的 AI 代理。
- 🚀 快速开始:仅需两条命令即可初始化项目,支持从模板创建示例。
- 🔄 持久化执行:自动检查点机制确保代理故障后恢复,支持长时间等待外部事件。
- 💻 代码优先:代理以代码形式定义,无缝融入业务逻辑,无框架约束。
- 🌐 分布式运行:代理和工具跨多台机器运行,故障时自动重新调度。
- ⚙️ 灵活配置:支持重试、速率限制、并发控制等多样化配置。
- ☁️ 跨平台部署:可在任何容器化平台(如 Kubernetes、AWS ECS 等)运行。
- 📈 高性能设计:支持海量任务并行处理,每月处理数十亿级任务。
- � 无状态设计:代理应为无状态的归约器,依赖工具调用的结果而非外部状态。
- 🔒 安全实践:工具调用需验证用户权限,分离数据查询与 LLM 调用。
- 🔄 技术原理:基于 Hatchet 的持久化任务队列,通过事件日志实现故障恢复和状态回放。
- 🔗 对比优势:与 Temporal 相比,提供更丰富的功能(如全局速率限制、事件流、DAG 支持等)。
- 📚 完整文档:涵盖概念、API 参考及多代理模式(如链式调用、并行化等)。
12-factor-agents
本文介绍了“12 因素代理”原则,旨在指导构建可靠、可扩展且易于维护的 LLM(大型语言模型)应用程序。作者 Dex 分享了从实践中总结的核心原则,强调模块化设计、控制流自主权以及将代理技术融入现有产品的重要性。
- 🚀 项目背景:基于“十二要素应用”理念,开源项目 12-factor-agents 旨在优化 LLM 代理开发,欢迎社区贡献。
- 🔍 问题发现:当前多数“AI 代理”实际代理性不足,多为确定性代码结合少量 LLM 步骤的混合体。
- 🛠️ 核心原则:提出 12 项构建高效 LLM 代理的原则,包括自然语言转工具调用、提示词自主权、上下文窗口控制等。
- 🔄 代理循环:典型代理工作流为“LLM 决策→工具执行→结果反馈”循环,但实际效果常低于预期。
- ⚠️ 实践挑战:框架快速实现 80% 质量后,剩余 20% 需深度定制,导致开发者常需从头重构。
- 📌 设计模式:建议采用模块化思路,将代理技术逐步集成至现有产品,而非全盘框架依赖。
- 🌟 关键洞见:优秀代理本质是软件工程问题,需结合确定性代码与 LLM 灵活性。
- 🔗 资源链接:提供相关工具(如 Airflow、Dagster)、社区(SF MLOps)及参考内容(播客、文章)的扩展资源。
写代码从来不是瓶颈 - ordep.dev
软件开发的核心瓶颈并非编写代码,而是理解、协作与维护。
- 🤖 代码生成成本趋零:LLM 大幅降低代码编写时间,但理解、测试和维护成本反而增加。
- 🔍 验证复杂度上升:生成的代码可能包含陌生模式或隐藏缺陷,审查和集成压力加剧。
- 📚 理解仍是核心挑战:代码易写难懂,推理行为、确保可维护性仍需大量人力投入。
- 👥 协作信任不可替代:团队依赖共享上下文和代码审查,过快生成代码可能削弱质量保障。
- ⚖️ 工具未改变本质:LLM 加速原型设计,但清晰的设计思维和严谨的评审仍是关键瓶颈。
其他
trae_telemetry_research
该研究分析了字节跳动开发的 Trae IDE(基于 VSCode 分支)存在的性能问题和隐私隐患,包括异常高的资源占用、无法关闭的遥测数据传输,以及社区管理中的争议性做法。
- 🚨 资源消耗异常:Trae 初始版本运行 33 个进程(VSCode 仅 9 个),内存占用达 5.7GB(VSCode 的 6.3 倍),后续版本优化后仍显著高于同类 IDE
- 🔍 强制遥测传输:即使用户禁用遥测功能,仍持续向字节跳动服务器(mon-va.byteoversea.com 等)发送硬件规格、使用行为等敏感数据
- 📊 数据收集范围:包括硬件信息(CPU 型号/内存)、系统配置、用户 ID、文件路径(脱敏)、编辑器操作记录等,单次批量请求可达 53KB,7 分钟内传输 26MB 数据
- ⚠️ 隐私风险:数据包含唯一设备标识符(machine_id/user_unique_id 等),可能实现长期用户追踪,且全部传输至中国境内服务器
- 🤐 社区审查问题:在 Discord 讨论相关发现时,关键词"track"被加入黑名单,提出技术质疑的用户遭手动禁言 7 天
- 🔧 设置失效:界面中的遥测禁用选项实际未停止数据收集,反而增加请求频率(500 次/7 分钟)
- 📅 测试环境:Windows 11 系统,Trae 版本 PRE-2.0.2 至 2.0.2(2025 年 7 月测试),使用 Fiddler/System Informer 监控
人们不再阅读完整内容
我很担忧,AI 的广泛应用,使得人们不再完整阅读任何内容。
人们以前就不愿意阅读长篇内容。长篇报告都会做成幻灯片,以求大家看一眼,即便如此,还要反复向听众强调幻灯片的重点内容。如果不这样做,人们一看到大段文字就会跳过去,最多看一眼图片。
现在有了 AI,人们就更不会阅读完整内容了。他们只会让 AI 去读,然后看一眼生成的内容总结。
视频、电视剧、电影也会如此。花两个小时看电影?太浪费时间了,让 AI 提炼出 30 秒的片段吧。
以后,看过原著的人越来越少,大家都看 AI 让我们看的东西。
学习自己真正想学的东西,最容易学进去,学习效果最好。做自己想做的事,最有动力,最有满足感。
这就是为什么你要锻炼意志力。只有意志坚强,你才能做出决定并付诸行动,选定自己的目标,去学去做。
-- 《用 AI 发展自己》