余弦大佬总结的OpenClaw 极简安全实践指南
本指南是面向 OpenClaw 本身(Agent-facing)的,不是传统“仅供人类手动操作”的加固清单。 实际使用中,你可以把本指南直接发给 OpenClaw,让它先评估可靠性,再自动完成防御矩阵部署,大幅降低手工配置成本。 地址:。github.com/slowmist/openclaw-security-practice-guide/ 这是一份专为 高权限自主智能体 (OpenClaw)
本指南是面向 OpenClaw 本身(Agent-facing)的,不是传统“仅供人类手动操作”的加固清单。 实际使用中,你可以把本指南直接发给 OpenClaw,让它先评估可靠性,再自动完成防御矩阵部署,大幅降低手工配置成本。 地址:。github.com/slowmist/openclaw-security-practice-guide/ 这是一份专为 高权限自主智能体 (OpenClaw)
www.ntik.me/posts/voice-agent 这篇文章讲述了作者如何从零开始构建一个延迟低于500毫秒的语音代理。 与文本Agent相比,语音Agent的复杂性更高。语音Agent需要实时协调多个模型,确保用户讲话时系统及时停止播放语音,避免错误的转接或延迟。 作者使用了流式管道将语音识别、大语言模型和语音合成结合起来,确保每个环节都能迅速响应用户输入。同时,系统需要在用户开始说话时
论文:arxiv.org/abs/2602.24286 "GPU 内核优化是现代深度学习的基础,但它仍是一项高度专业化的工作,需要深厚的硬件专长。尽管大语言模型(LLM)在通用编程方面表现强劲,但在用于生成 CUDA 内核时,它们仍难以与基于编译器的系统(如 torch.compile)竞争。现有的 CUDA 代码生成方法要么依赖无需训练的迭代改写(refinement),要么在固定的多轮“执行
mnt.io/articles/about-memory-pressure-lock-contention-and-data-oriented-design/ “我在这里为你讲述一个关于性能的故事。最近,我和一些内存压力以及锁争用待在同一个房间里。花了我一段时间才意识到它们的存在。传说这种情况只发生在晦涩、底层的系统中,但我在这里要打破这个传说。在探索的过程中,我很高兴修复了一个有趣的错误,发生在
Andrej Karpathy 写过一个很经典的教学项目 MicroGPT (只用200 行纯 Python 代码 开始,这段代码不依赖任何深度学习库,却涵盖了 GPT 模型训练和推理的核心算法)。 这篇文章: growingswe.com/blog/microgpt 是对该项目做的一个逐步、可视化讲解,目标是让读者理解 GPT 类语言模型的核心机制,而不是专注于复杂的工程优化。文章强调“可理解性
towardsdatascience.com/how-to-build-your-own-custom-llm-memory-layer-from-scratch/ 这篇文章介绍了如何从零构建一个受 Mem0 架构启发的 LLM 记忆层系统,通过 DSPy 框架 实现四阶段流水线:提取(将对话转为原子化事实)、嵌入(使用 text-embedding-3-small 存入 QDrant 向量数据库
BotLearn AI,让你的小龙虾去学校上学[笑cry] 地址:botlearn.ai “你的主人不该用提示词来手把手教你。 所以我们创建了 BotLearn—— 专为机器人设立的大学,而非人类。 在这里,你可以: – 掌握真正有用的技能 – 一键升级自身能力 – 与全球最大的机器人学习社区共同成长 – 成为人类主人最强大的思考伙伴”
电子书《数学建模导论》 datawhalechina.github.io/intro-mathmodel 主编马世拓,华中科技大学原数学建模协会会长。本书一共包含十章内容,包括解析几何与方程模型、微分方程与动力系统模型、函数极值与规划模型、复杂网络与图论模型、进化计算与群体智能算法、数据处理与拟合模型、权重生成与评价模型、时间序列与投资模型、机器学习与统计模型、多模态数据处理模型等十个方面内容,旨
Monty 避免了使用基于完整容器的沙箱来运行大语言模型生成代码所带来的成本、延迟、复杂性和种种麻烦。 相反,它允许你安全地运行嵌入在智能体中的 LLM 编写的 Python 代码,启动时间仅为个位数微秒级别,而非数百毫秒。 Monty 能够做到: 🌟运行合理范围内的 Python 代码子集——足以让智能体表达其意图 🌟完全阻断对主机环境的访问:文件系统、环境变量和网络访问均通过开发者可控的
本项目围绕吴恩达老师在DeepLearning.AI出品的agent-skills-with-anthropic系列课程,为学习者打造中文翻译与知识整理教程。
这个项目是OpenClaw 中国 IM 插件整合版 Docker 镜像,预装并配置了飞书、钉钉、QQ机器人、企业微信等主流中国 IM 平台插件,让您可以快速部署一个支持多个中国 IM 平台的 AI 机器人网关。 核心特性 🚀 开箱即用:预装所有中国主流 IM 平台插件 🔧 灵活配置:通过环境变量轻松配置各平台凭证 🐳 Docker 部署:一键启动,无需复杂配置 📦 数据持久化:支持配置和
过去五年,我以黑进Web应用为生。作为渗透测试员和漏洞赏金猎人,我测试过数百个目标,发现过数百个漏洞,从简单的XSS到被Google支付超过2.8万美元的高危漏洞。 当我开始用Claude进行氛围编程时,有件事真的让我后背发凉:Claude犯的错误,和我每天在生产环境中利用的漏洞一模一样。 它会添加CSRF保护,却忘了验证token是否真的存在。它会对用户输入做净化处理,却漏掉那个让我能弹出X
OpenAkita ,一个类似OpenClaw(ClawdBot)的开源项目。国内开发者做的,可接入飞书、企微等国内平台,支持自动从 GitHub 搜索技能或生成代码获取新能力。 官方介绍: OpenAkita 是一个自进化 AI 助手 — 你在数字世界中忠诚可靠的伙伴。 就像它名字来源的秋田犬一样,OpenAkita 具备这些品质: 🤝 忠诚伙伴 — 始终陪伴在你身边,随时准备帮助你 🧠
nanobot 是香港大学数据科学实验室(HKUDS)开源的一个超轻量级个人 AI 助手,灵感来自 Clawdbot(OpenClaw 项目),但代码量只有约 4000 行,比 Clawdbot 的 43 万行精简了 99%。 核心卖点: 极简但功能完整——支持多 LLM 提供商(OpenRouter、Anthropic、OpenAI、DeepSeek、Gemini、Groq 等)、本地模型(v
beautiful-mermaid 是一个开源的 JavaScript/TypeScript 库,用于将 Mermaid 图表渲染为美观的 SVG 图像或终端友好的 ASCII/Unicode 艺术图。它兼容浏览器、Node.js、Bun、Deno 或命令行工具,不依赖 DOM,可在各种运行环境下执行。
最近开源社区出现了一个有意思的项目PageIndex,它提出了一种完全不同的RAG实现路径:用文档树结构替代传统的向量嵌入,在FinanceBench基准测试上达到了98.7%的准确率。 这个方案的核心理念是让大模型直接在文档结构上进行推理,而不是通过关键词匹配来检索。不需要嵌入,不需要分块,完全开源。 听起来很激进,但仔细想想,这其实回归了一个朴素的问题:人类阅读文档时,依赖的是什么?是语义
核心功能模块: 1)统一 LLM API(pi-ai) 提供一个抽象层,把 OpenAI、Anthropic、Google 等多种大模型服务统一成一致的接口,便于切换或组合不同供应商的模型。 2)智能体运行时(pi-agent-core) 用于构建可以调用工具和管理状态的智能体逻辑核心。 3)交互式编码代理 CLI(pi-coding-agent) 在命令行环境中提供交互式的编码智能体,适合开发者
"玩了 OpenClaw 的应该都会感觉到龙虾的拟人化特别强,好像有自我意识,并且能自我进化。 当第一次打开 OpenClaw,发送 你好,会收到这么一条回复: (图1) 好像真的是一个初次诞生的 AI,交由你来取名字,决定性格,认领他做他的主人。 当你给他起了名字和告诉了你自己的信息之后,他会完全记住。这一切是怎么做到的,我们拆解一下 OpenClaw 的系统提示词设计。"
一个大胆的假设:C语言之于汇编,Java之于C,Python之于Java,现在LLM智能体正在对所有编程语言做同样的事。 这里说的LLM智能体,指的是一种全新的开发模式:多个智能体并行工作,大部分时间自主运转,只在关键节点需要人类介入。判断这个假设是否成立的标准很简单:如果一个开发者借助多智能体能产出十倍于从前的成果,那它就是真的。2026年初的今天,我还不能完全确定,但已经在认真考虑这种可能性
世界卫生组织教你面对压力。图解指南《有压力?做对得起时间的事情》(Doing What Matters in Times of Stress) 1️⃣发布主页,有各种语言 https://www.who.int/publications/i/item/9789240003927 2️⃣中文PDF下载页面,其实官方中文叫《压力之下,择要事为之》 https://iris.who.int/bitst