一个“从零做一个小型语言专属 LLM”的端到端教程
作者用乌尔都语作为示例,从原始语料开始,做数据清洗、训练 tokenizer、预训练 GPT 风格 Transformer、做 SFT 对话微调,最后用 Gradio/Hugging Face Spaces 部署成聊天机器人。 https://www.freecodecamp.org/news/how-to-build-your-own-language-specific-llm-handbook
作者用乌尔都语作为示例,从原始语料开始,做数据清洗、训练 tokenizer、预训练 GPT 风格 Transformer、做 SFT 对话微调,最后用 Gradio/Hugging Face Spaces 部署成聊天机器人。 https://www.freecodecamp.org/news/how-to-build-your-own-language-specific-llm-handbook
1、Product Hunt :产品上线第一站 2、Hacker News :技术圈的舆论广场 3、Reddit :SaaS创意的金矿 4、Indie Hackers :独立开发者的社区 5、Substack :私域流量的宝地 6、Medium :长文内容的流量入口
耶鲁大学商学院的副教授Paul Goldsmith-Pinkham发布了一个关于在研究中使用Claude Code的教学视频。一共七集,现在到了第五集,很适合入门者。 https://bcf.princeton.edu/events/paul-goldsmith-pinkham-mini-series-on-claude-code-for-applied-economists/ 视频发布在由普林
blog.bytebytego.com/p/how-anthropics-claude-thinks "Anthropic 没有人编程让 Claude 按特定方式思考。他们只是用数据训练它,而 Claude 自行发展出了自己的策略,这些策略隐藏在数十亿次计算中。对于构建它的人来说,这可能感觉像一个令人不安的黑箱。因此,他们决定构建类似显微镜的工具,为 AI 提供一套工具,让他们可以追踪 Clau
pdf下载:readwise-assets.s3.amazonaws.com/media/wisereads/articles/how-to-remember-everything-you/1031.pdf 该记忆方法的核心在于将被动阅读转化为主动编码与提取的认知过程: 🌟首先通过分层阅读(预览-略读-精读)和20%高亮规则筛选高价值信息,配合提问驱动和即时笔记建立初始记忆锚点; 🌟利用间隔
本指南是面向 OpenClaw 本身(Agent-facing)的,不是传统“仅供人类手动操作”的加固清单。 实际使用中,你可以把本指南直接发给 OpenClaw,让它先评估可靠性,再自动完成防御矩阵部署,大幅降低手工配置成本。 地址:。github.com/slowmist/openclaw-security-practice-guide/ 这是一份专为 高权限自主智能体 (OpenClaw)
www.ntik.me/posts/voice-agent 这篇文章讲述了作者如何从零开始构建一个延迟低于500毫秒的语音代理。 与文本Agent相比,语音Agent的复杂性更高。语音Agent需要实时协调多个模型,确保用户讲话时系统及时停止播放语音,避免错误的转接或延迟。 作者使用了流式管道将语音识别、大语言模型和语音合成结合起来,确保每个环节都能迅速响应用户输入。同时,系统需要在用户开始说话时
论文:arxiv.org/abs/2602.24286 "GPU 内核优化是现代深度学习的基础,但它仍是一项高度专业化的工作,需要深厚的硬件专长。尽管大语言模型(LLM)在通用编程方面表现强劲,但在用于生成 CUDA 内核时,它们仍难以与基于编译器的系统(如 torch.compile)竞争。现有的 CUDA 代码生成方法要么依赖无需训练的迭代改写(refinement),要么在固定的多轮“执行
mnt.io/articles/about-memory-pressure-lock-contention-and-data-oriented-design/ “我在这里为你讲述一个关于性能的故事。最近,我和一些内存压力以及锁争用待在同一个房间里。花了我一段时间才意识到它们的存在。传说这种情况只发生在晦涩、底层的系统中,但我在这里要打破这个传说。在探索的过程中,我很高兴修复了一个有趣的错误,发生在
Andrej Karpathy 写过一个很经典的教学项目 MicroGPT (只用200 行纯 Python 代码 开始,这段代码不依赖任何深度学习库,却涵盖了 GPT 模型训练和推理的核心算法)。 这篇文章: growingswe.com/blog/microgpt 是对该项目做的一个逐步、可视化讲解,目标是让读者理解 GPT 类语言模型的核心机制,而不是专注于复杂的工程优化。文章强调“可理解性
towardsdatascience.com/how-to-build-your-own-custom-llm-memory-layer-from-scratch/ 这篇文章介绍了如何从零构建一个受 Mem0 架构启发的 LLM 记忆层系统,通过 DSPy 框架 实现四阶段流水线:提取(将对话转为原子化事实)、嵌入(使用 text-embedding-3-small 存入 QDrant 向量数据库
BotLearn AI,让你的小龙虾去学校上学[笑cry] 地址:botlearn.ai “你的主人不该用提示词来手把手教你。 所以我们创建了 BotLearn—— 专为机器人设立的大学,而非人类。 在这里,你可以: – 掌握真正有用的技能 – 一键升级自身能力 – 与全球最大的机器人学习社区共同成长 – 成为人类主人最强大的思考伙伴”
电子书《数学建模导论》 datawhalechina.github.io/intro-mathmodel 主编马世拓,华中科技大学原数学建模协会会长。本书一共包含十章内容,包括解析几何与方程模型、微分方程与动力系统模型、函数极值与规划模型、复杂网络与图论模型、进化计算与群体智能算法、数据处理与拟合模型、权重生成与评价模型、时间序列与投资模型、机器学习与统计模型、多模态数据处理模型等十个方面内容,旨
Monty 避免了使用基于完整容器的沙箱来运行大语言模型生成代码所带来的成本、延迟、复杂性和种种麻烦。 相反,它允许你安全地运行嵌入在智能体中的 LLM 编写的 Python 代码,启动时间仅为个位数微秒级别,而非数百毫秒。 Monty 能够做到: 🌟运行合理范围内的 Python 代码子集——足以让智能体表达其意图 🌟完全阻断对主机环境的访问:文件系统、环境变量和网络访问均通过开发者可控的
本项目围绕吴恩达老师在DeepLearning.AI出品的agent-skills-with-anthropic系列课程,为学习者打造中文翻译与知识整理教程。
这个项目是OpenClaw 中国 IM 插件整合版 Docker 镜像,预装并配置了飞书、钉钉、QQ机器人、企业微信等主流中国 IM 平台插件,让您可以快速部署一个支持多个中国 IM 平台的 AI 机器人网关。 核心特性 🚀 开箱即用:预装所有中国主流 IM 平台插件 🔧 灵活配置:通过环境变量轻松配置各平台凭证 🐳 Docker 部署:一键启动,无需复杂配置 📦 数据持久化:支持配置和
过去五年,我以黑进Web应用为生。作为渗透测试员和漏洞赏金猎人,我测试过数百个目标,发现过数百个漏洞,从简单的XSS到被Google支付超过2.8万美元的高危漏洞。 当我开始用Claude进行氛围编程时,有件事真的让我后背发凉:Claude犯的错误,和我每天在生产环境中利用的漏洞一模一样。 它会添加CSRF保护,却忘了验证token是否真的存在。它会对用户输入做净化处理,却漏掉那个让我能弹出X
OpenAkita ,一个类似OpenClaw(ClawdBot)的开源项目。国内开发者做的,可接入飞书、企微等国内平台,支持自动从 GitHub 搜索技能或生成代码获取新能力。 官方介绍: OpenAkita 是一个自进化 AI 助手 — 你在数字世界中忠诚可靠的伙伴。 就像它名字来源的秋田犬一样,OpenAkita 具备这些品质: 🤝 忠诚伙伴 — 始终陪伴在你身边,随时准备帮助你 🧠
nanobot 是香港大学数据科学实验室(HKUDS)开源的一个超轻量级个人 AI 助手,灵感来自 Clawdbot(OpenClaw 项目),但代码量只有约 4000 行,比 Clawdbot 的 43 万行精简了 99%。 核心卖点: 极简但功能完整——支持多 LLM 提供商(OpenRouter、Anthropic、OpenAI、DeepSeek、Gemini、Groq 等)、本地模型(v
beautiful-mermaid 是一个开源的 JavaScript/TypeScript 库,用于将 Mermaid 图表渲染为美观的 SVG 图像或终端友好的 ASCII/Unicode 艺术图。它兼容浏览器、Node.js、Bun、Deno 或命令行工具,不依赖 DOM,可在各种运行环境下执行。