资源
一个世界模型的教学项目:Nano World Models
这个项目把一个完整研究世界模型需要的东西放在一起:数据、训练、评估、模型变体、实验消融、可视化和下游应用。它的目标是降低从“读懂世界模型”到“实际部署和实验”的门槛,并通过简洁抽象、模块化配置和完整文档,让使用者能轻松修改、适配和扩展
项目强调“从模型到科学”的转变:随着世界模型方法逐渐收敛,真正重要的问题变成如何理解模型行为、验证经验规律、探索规模化和最佳实践;因此它提供了模块化设计、丰富数据环
github.com/simchowitzlabpublic/nano-world-model1小时前网闻录
资源
一个新的LLM教学项目:从零开始学习LLM
项目作者Angelos Perivolaropoulos是 MLX 的开发人员之一,也是一位经验丰富的机器学习研究员。
该项目是一个面向学生和初学者的语言模型学习项目,目标是用尽量清晰简洁的方式带大家走完整个小型大语言模型的构建过程。
项目可让学习者亲眼看到一个语言模型如何从随机字符逐步学出词、句子结构和类似莎士比亚的文本。文档中展示了训练早期是乱码,之后出现词语、角色名和句式,最后接近莎士比亚
github.com/angelos-p/llm-from-scratch2小时前网闻录
长文
LLM 推理是如何工作的
本文从第一性原理出发,通俗易懂地揭秘了LLM(大语言模型)推理的全流程。文章重点解析了推理底层的两大核心阶段:受算力制约的“预填充(Prefill)”与受内存带宽限制的“解码(Decode)”。此外,还深入探讨了打破性能瓶颈的关键优化技术——KV缓存与模型量化,指出理解这些底层硬件与内存机制才是提升
2小时前网闻录
长文
让我们来谈谈大语言模型(LLMs)
本文基于《没有银弹》理论指出,大语言模型(LLM)仅能加速代码生成,无法解决软件规划与设计的“本质困难”,因此并非带来数量级提效的银弹。实证数据表明,盲目依赖LLM反而会加剧代码缺陷与交付不稳定性。作者呼吁开发者拒绝技术焦虑,回归测试、持续集成等软件工程基本功,这才是应对未来技术变革的真正底气。
2小时前网闻录
长文
从 CVS 到 Git:亲历三十年源代码管理演进
本文回顾了源代码管理三十年的演进史。从早期混乱的ZIP压缩包备份,到RCS、CVS、VSS及集中式SVN的艰难探索,开发者饱受工具缺陷之苦。直到2005年Linus用十天写出Git开启分布式时代,并经由GitHub助推成为行业基石。21年过去,Git依然无可替代,成为了现代软件开发的绝对标准。
3小时前网闻录
长文
我们是怎么让 kimi k2.6 几乎打平 opus 4.7 的
除了上一篇让 DeepSeek 超过 Opus 4.7 ,Ahmad Awais还分享了使用 Kimi K2.6 的经验
4小时前网闻录
长文
我们是怎么让 deepseek 超过 opus 4.7 的
CommandCodeAI的CEO:Ahmad Awais分享了他们调教DeepSeek 的经验:我们是怎么让 DeepSeek 超过 Opus 4.7 的
4小时前网闻录
资源
hfviewer 把模型架构可视化变得超级简单,只需粘贴 Hugging Face 模型链接,就能直观浏览交互式架构图
研究AI大模型时,常常需要翻阅config文件、代码和文档,手动脑补架构图,耗时又容易出错。
hfviewer 把模型架构可视化变得超级简单,只需粘贴 Hugging Face 模型链接,就能直观浏览交互式架构图。
从高层次概览到细节块,支持粒度切换、模型家族对比,还能嵌入博客或模型卡片,无需安装任何工具。
试试:hfviewer.com/nvidia/Nemotron-3-Nano-Omn
hfviewer.com4小时前网闻录
资源
huggingface出了一个官方的复刻DeepSeek-V4的教学项目:nanowhale
nanowhale 是 Hugging Face 做的一个小型 DeepSeek-V4 架构复现实验项目,用约 1.1 亿参数实现了 MLA 注意力、MoE、Hyper-Connections、MTP 等关键组件,并提供从零预训练、SFT 微调、评测、聊天和上传 Hub 的完整流程。
很适合用来学习和实验 DeepSeek-V4 风格模型架构。
github.com/huggingface/nanowhale4小时前网闻录
资源
电子书 《Python深度学习》
作者François Chollet 是谷歌大牛, Keras 深度学习库的创建者。
deeplearningwithpython.io/chapters/6小时前网闻录
资源
Hands-on Modern RL 把强化学习从入门到前沿全部整合,提供一套完整的实战学习路线
学习强化学习常常需要翻阅各种资料,经典教材讲基础理论,前沿论文聊大模型对齐,代码实现又分散在不同仓库,理解起来颇为费力。
Hands-on Modern RL 把强化学习从入门到前沿全部整合,提供一套完整的实战学习路线。
不仅有 CartPole 倒立摆、DQN、PPO 等经典算法,还覆盖 RLHF、DPO、GRPO、RLVR 等大模型对齐技术,甚至包含 Agentic RL 和 VLM 强化
github.com/walkinglabs/hands-on-modern-rl18小时前网闻录
资源
Understand-Anything 把代码分析功能全部整合到一起,提供了可视化理解代码库的解决方案
面对大型代码库,常常不知道从哪里入手,文件函数关系复杂,来回grep查找效率低下。
Understand-Anything 把代码分析功能全部整合到一起,提供了可视化理解代码库的解决方案。
不仅能生成交互式知识图谱,还支持语义搜索、引导式架构游览、变更影响分析,甚至能处理Karpathy风格的LLM知识库。
主要功能:
交互式知识图谱,支持文件、函数、类及依赖关系可视化探索;
多代
github.com/Lum1104/Understand-Anything18小时前网闻录
提示词
平面几何字体海报
May the 4th be with you,基于下面提示词模板生成 【五四青年节】主题海报
---
请基于用户输入的【核心文字 / 单词 / 词组 / 短句 / 字母】,创作一张高完成度的「现代平面几何字体概念海报 / Geometric Typographic Concept Poster」。这不是普通插画,也不是简单把文字放大后的字效海报,而是一张“基于主题词含义自动构建视觉隐喻”的现代
20小时前ylc3000
资源
将Agent输出视为编译器输出
这篇文章的观点蛮有意思的:随着coding agent生成代码的速度和数量远超人工,传统的人肉代码审查不再现实也不再有效。
作者提出,我们应把coding agent生成的代码输出当成编译器产物来看待 —— 也就是说,不是靠人一行行读,而是依赖周围的质量保障体系来验证它,比如类型系统、详尽的测试、自动验证和监控等,而不是审查生成的代码本身。
之所以现在仍然担心“无人值守的代码库”,是因为我们还没有
skiplabs.io/blog/codegen_as_compiler21小时前网闻录
长文
公司大脑,第三部分:交互记忆
公司的大部分决策并非发生在数据库里,而是在对话中。单纯记录“发生了什么”的结构化数据(事实记忆)是不够的,真正决定公司走向的是“为什么这么做”以及“当时是怎么谈的”(交互记忆)
21小时前网闻录
长文
公司大脑,第二部分:事实记忆
“公司大脑”的第一层是事实记忆。它不是共享网盘、Wiki 或企业搜索,而是能在公司各种工具和工作痕迹中,回答“发生了什么、来源在哪、谁负责、是否可信”等问题。真正的事实记忆需要权限、来源、归因、时效和关系结构,并能主动出现在工作场景中。
21小时前网闻录
长文
公司大脑:为什么大多数公司有数据,却没有记忆
企业真正缺的不是数据,而是“记忆”。大量会议、邮件、Slack、客户反馈和决策过程被分散保存,导致公司只知道“发生了什么”,却忘了“为什么发生”。“公司大脑”应整合事实记忆、人类沟通、上下文推理和行动协同,帮助组织保留判断依据、识别风险、推动执行,并让 AI 代理基于真实业务语境工作。
21小时前网闻录
资源
open-slide 把AI代理时代的幻灯片制作全搞定,让你的coding agent直接生成专业级PPT
制作PPT经常需要折腾各种工具,设计软件画图、动画插件加特效,还要导出兼容PowerPoint,还要反复调整格式,超级麻烦。
open-slide 把AI代理时代的幻灯片制作全搞定,让你的coding agent直接生成专业级PPT。
用自然语言描述你的deck,代理写React代码,open-slide处理画布、缩放、导航、热重载和演示模式,让代理专注内容创作。
主要功能:
🤖 代
github.com/1weiho/open-slide21小时前网闻录
资源
MIT 的 MAS.S60 How To AI (Almost) Anything 这门课把AI学习的核心内容全部整合,提供一套从基础到前沿的多模态AI完整课程解决方案
MIT 的 MAS.S60 How To AI (Almost) Anything 这门课把AI学习的核心内容全部整合,提供一套从基础到前沿的多模态AI完整课程解决方案。
不仅涵盖现代深度学习和基础模型原理,还深入新型真实世界数据模态(如视觉、音频、传感器、音乐、艺术等),并介绍多模态AI处理多种数据的能力。
AI基础原理,聚焦现代深度学习和基础模型;
应用于新型数据模态,从语言到视觉
mit-mi.github.io/how2ai-course/spring2025/21小时前网闻录
资源
强化学习教程:Hands-On Modern RL,现代强化学习实战指南:涵盖经典控制、LLM 后训练、RLVR 与多模态智能体
强化学习教程:Hands-On Modern RL,现代强化学习实战指南:涵盖经典控制、LLM 后训练、RLVR 与多模态智能体
在线阅读:walkinglabs.github.io/hands-on-modern-rl/
2016 年,AlphaGo 击败李世石,强化学习第一次震撼公众。2022 年 ChatGPT 发布,人们发现 RL 正是让大语言模型从"能说话"变成"说好话"的关键技术。从
github.com/walkinglabs/hands-on-modern-rl21小时前网闻录