网络安全/CTF入门教程:Hello CTF
“本项目旨在创建一本开源免费、新手友好的 CTF(Capture The Flag,夺旗赛) 入门教程。 对于每个方向的基础知识点,我们都会尽力提供相应的题目 (包括题目附件 题目源码 Dockerfile),所有题目均可本地部署也可在 NSSCTF 平台上直接开启,我们会在教程中逐步引导读者,并且鼓励读者自行复现,使学习过程更加具象; 在提供基础知识外,本书也将提供 CTF 相关的信息聚合,以
hello-ctf.com/“本项目旨在创建一本开源免费、新手友好的 CTF(Capture The Flag,夺旗赛) 入门教程。 对于每个方向的基础知识点,我们都会尽力提供相应的题目 (包括题目附件 题目源码 Dockerfile),所有题目均可本地部署也可在 NSSCTF 平台上直接开启,我们会在教程中逐步引导读者,并且鼓励读者自行复现,使学习过程更加具象; 在提供基础知识外,本书也将提供 CTF 相关的信息聚合,以
hello-ctf.com/传统数据库还在用“覆盖旧页”的方式写 SSD,但 SSD 内部本来就是追加写和垃圾回收。作者认为现代的 DBMS 应该顺应 SSD 的工作方式,改成 out-of-place writes,并利用数据库知道的页面生命周期信息,主动安排数据写到哪里。这样可以同时减少数据库层和 SSD 层的写放大,带来更高吞吐、更低写入量和更长 SSD 寿命。 还有一个配套的开源项目:github.com/LeeB
www.vldb.org/pvldb/vol19/p1469-lee.pdfAutoGo 是一个用围棋做实验场的“AI 研究自动化”项目。 表面上它是在从零训练一个会下围棋的 AI,实际重点是研究能不能让 Claude 这类 agent 负责设计实验、启动训练、看结果、调整方向。下面是项目介绍 ------------- AlphaGo 和 MCTS 已经是 2016 年的东西了。为什么还要围绕围棋构建一个研究代码库,而不是选择更新的模型方向,比如 reasoning L
github.com/ericjang/autogo企业追求速度以降低“不确定性”,高级开发者则追求稳定以减少“复杂性”,两者目标的错位导致了沟通障碍。开发者应顺应业务,用重用或精简代码的方式提供“更快”的方案。 面对 AI 时代对系统稳定性的冲击,文章建议将系统解耦:先构建快速试错的“速度版”,再打磨可靠的“稳定版”。未来,高级开发者将转变为对系
本文警示了过度依赖AI代理编程的陷阱。将编码完全外包给AI,会导致开发者批判性思维退化、认知负债激增,最终丧失审查AI代码的核心能力,并陷入供应商锁定。 作者建议将AI降级为辅助规划工具,开发者必须坚持亲手编码与小批量审查,在实际“试错”中保持核心技能,避免沦为被技术淘汰的牺牲品。
软件架构的核心不在于编写完美的逻辑,而在于管理复杂性与应对不可预见的变更。优秀的架构必须能够隔离风险、降低沟通成本,并承认设计最终会被社会组织结构(Conway's Law)所塑造。
【自定义需求】 主题:[填写,如夏日出游 / 美食派对 / 新店开业 / 节日庆典等] 海报文字:[填写所有需要出现的文字,如标题/副标题/品牌名/日期等] 主色调:[填写一个颜色,如蓝色 / 橙色 / 绿色 / 红色等] 风格调性:[复古美式卡通 / Groovy迷幻 / 漫画冲击 / 街头设计师玩具 / 场景叙事 / 满版涂鸦] 构图类型:[单角色 / 多角色聚合 / 场景叙事 / 满版铺满]
AI科研常常需要反复切换多个工具:Claude Code跑实验、GPT审稿子、文献调研靠手动搜、写论文还得自己调LaTeX,效率低下且容易遗漏关键问题。 ARIS(Auto-Research-In-Sleep)把整个ML研究流程自动化整合,提供从idea生成到论文投稿的全链路解决方案,让AI帮你“睡着做研究”。 不仅支持跨模型协作(Claude执行+GPT-5.5深度审稿)、自动实验部署,还能
github.com/wanshuiyin/Auto-claude-code-research-in-sleep文本转语音经常需要调用云端API,速度慢、延迟高,还担心隐私泄露和费用问题,云服务调用麻烦,离线使用几乎不可能。 Supertonic 把TTS功能做到极致本地化,提供闪电般快速的设备端多语言语音合成解决方案。 不仅支持31种语言的高质量实时合成,还无需网络、无隐私风险,体积小巧可在浏览器、Raspberry Pi甚至电子书阅读器上运行。 Demo:huggingface.co/spaces
github.com/supertone-inc/supertonicAI编程经常需要来回切换工具,规划任务靠脑子记、进度散在聊天记录、研究发现找不到、上下文一重置就全忘,效率低下问题一大堆。 Planning with Files 把Manus的亿万级规划工作流完整复刻,提供了AI代理的持久化规划解决方案。 这是Meta 20亿刀收购Manus的核心秘密武器,支持17+ IDE平台,自动创建3文件规划系统(task_plan.md/findings.md/pr
github.com/OthmanAdi/planning-with-files开发AI代理经常需要集成各种框架、工具和LLM,编写大量样板代码,手动管理内存、RAG和任务规划,部署复杂且耗时。 PraisonAI 🦞 把AI代理开发所需的功能全部整合到一起,提供了全栈多代理系统的解决方案。 不仅支持自主研究、规划、编码和执行任务,还内置内存、RAG,支持100+ LLM,5行代码即可部署24/7 AI劳动力。 主要功能: 核心代理SDK,支持单代理/多代理,自
github.com/MervinPraison/PraisonAI绿幕抠像经常遇到边缘混色难题,传统抠像工具难以分离主体与背景的混合像素,头发、运动模糊等半透明区域总要手动修边或罗托镜,耗时费力。 CorridorKey 用神经网络彻底解决这个"颜色分离"问题,一键输入绿幕素材,就能完美提取前景直色和线性Alpha通道。 不仅物理精确分离半透明像素,还支持绿/蓝幕自动识别、4K高分辨率处理、VFX标准EXR输出,甚至集成GVM/VideoMaMa生成粗Alp
github.com/nikopueringer/CorridorKeySEO优化常常需要切换多个工具,爬虫检查、内容评分、结构化数据生成、品牌监测,来回折腾效率低下。 geo-seo-claude 把AI搜索优化(GEO)全流程整合,提供一站式网站AI可见性提升方案。 专为ChatGPT、Claude、Perplexity等AI搜索引擎优化,同时兼顾传统SEO,支持引用评分、爬虫分析、品牌权威、平台适配和PDF报告生成。 想学如何卖给企业?加入Skool社区:
github.com/zubair-trabazada/geo-seo-claude"本次发布更新了 For You 算法代码,包括一个可运行的端到端推理流水线,以及用于内容理解、广告和候选内容来源的新组件。 端到端推理流水线:新增的 phoenix/runpipeline.py 用单一入口替代了原先分开的 runranker.py 和 run_retrieval.py 脚本。它可以基于导出的 checkpoints 执行 retrieval → ranking 流程,模拟
github.com/xai-org/x-algorithm本文介绍我们观察到的、能够帮助团队在大规模场景下成功采用 Claude Code 的模式。
Hugging Face的一篇介绍连续批处理 “ Continuous batching ” 的高质量博文,有大量的可视化图表来帮助理解。 在本篇博客中,我们将从注意力机制和KV缓存出发,通过优化吞吐量推导出连续批处理的原理。 如果你曾使用过Qwen、Claude或任何其他AI聊天机器人,你可能注意到了一个现象:回复的第一个词出现需要一段时间,随后词语会一个接一个地出现在屏幕上,且(理想情况下
huggingface.co/blog/continuous_batching上一篇 https://abxcyz.com/zh/articles/2486 这一篇主要解释如何把 CPU 和 GPU 的工作负载分离,从而大幅提升推理性能。 “这是高效 LLM 推理系列文章的第二篇。第一篇从基本原理讲解了 continuous batching。它介绍了一些本文会继续使用的概念:KV cache、FlashAttention、attention masks 等。 在 In
huggingface.co/blog/continuous_async内容创作者经常需要访问多个AI平台,图片用Flux或Midjourney,视频用Kling或Sora,唇同步用InfiniteTalk,还得单独找扩散模型和 upscale 工具,来回切换API Key超级麻烦。 Muapi 把200+个AI模型全部整合到一个API,提供了最全的图片视频生成解决方案。 不仅有Seedance 2.0、Veo3、Sora 2 Pro等顶尖文生视频和图生视频,还支
github.com/Anil-matcha/Open-Generative-AI。 不仅有Transformer从头实现、高性能优化(FlashAttention2、Triton内核),还覆盖数据清洗去重、Scaling Laws、RLHF对齐,甚至分布式训练系统。 官网:cs336.stanford.edu 主要作业: Assignment 1:实现Tokenizer、Transformer架构、优化器,从零训练语言模型; Assignment 2:性能剖析+
youtube.com/playlist?list=PLoROMvodv4rMqXOcazWaTUHhq-yembLCV涉及机器学习硬件-软件协同设计,目前有十三讲。 Efficient AI 第 1 讲:Introduction 为什么 efficient AI 同时需要 algorithmic compression 和 hardware specialization:Deep Compression、EIE、MCUNetV3、高效 LM,以及推动 co-design 的硬件趋势。 Efficient AI
ickma2311.github.io/ML/HW-SW-codesign/