Weave files into living knowledge.
Looma 是一个开源、隐私优先、AI-native 的知识操作系统。
它不是“带 AI 的笔记软件”,而是把你的知识库变成 AI 可以读取、引用、连接、生成和执行任务的工作内存。
File-first:文件是资产,应用不是唯一真相来源Card-first:卡片是最小语义单元,也是 AI 的核心操作对象Source-linked AI:AI 输出尽量附带证据、引用和回链BYO API-key:你的模型、你的 Key、你的成本控制权Local-first:默认本地优先,不依赖官方云才能工作Open-source:开放格式、开放运行时、开放 provider 抽象
传统笔记软件的问题是:
- 资料能存,但很难被持续利用
- AI 常常只是一个聊天侧栏,无法真正理解你的长期知识库
- 数据结构通常适合“写下来”,却不适合“被 AI 稳定操作”
Looma 的答案是:
- 用
Files保存原始证据 - 用
Cards表达观点、事实、问题、引用与任务 - 用
Boards组织结构、论证与主题网络 - 用
Actions和Agents在这些对象之上运行 AI 工作流
Looma 是一个面向研究、学习、写作与长期知识管理的 AI-native 工作台。
适合:
- 学生 / 博士生
- 研究员 / 分析师
- 内容创作者 / 作者
- 产品经理 / UX 研究员 / 战略岗位
- 不卖 AI token 差价
- 不强制绑定官方模型服务
- 不把用户知识当作训练资产
- 不把 AI 做成只会闲聊的侧边栏
Looma 的第一阶段重点是:
- 导入文件并建立来源元数据
- 从来源中抽取候选卡片
- 在白板中组织卡片与关系
- 对整个知识库进行问答与检索
- 从 board 生成提纲、总结和草稿
- 所有关键 AI 输出尽量带 citation
Looma 默认采用 Bring Your Own API-key:
- 用户自行配置 OpenAI、Anthropic、Gemini、OpenRouter、Ollama 等 provider
- 用户自行决定使用哪个模型、花多少钱、把哪些数据发送到哪里
- API key 默认本地保存,不通过官方服务器中转推理请求
workspace/
workspace.yaml
cards/
boards/
files/
sources/
annotations/
exports/
.looma/其中:
- 用户资产尽量放在可迁移的文件格式里
.looma/保存索引、缓存、embedding 和运行时数据- 删除
.looma/后,系统应能重新建索引恢复功能
- 产品与架构文档:
docs/looma-dev-plan.md - 初始项目 Backlog:
docs/initial-backlog.md
目前处于产品定义与技术方案阶段,正在收敛:
- workspace format
- source / card / board schema
- provider abstraction
- retrieval + citation runtime
- AI actions 设计
Looma 不是把 AI 塞进笔记软件里, 而是让你的知识库本身成为 AI 的工作内存。