Skip to content

legallchaperone/Looma

Repository files navigation

Looma

Weave files into living knowledge.

Looma 是一个开源、隐私优先、AI-native 的知识操作系统。

它不是“带 AI 的笔记软件”,而是把你的知识库变成 AI 可以读取、引用、连接、生成和执行任务的工作内存。

核心理念

  • File-first:文件是资产,应用不是唯一真相来源
  • Card-first:卡片是最小语义单元,也是 AI 的核心操作对象
  • Source-linked AI:AI 输出尽量附带证据、引用和回链
  • BYO API-key:你的模型、你的 Key、你的成本控制权
  • Local-first:默认本地优先,不依赖官方云才能工作
  • Open-source:开放格式、开放运行时、开放 provider 抽象

Looma 想解决什么问题

传统笔记软件的问题是:

  • 资料能存,但很难被持续利用
  • AI 常常只是一个聊天侧栏,无法真正理解你的长期知识库
  • 数据结构通常适合“写下来”,却不适合“被 AI 稳定操作”

Looma 的答案是:

  • Files 保存原始证据
  • Cards 表达观点、事实、问题、引用与任务
  • Boards 组织结构、论证与主题网络
  • ActionsAgents 在这些对象之上运行 AI 工作流

产品定位

Looma 是一个面向研究、学习、写作与长期知识管理的 AI-native 工作台。

适合:

  • 学生 / 博士生
  • 研究员 / 分析师
  • 内容创作者 / 作者
  • 产品经理 / UX 研究员 / 战略岗位

我们不做什么

  • 不卖 AI token 差价
  • 不强制绑定官方模型服务
  • 不把用户知识当作训练资产
  • 不把 AI 做成只会闲聊的侧边栏

我们要做什么

Looma 的第一阶段重点是:

  • 导入文件并建立来源元数据
  • 从来源中抽取候选卡片
  • 在白板中组织卡片与关系
  • 对整个知识库进行问答与检索
  • 从 board 生成提纲、总结和草稿
  • 所有关键 AI 输出尽量带 citation

BYO API-key

Looma 默认采用 Bring Your Own API-key

  • 用户自行配置 OpenAI、Anthropic、Gemini、OpenRouter、Ollama 等 provider
  • 用户自行决定使用哪个模型、花多少钱、把哪些数据发送到哪里
  • API key 默认本地保存,不通过官方服务器中转推理请求

工作区结构

workspace/
  workspace.yaml
  cards/
  boards/
  files/
  sources/
  annotations/
  exports/
  .looma/

其中:

  • 用户资产尽量放在可迁移的文件格式里
  • .looma/ 保存索引、缓存、embedding 和运行时数据
  • 删除 .looma/ 后,系统应能重新建索引恢复功能

当前文档

  • 产品与架构文档:docs/looma-dev-plan.md
  • 初始项目 Backlog:docs/initial-backlog.md

当前状态

目前处于产品定义与技术方案阶段,正在收敛:

  • workspace format
  • source / card / board schema
  • provider abstraction
  • retrieval + citation runtime
  • AI actions 设计

一句话总结

Looma 不是把 AI 塞进笔记软件里, 而是让你的知识库本身成为 AI 的工作内存。

About

Weave files into living knowledge

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors

Languages