最近在 Hacker News 上看到一个挺有意思的项目叫 Clippy,开发者 Felix Rieseberg 把 Windows 98 风格的桌面助手搬到了浏览器里,专门用来和本地运行的大语言模型对话。说白了,就是给你的本地 AI 套了一个 90 年代的复古外壳。
这个项目是干什么的
Clippy 是一个开源的桌面助手界面,用 Web 技术(HTML/CSS/JS)构建,模仿了 1997 年微软 Office 里那个经典的回形针助手。不过这次它不是来烦你写文档的,而是作为本地 LLM 的前端界面。
项目地址:https://github.com/felixrieseberg/clippy
在线体验:https://felixrieseberg.github.io/clippy/
功能亮点
- Windows 98 风格 UI:用了 98.css 这个 CSS 框架,窗口、按钮、桌面图标都是正宗的 Win98 风格
- 支持本地 LLM:可以通过 Ollama、LM Studio 等工具连接本地模型
- 多种交互方式:支持文字对话,也可以上传图片让模型分析
- 完全开源:MIT 许可证,可以自由修改和二次开发
- 纯前端:直接部署到 GitHub Pages 或任何静态托管服务
怎么用
在线体验
最简单的方式是直接访问在线版本,打开 项目演示页面,你会看到一个 Windows 98 风格的桌面,上面有几个图标。
本地运行
如果你想自己部署,步骤如下:
先克隆仓库:
git clone https://github.com/felixrieseberg/clippy.git
cd clippy
安装依赖并启动:
npm install
npm run dev
启动后打开浏览器就能看到复古桌面界面了。
连接本地模型
要让 Clippy 真正能对话,需要先跑一个本地 LLM 服务。推荐用 Ollama:
# 安装 Ollama 后,拉取一个模型
ollama pull llama3.2
# Ollama 默认在 http://localhost:11434 提供 API
然后在 Clippy 的设置里填入 Ollama 的 API 地址就可以了。
技术实现
项目本身并不复杂,核心用到了这些技术:
- 98.css:一个专门模拟 Windows 98 界面风格的 CSS 框架
- Web Speech API:用于语音输入和输出
- Fetch API:与本地 LLM 的 API 通信
整个项目是一个纯静态前端应用,不依赖后端服务器,所以可以很轻松地部署到任何地方。
适合谁
- 喜欢折腾本地 AI 的玩家
- 对 90 年代 UI 有情怀的开发者
- 想给自己的 AI 项目找个有趣的前端壳
- 前端开发者学习 Web 技术和 LLM API 集成
简评
说实话这个项目实用性一般,毕竟正经用 AI 大家还是用 Open WebUI 或者 LobeChat。但胜在创意和情怀——当年那个烦人的回形针助手,现在变成了真正能帮你干活的 AI 对话界面,这反差还是挺有趣的。
如果你本地已经跑了 Ollama,花五分钟体验一下还是挺值的。也可以参考它的代码,看看怎么用纯前端对接本地 LLM API。












GitHub – TauricResearch/TradingAgents


GitHub – docusealco/docuseal

暂无评论内容