思源笔记连接本地ollama

笔记本+AI应该是比较好的组合,曾经尝试过siyuan使用openai在线版本api,由于我现在有本地ollama,于是想尝试使用便有了这篇文章。方寻二〇二五年八月二十日 0. 安装ollama 这段可参考曾经我写过的文章或者网友们的教程 1...

折腾244

Ollama使用核显跑模型

用 CPU 跑 AI 模型非常慢,那能否使用 CPU 的核显来跑 AI 模型加快速度呢?方寻二〇二五年六月五日 前提 需要升级最新的显卡驱动,可以直接去官网搜索显卡驱动 下载 我这里使用的是Ollama 英特尔优化版 下载压缩包文件,运行 s...

应用134

搭建简易ollama服务的PHP聊天页面

搜了一圈 github 没有发现基于 PHP 链接 ollama 的项目,大多用 webui (基于docker)或者浏览器插件搞定,于是任务抛给 deepseek,写了个基础页面出来。前面是安装教程后面是代码,我服务器是 php8.2 + bre...

折腾1.5k