部署 ollama + vscode

前情提要

cursor 贵,想想用本地 ollama 是不是就不用付费了🤤

本地

主力机天选感觉应该带的动大模型,所以可以试试本地部署。

安装 ollama

1
scoop install ollama

配置 ollama 开机自启

创建一个快捷方式,目标是 <path/to>/ollama.exe serve

Win+R,将快捷方式粘贴到 shell:startup 的路径下。

配置模型

1
2
olloma pull llama3.2
# olloma pull llama3.1:8b # 这个是 continue 官方推荐但是我没下

配置 continue

vscode 安装 continue。

在 continue 的 config.json 中添加:

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
{
  "models": [
    // ...
    {
      "title": "Llama",
      "provider": "ollama",
      "model": "llama3.2"
    }
  ],
  // ...
}

🔗更多模态

Then you are good to go ~ 🎉

远程

嘻嘻之前买的服务器派上用场了,远程部署一个在外面轻薄本 (还没买,有钱是遥遥无期) 也能用上 ollama。

  • TODO: 尝试在服务器上部署一个 ollama (with docker)。📅 2025-07-01
最后更新于 Dec 19, 2024 11:30 +0800