文章

想要本地部署大模型?来看这篇!

想要本地部署大模型?来看这篇!

原始链接

本文档从Gitee Issue自动生成,原文地址:Issue #ID9NLD


你好,我又来分享知识了,这次教大家如何本地部署大语言模型。

访问https://ollama.com/,点击Download,根据自己的系统进行下载安装。

Linux可以直接运行这条命令。

1
curl -fsSL https://ollama.com/install.sh | sh

安装好后重启,运行ollama serve启动Ollama。

保持Ollama在后台,在Ollama网站的搜索框搜索你想要的模型,比如qwen3

选择适合的模型大小,点击复制按钮复制命令,把命令粘贴在终端,等待一会,Ollama的模型就下载好啦!

随便输入点问题,看看模型能否回答。

输入/quit就能退出了。

本文由作者按照 CC BY 4.0 进行授权