导入
随着人工智能的不断发展,我们的生活中已经少不了了AI的影子,AI绘画,AI聊天……这篇文章将手把手带你配置Ollama体验本地的 AI聊天
安装Ollama
Ollama作为一个“一站式部署”的工具,其上手难度基本为零,首先我们先下载它 Ollama官网 下载完毕后安装(Win下双击打开即可安装),安装操作就执行完毕了。
配置Ollama
Ollama虽然是有手就能用的工具,但是仍需简单配置一番使其更加易用。
在系统变量中添加以下三个变量然后保存即可完成配置。OLLAMA_HOST=0.0.0.0
OLLAMA_MODELS=模型存放目录
OLLAMA_ORIGINS=*
拉取模型
Ollama安装完毕后是没有模型的,我们需要在Ollama官网中挑选并拉取模型,比如我想要 Llama3.1 模型,我就可以在 Ollama Library 中寻找并使用 ollama pull llama3.1:8b
来拉取模型。
其他模型操作方式一样,同时需要注意你的显存是否足够运行某些超大数据集模型
运行该模型
刚刚我们已经拉取了 llama3.1:8b 模型,然后我们可以在终端中使用 ollama run llama3.1:8b
命令运行
结束
再见!