导入

随着人工智能的不断发展,我们的生活中已经少不了了AI的影子,AI绘画,AI聊天……这篇文章将手把手带你配置Ollama体验本地的 AI聊天

安装Ollama

Ollama作为一个“一站式部署”的工具,其上手难度基本为零,首先我们先下载它 Ollama官网 下载完毕后安装(Win下双击打开即可安装),安装操作就执行完毕了。

配置Ollama

Ollama虽然是有手就能用的工具,但是仍需简单配置一番使其更加易用。
在系统变量中添加以下三个变量然后保存即可完成配置。
img
OLLAMA_HOST=0.0.0.0
OLLAMA_MODELS=模型存放目录
OLLAMA_ORIGINS=*

拉取模型

Ollama安装完毕后是没有模型的,我们需要在Ollama官网中挑选并拉取模型,比如我想要 Llama3.1 模型,我就可以在 Ollama Library 中寻找并使用 ollama pull llama3.1:8b 来拉取模型。
其他模型操作方式一样,同时需要注意你的显存是否足够运行某些超大数据集模型

运行该模型

刚刚我们已经拉取了 llama3.1:8b 模型,然后我们可以在终端中使用 ollama run llama3.1:8b 命令运行

结束

再见!


本博客部分素材来源于网络,如有侵权请联系 3099044113@qq.com 删除
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。