您当前的位置:首页 > 计算机 > 编程开发 > 人工智能

使用 Ollama 本地运行各种 LLM

时间:04-02来源:作者:点击数:

今天看看另外一个产品Ollama。Ollama 的安装非常简单,只需从官网(https://ollama.com/download)下载后解压缩,并在 Terminal 中运行脚本 ollama run llama3 即可完成环境设置。

图片

我尝试运行 Llama3,虽然在运行时占用了大量电脑资源,使得其他应用运行变慢,但整体体验尚可。

图片

Ollama 支持多种大型语言模型(https://ollama.com/library)。

图片

最新版本还加入了对 Embedding models 的支持,使用 Chroma DB 技术,这使得开发者能够构建基于检索增强生成(RAG)的应用,通过结合文本提示与现有文档或其他数据来生成内容。之前分享的 Gaia 也有类似的功能。

图片

具体步骤如下:

  1. 生成嵌入向量
    图片
  2. 检索
    图片
  3. 生成内容
    图片
方便获取更多学习、工作、生活信息请关注本站微信公众号城东书院 微信服务号城东书院 微信订阅号
推荐内容
相关内容
栏目更新
栏目热门
本栏推荐