Ollama
-
一文读懂如何基于 Ollama 在本地运行 LLM
作为一个功能强大且使用便捷的工具套件,Ollama不仅为用户提供了精心策源的优质模型备选,更允许直接引入自有的自定义模型,确保了最大程度的灵活性和定制空间。
-
一些 Llama3 微调工具以及如何在 Ollama 中运行
本文主要介绍如何使用下面这几个工具进行微调,以及如何在Ollama中安装运行微调后的模型。
-
Ollama如何构建自己的Llama3中文模型
Ollama 设计为一个框架,旨在简化在 Docker 容器中部署和管理大型语言模型的过程,使得这一过程变得简单快捷。用户可以通过简单的命令行操作,快速在本地运行如 Llama 3 这样的开源大型语言模型。
-
使用Ollama和Go基于文本嵌入模型实现文本向量化
我们看到,基于Ollama加载的预训练文本嵌入模型,我们可以在Go语言中实现高效优质的文本向量化。将文本数据映射到语义向量空间,为基于RAG的知识库应用打下坚实的基础。
-
如何在Ollama创建自定义模型?构建本地大模型
大模型参数的大小从一个层面反映了模型的能力,但是,实际应用真的必须用到那么大参数的大模型吗?
-
部署本地的大语言模型,只需几分钟!
本文介绍了如何利用 Ollama 在本地快速部署开源的大语言模型,并介绍了基于 langchainjs 封装的 ChatOllama 对象,实现文本翻译的功能。其实,Ollama 还支持我们自定义模型,它允许我们导入 GGUF 格式的模型。