欢迎光临
我们一直在努力

使用 SemanticKernel 对接 Ollma

在本地安装 ollama 服务,并且安装至少一个模型,这次我们的模型是
llama3.1:8b。具体如何安装就不赘述了,请参考以往文章:

未经允许不得转载:小健博客 » 使用 SemanticKernel 对接 Ollma
分享到: 更多 (0)

大前端WP主题 更专业 更方便

联系我们联系我们