小健博客
欢迎光临
我们一直在努力
首页
专题列表
个人中心
找回密码
标签云
模块化布局页面
示例页面
空白页面
网址导航
关注我们
阿里百秀
当前位置:
小健博客
>
未分类
>
正文
SemanticKernel/C#:使用Ollama中的对话模型与嵌入模型用于本地离线场景
2024-11-01
分类:
未分类
阅读(10)
评论(0)
本文使用的对话模型是gemma2:2b,嵌入模型是all-minilm:latest,可以先在Ollama中下载好。
未经允许不得转载:
小健博客
»
SemanticKernel/C#:使用Ollama中的对话模型与嵌入模型用于本地离线场景
分享到:
更多
(
0
)
上一篇
万字干货:从消息流平台Serverless之路,看Serverless标准演进
下一篇
Win11不在C盘安装WSL2(Linux环境),安装Nvidia驱动和默认使用Win11的网络代理服务
相关推荐
偷偷告诉你5个好用的Pandas技巧
使用canal+Kafka进行数据库同步操作
List 集合去重的 3 种方法
Python实用小技巧,30个Python极简代码
了解RXJS中四种Subject的区别
Java跟Linux内核距离有多远
学习Vue3.0,你需要先了解一下Proxy
跨平台C++开发工具Qt,开发GUI之前你可以了解一下Qt类
大前端WP主题 更专业 更方便
联系我们
联系我们
QQ咨询
QQ咨询
回顶
回顶部