Ollama 端口暴露
Ollama 服务 默认的地址是 localhost(127.0.0.1),只能本地服务使用,但 ollama […]
开源LLM
Microsoft 在这篇论文中提出了非常好的建议 – “SliceGPT:通过删除行和列来压缩大
SliceGPT:通过删除行和列来压缩大型语言模型 Read More »
本教程使用了surya-ocr库,实现本地RAG, 使用了嵌入模型 bert-base-multilingua
RAG 入门教程(PDF-Ollama) Read More »
本教程使用了surya-ocr库,实现本地RAG, 使用了嵌入模型 bert-base-multilingua
RAG 入门教程(PDF-WSL2) Read More »
一种常见的RAG(Retrieval-Augmented Generation)的实现方式,其中利用一个较小的
一种常见的RAG(Retrieval-Augmented Generation)的实现方式 Read More »
这是我们著名的“5 行代码”入门示例,其中包含本地LLM和嵌入模型。我们将使用 nomic-embe
LlamaIndex 入门教程 (Ollama) Read More »