在手机(android)上运行AI大模型llama3、phi3、qwen
这里测试的是 andorid 系列手机 在 Release v0.118.0 · termux/termux- […]
在手机(android)上运行AI大模型llama3、phi3、qwen Read More »
GPT 相关内容
Generative Pre-trained Transformer(GPT)的中文翻译是“生成式预训练变换器”。以下是每个单词的翻译解释:
Generative:生成式的,指的是该模型可以生成新的自然语言文本,而不仅仅是分类或标注等任务。
Pre-trained:预训练的,指的是该模型在实际应用前已经进行了大量的训练,以学习自然语言中的语法、语义等信息。
Transformer:变换器,指的是该模型使用了Transformer架构,这是一种基于注意力机制的神经网络结构,具有出色的表现能力。
因此,Generative Pre-trained Transformer是一种使用预训练的、基于Transformer架构的神经网络模型,用于生成新的自然语言文本,例如对话、文章、新闻、诗歌等等。它是当前自然语言处理领域的一个重要研究方向和应用方向。
这里测试的是 andorid 系列手机 在 Release v0.118.0 · termux/termux- […]
在手机(android)上运行AI大模型llama3、phi3、qwen Read More »
使用的是树莓派(raspberrypi)5,8G 内存 0. 直接下载,然后运行 参照 ollama/docs
在树莓派上运行AI大模型 llama3、phi3 Read More »
这里接上一节 对C程序的中文注解,下面是对 train_gpt2.cu 的注解,所有注解来自ChatGPT4。
llm.c 的中文注解-20240423 Read More »
llm.c 简单、纯 C/CUDA 的 LLM 训练。不需要 245MB 的 PyTorch 或 107MB
llm.c 的中文注解-20240421 Read More »
建议在网络上广为流传。 此笔记本演示如何使用嵌入来查找要推荐的类似项目。特别是,我们使用 AG 的新
OpenAI 使用嵌入和最近邻搜索的建议 Read More »
在许多常见情况下,模型未在数据上进行训练,这些数据包含要在生成对用户查询的响应时可访问的关键事实和信息。如下所
OpenAI 使用基于嵌入的搜索回答问题 Read More »
这是我们著名的使用 OpenAI 的“5 行代码”入门示例。 1. 下载数据 这个例子使用了保罗·格雷厄姆(P
LlamaIndex 入门教程 (OpenAI) Read More »
LlamaIndex和LangChain都是用于开发由大型语言模型(LLM)驱动的应用程序的框架,但它们各自侧
LlamaIndex 和 Langchain 有啥区别? Read More »