Skip to content

Latest commit

 

History

History
109 lines (94 loc) · 20.6 KB

LLMs.md

File metadata and controls

109 lines (94 loc) · 20.6 KB

LLMs

OpenAI 的 ChatGPT 大型语言模型(LLM)并未开源,这部分收录一些深度学习开源的 LLM 供感兴趣的同学学习参考。

大模型

名称 Stars 简介 备注
grok-1 GitHub Repo stars Grok open release. 马斯克 X 开源大模型
Mistral-7B GitHub Repo stars Reference implementation of Mistral AI 7B v0.1 model. Mistral-7B 开源模型,性能评价不错
Alpaca GitHub Repo stars Code and documentation to train Stanford's Alpaca models, and generate the data. -
WizardLM GitHub Repo stars Family of instruction-following LLMs powered by Evol-Instruct: WizardLM, WizardCoder and WizardMath. 数学能力与 ChatGPT 相差无几的开源大模型
BELLE GitHub Repo stars A 7B Large Language Model fine-tune by 34B Chinese Character Corpus, based on LLaMA and Alpaca. -
Bloom GitHub Repo stars BigScience Large Open-science Open-access Multilingual Language Model -
dolly GitHub Repo stars Databricks’ Dolly, a large language model trained on the Databricks Machine Learning Platform Databricks 发布的 Dolly 2.0 大语言模型。业内第一个开源、遵循指令的 LLM,它在透明且免费提供的数据集上进行了微调,该数据集也是开源的,可用于商业目的。这意味着 Dolly 2.0 可用于构建商业应用程序,无需支付 API 访问费用或与第三方共享数据。
Falcon 40B Falcon-40B-Instruct is a 40B parameters causal decoder-only model built by TII based on Falcon-40B and finetuned on a mixture of Baize. It is made available under the Apache 2.0 license. -
FastChat (Vicuna) GitHub Repo stars An open platform for training, serving, and evaluating large language models. Release repo for Vicuna and FastChat-T5. 继草泥马(Alpaca)后,斯坦福联手CMU、UC伯克利等机构的学者再次发布了130亿参数模型骆马(Vicuna),仅需300美元就能实现ChatGPT 90%的性能。
GLM-130B (ChatGLM) GitHub Repo stars An Open Bilingual Pre-Trained Model (ICLR 2023)
GPT-NeoX GitHub Repo stars An implementation of model parallel autoregressive transformers on GPUs, based on the DeepSpeed library.
Luotuo GitHub Repo stars An Instruction-following Chinese Language model, LoRA tuning on LLaMA 骆驼,中文大语言模型开源项目,包含了一系列语言模型。
minGPT GitHub Repo stars A minimal PyTorch re-implementation of the OpenAI GPT (Generative Pretrained Transformer) training。 karpathy大神发布的一个 OpenAI GPT(生成预训练转换器)训练的最小 PyTorch 实现,代码十分简洁明了,适合用于动手学习 GPT 模型。
ChatGLM-6B GitHub Repo stars ChatGLM-6B: An Open Bilingual Dialogue Language Model ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答。
li-plus/chatglm.cpp GitHub Repo stars C++ implementation of ChatGLM-6B & ChatGLM2-6B ChatGLM-6B & ChatGLM2-6B 模型的 C++ 高效实现
Open-Assistant GitHub Repo stars - 知名 AI 机构 LAION-AI 开源的聊天助手,聊天能力很强,目前中文能力较差。
llama.cpp GitHub Repo stars - 实现在MacBook上运行模型。
EasyLM GitHub Repo stars 在羊驼基础上改进的新的聊天机器人考拉。 介绍页
FreedomGPT GitHub Repo stars - 自由无限制的可以在 windows 和 mac 上本地运行的 GPT,基于 Alpaca Lora 模型。
FinGPT GitHub Repo stars Data-Centric FinGPT. Open-source for open finance! Revolutionize 🔥 We'll soon release the trained model. 金融领域大模型
baichuan-7B GitHub Repo stars A large-scale 7B pretraining language model developed by Baichuan baichuan-7B 是由百川智能开发的一个开源可商用的大规模预训练语言模型。基于 Transformer 结构,在大约1.2万亿 tokens 上训练的70亿参数模型,支持中英双语,上下文窗口长度为4096。在标准的中文和英文权威 benchmark(C-EVAL/MMLU)上均取得同尺寸最好的效果。
baichuan-inc/Baichuan-13B GitHub Repo stars A 13B large language model developed by Baichuan Intelligent Technology -
open_llama GitHub Repo stars OpenLLaMA, a permissively licensed open source reproduction of Meta AI’s LLaMA 7B trained on the RedPajama dataset. OpenLLaMA,允许开源复制Meta AI的LLaMA-7B 模型,在red睡衣数据集上训练得到。
Chinese-LLaMA-Alpaca GitHub Repo stars 中文LLaMA模型和经过指令精调的Alpaca大模型。 -
gemma.cpp GitHub Repo stars 用于 Google Gemma 模型的轻量级独立 C++ 推理引擎。 -
gemma_pytorch GitHub Repo stars Google Gemma 模型的官方 PyTorch 实现。 -

Llama 官方仓库(2024.11.5更新)

名称 Stars 简介 备注
llama-models GitHub Repo stars Llama模型的核心仓库,包含Llama 3等基础模型、工具、模型卡片、许可证和使用政策。 Llama Stack的基础仓库
PurpleLlama GitHub Repo stars Llama Stack的安全组件,专注于安全风险管理和推理时间的缓解措施。 处理模型安全相关问题
llama-toolchain GitHub Repo stars 提供模型开发全流程工具,包括推理、微调、安全防护和合成数据生成的接口和标准实现。 开发者工具链
llama-agentic-system GitHub Repo stars 端到端的独立Llama Stack系统,提供了智能应用开发的底层接口和实现。 用于构建智能应用
llama-recipes GitHub Repo stars 社区驱动的脚本和集成方案集合,提供各种实用工具和最佳实践。 社区贡献的实用工具

Llama 2 系列 [2023.08.05 更新]

名称 Stars 简介 备注
llama 2 GitHub Repo stars Inference code for LLaMA models. llama 系列模型官方开源地址
codellama GitHub Repo stars Inference code for CodeLlama models 编程专用 llama 系列模型官方开源地址
Llama 2中文社区 GitHub Repo stars - Llama中文社区,最好的中文Llama大模型,完全开源可商用
ollama GitHub Repo stars Get up and running with Llama 2 and other large language models locally 本地运行 llama
Firefly GitHub Repo stars - Firefly(流萤): 中文对话式大语言模型(全量微调+QLoRA),支持微调Llma2、Llama、Qwen、Baichuan、ChatGLM2、InternLM、Ziya、Bloom 等大模型
Azure ChatGPT GitHub Repo stars 🤖 Azure ChatGPT: Private & secure ChatGPT for internal enterprise use 💼 -
LLaMA2-Accessory GitHub Repo stars An Open-source Toolkit for LLM Development -

端侧模型(手机等设备运行)

名称 Stars 简介 备注
Llama 3 GitHub Repo stars Meta最新发布的大语言模型系列。支持128K上下文窗口,基于TikToken分词。包含8B、70B等不同规模。发布于2024年3月。 最新一代Llama模型,性能显著提升,需申请使用
Danube3 - H2O.ai开发的高性能开源大语言模型系列。4B参数版本在10-shot HellaSwag基准测试中达到80%以上的准确率,性能超越Apple,与Microsoft相当。 体现了小型模型通过优化也能达到优秀性能
Gemma GitHub Repo stars Google DeepMind基于Gemini技术开发的开源大语言模型系列。包含2B和7B两种规格,每种规格提供Base和Instruction-tuned两个版本。 提供详细的技术报告和多框架的参考实现
Phi-3 GitHub Repo stars 微软开发的小型语言模型系列。包含Phi-3-mini(3.8B)、Phi-3-small(7B)两种规格,在同等规模和更大规模模型的对比中展现出优秀性能。 在语言理解、推理、编程和数学等基准测试中表现出色,提供详细的使用指南CookBook
Qwen2.5 GitHub Repo stars 阿里云通义千问团队开发的大语言模型系列。包含0.5B、1.8B、4B、7B、14B、72B等多种规模,每个规模都提供Base和Chat版本。 支持中英等多语言,适用场景从移动设备到企业级高性能部署
SmolLM - 轻量级语言模型系列,包含135M、360M和1.7B三种规模,每种规格都提供base和instruct版本。开源了训练语料库。 特别优化用于移动设备和WebGPU运行,支持浏览器中直接运行demo

自由不受限制模型

名称 Stars 简介 备注
dolphin - Dolphin, an open-source and uncensored, and commercially licensed dataset and series of instruct-tuned language models based on Microsoft's Orca paper. 海豚(Dolphin),是一个基于微软的Orca论文的开源且未受审查的,以及商业许可的数据集和一系列经过指令调整的语言模型。
dolphin-2.5-mixtral-8x7b - Dolphin, an open-source and uncensored, and commercially licensed dataset and series of instruct-tuned language models based on Microsoft's Orca paper. 海豚(Dolphin),是一个基于微软的Orca论文的开源且未受审查的,以及商业许可的数据集和一系列经过指令调整的语言模型。

大模型训练和微调

名称 Stars 简介 备注
transformers GitHub Repo stars 🤗 Transformers: State-of-the-art Machine Learning for Pytorch, TensorFlow, and JAX. HuggingFace 经典之作, Transformers 模型必用库
peft GitHub Repo stars PEFT: State-of-the-art Parameter-Efficient Fine-Tuning. HuggingFace 出品——PEFT:最先进的参数高效微调。
OpenLLM GitHub Repo stars An open platform for operating large language models (LLMs) in production. Fine-tune, serve, deploy, and monitor any LLMs with ease. 微调,服务,部署和监控所有LLMS。用于运营大型语言模型(LLM)的开放平台。
MLC LLM GitHub Repo stars Enable everyone to develop, optimize and deploy AI models natively on everyone's devices. 陈天奇大佬力作——MLC LLM,在各类硬件上原生部署任意大型语言模型。可将大模型应用于移动端(例如 iPhone)、消费级电脑端(例如 Mac)和 Web 浏览器。
languagemodels GitHub Repo stars Explore large language models on any computer with 512MB of RAM. 在512MB RAM的计算机上探索大型语言模型使用
ChatGLM-Efficient-Tuning GitHub Repo stars Fine-tuning ChatGLM-6B with PEFT 基于 PEFT 的高效 ChatGLM 微调
LLaMA-Efficient-Tuning GitHub Repo stars Fine-tuning LLaMA with PEFT (PT+SFT+RLHF with QLoRA) 支持多种模型 LLaMA (7B/13B/33B/65B) ,BLOOM & BLOOMZ (560M/1.1B/1.7B/3B/7.1B/176B),baichuan (7B),支持多种微调方式LoRA,QLoRA
微调中文数据集 COIG GitHub Repo stars Chinese Open Instruction Generalist (COIG) project aims to maintain a harmless, helpful, and diverse set of Chinese instruction corpora. 中文开放教学通才(COIG)项目旨在维护一套无害、有用和多样化的中文教学语料库。
LLaMA-Adapter🚀 GitHub Repo stars - 高效微调一个聊天机器人
⚡ Lit-LLaMA GitHub Repo stars - Lightning-AI 基于nanoGPT的LLaMA语言模型的实现。支持量化,LoRA微调,预训练。
Intel® Extension for Transformers GitHub Repo stars ⚡ Build your chatbot within minutes on your favorite device; offer SOTA compression techniques for LLMs; run LLMs efficiently on Intel Platforms⚡ 在Intel平台上高效运行llm。

更多模型列表

名称 Stars 简介 备注
🤖 LLMs: awesome-totally-open-chatgpt GitHub Repo stars 开源LLMs 收集。 -
Open LLMs GitHub Repo stars 开源可商用的大模型。 -
Awesome-LLM GitHub Repo stars - 大型语言模型的论文列表,特别是与 ChatGPT相关的论文,还包含LLM培训框架、部署LLM的工具、关于LLM的课程和教程以及所有公开可用的LLM 权重和 API。
FindTheChatGPTer GitHub Repo stars - 本项目旨在汇总那些ChatGPT的开源平替们,包括文本大模型、多模态大模型等
LLMsPracticalGuide GitHub Repo stars 亚马逊科学家杨靖锋等大佬创建的语言大模型实践指南,收集了许多经典的论文、示例和图表,展现了 GPT 这类大模型的发展历程等 -
awesome-decentralized-llm GitHub Repo stars 能在本地运行的资源 LLMs。 -
OpenChatKit GitHub Repo stars 开源了数据、模型和权重,以及提供训练,微调 LLMs 教程。 -
Stanford Alpaca GitHub Repo stars 来自斯坦福,建立并共享一个遵循指令的LLaMA模型。 -
gpt4all GitHub Repo stars 基于 LLaMa 的 LLM 助手,提供训练代码、数据和演示,训练一个自己的 AI 助手。 -
LMFlow GitHub Repo stars 共建大模型社区,让每个人都训得起大模型。 -
Alpaca-CoT GitHub Repo stars Alpaca-CoT项目旨在探究如何更好地通过instruction-tuning的方式来诱导LLM具备类似ChatGPT的交互和instruction-following能力。 -
OpenFlamingo GitHub Repo stars OpenFlamingo 是一个用于评估和训练大型多模态模型的开源框架,是 DeepMind Flamingo 模型的开源版本,也是 AI 世界关于大模型进展的一大步。 大型多模态模型训练和评估开源框架。
LLMs-In-China GitHub Repo stars 中国大模型 -
Visual OpenLLM GitHub Repo stars 基于 ChatGLM + Visual ChatGPT + Stable Diffusion, 以交互方式连接不同视觉模型的开源工具。 -