llama-recipes
文章目录
- 一、关于 llama-recipes
- 二、入门
- 1、先决条件
- PyTorch Nightlies
- 2、安装
- 1、使用pip安装
- 2、使用可选依赖项安装
- 3、从源代码安装
- 3、得到 Meta Llama 模型
- 模型转换为 Hugging Face
- 三、存储库组织
- 1、`recipes/`
- 2、`src/`
- 贡献
一、关于 llama-recipes
- github : https://github.com/meta-llama/llama-recipes
-
使用可组合的FSDP和PEFT方法 微调Meta Llama3,以覆盖单/多节点GPU的脚本。
(图片来源网络,侵删)支持用于摘要和问答等应用程序的默认和自定义数据集。
支持许多直接的推理解决方案,例如用于本地或云部署的 HF TGI、VLLM。
展示WhatsApp 和 Messenger 的 Meta Llama3的演示应用程序。
“llama-recipes”存储库是Meta Llama 3模型的伴侣。
该存储库的目标是 提供一个可扩展的库,用于微调Meta Llama模型,以及一些示例脚本和笔记本,以便在各种用例中 快速开始使用模型,包括 域适应微调 以及使用Meta Llama和LLM生态系统中的其他工具 构建基于LLM的应用程序。
此处的示例展示了如何在本地、云端和本地运行Meta Llama。
Meta Llama 2也支持此存储库。我们强烈建议大家使用Meta Llama 3,因为它增强了功能。
Meta Llama 3有一个新的提示模板和特殊token (基于TikTokenizer)。
token 描述 `{ system_prompt }}{ user_message_1 }}{ model_answer_1 }}{ user_message_2 }}
文章版权声明:除非注明,否则均为主机测评原创文章,转载或复制请以超链接形式并注明出处。