llama-recipes

07-19 1161阅读

文章目录

    • 一、关于 llama-recipes
    • 二、入门
      • 1、先决条件
        • PyTorch Nightlies
        • 2、安装
          • 1、使用pip安装
          • 2、使用可选依赖项安装
          • 3、从源代码安装
          • 3、得到 Meta Llama 模型
            • 模型转换为 Hugging Face
            • 三、存储库组织
              • 1、`recipes/`
              • 2、`src/`
              • 贡献

                一、关于 llama-recipes

                • github : https://github.com/meta-llama/llama-recipes
                • 使用可组合的FSDP和PEFT方法 微调Meta Llama3,以覆盖单/多节点GPU的脚本。

                  llama-recipes
                  (图片来源网络,侵删)

                  支持用于摘要和问答等应用程序的默认和自定义数据集。

                  支持许多直接的推理解决方案,例如用于本地或云部署的 HF TGI、VLLM。

                  展示WhatsApp 和 Messenger 的 Meta Llama3的演示应用程序。


                  “llama-recipes”存储库是Meta Llama 3模型的伴侣。

                  该存储库的目标是 提供一个可扩展的库,用于微调Meta Llama模型,以及一些示例脚本和笔记本,以便在各种用例中 快速开始使用模型,包括 域适应微调 以及使用Meta Llama和LLM生态系统中的其他工具 构建基于LLM的应用程序。

                  此处的示例展示了如何在本地、云端和本地运行Meta Llama。

                  Meta Llama 2也支持此存储库。我们强烈建议大家使用Meta Llama 3,因为它增强了功能。


                  Meta Llama 3有一个新的提示模板和特殊token (基于TikTokenizer)。

                  token描述
                  `{ system_prompt }}{ user_message_1 }}{ model_answer_1 }}{ user_message_2 }}
VPS购买请点击我

文章版权声明:除非注明,否则均为主机测评原创文章,转载或复制请以超链接形式并注明出处。

目录[+]