admin 管理员组

文章数量: 1184232

Transformer实战(5)——Hugging Face环境配置与应用详解

    • 0. 前言
    • 1. 安装 transformers
      • 1.1 安装 Anaconda
      • 1.2 安装 TensorFlow、PyTorch 和 Transformer
      • 1.3 使用 hf-mirror 快速下载模型
    • 2. 使用语言模型和分词器
    • 3. 使用社区提供的模型
    • 4. 使用多模态 Transformer
    • 小结
    • 系列链接

0. 前言

我们已经了解了使用深度学习 (Deep Learning, DL) 方法的自然语言处理 (Natural Language Processing, NLP) 技术演进,学习了关于 Transformer 及其架构的一些基本信息。在本节中,我们将深入探讨 Transformer 模型的应用,详细介绍分词器 (tokenizer) 和模型,例如双向编码器表示 (Bidirectional Encoder Representations from Transformer, BERT),并通过实践介绍如何加载分词器/模型,以及如何使用预训练模型。在进行实践之前,我们将首先了解所需环境的安装步骤,介绍如何在 PyTorchTensorFlow 框架中使用模型。
Hugging Face 模型库也是本节的一个重要部分,我们将讨论如何获取不同的模型以及使用不同管道的步骤。例如,双向自回归 Transformer (Bidirectional and Auto-regressive Transformer, BART)、BERTTAPAS (

本文标签: 详解 实战 环境 Transformer face