开发者社区 > 博文 > 9n-triton部署bert模型实战经验
分享
  • 打开微信扫码分享

  • 点击前往QQ分享

  • 点击前往微博分享

  • 点击复制链接

9n-triton部署bert模型实战经验

  • jd_6cbe16e4b7f64
  • 2024-03-13
  • IP归属:北京
  • 108浏览

    一、背景

    对于算法工程师来说,通常采用python语言来作为工作语言,但是直接用python部署线上服务性能很差。这个问题困扰了我很久,为了缓解深度学习模型工程落地性能问题,探索了Nvidia提供的triton部署框架,并在九数中台上完成线上部署,发现性能提升近337%!!原服务单次访问模型推理时间175ms左右,同模型框架单次访问推理时间缩减至40ms左右)。本文仅以本次部署服务经验分享给诸多受制于python性能问题的伙伴,希望有所帮助。

    二、问题发现

    组内原算法服务一直采用python-backend的镜像部署方式,将算法模型包装成接口形式,再通过Flask外露,打入docker中启动服务,但是发现推到线上接口响应时间过长,非常影响用户体验,于是想做出改进。python后端部署一般存在以下问题:

    1. 性能问题:
      • 由于python是一种解释语言,因此对比于其他编译语言(如C,C++或go)要慢很多,这对于要求高性能或者低延迟快速响应的线上服务很不友好,用户体验很差。
      • GIL全局锁限制,多线程困难,限制了高并发能力,限制程序性能。
      • python内存占用过多,资源浪费。
    2. 部署复杂:
      • 自训练/自搭建算法模型往往需要一系列的相关依赖和系统库,如果利用python环境直接部署至线上,则必须解决将所有依赖库同步打包至对应容器中,并很可能需要额外解决不同库版本冲突问题,十分麻烦。

    为了解决上述困扰,我们经过调研行业内其他实践经验,决定摒弃传统镜像部署方式,摆脱python部署环境,换用triton部署算法模型。

    三、部署实例

    本试验通过fine-tune的Bert模型进行文本分类任务,并通过九数算法中台包装的triton部署框架部署至公网可访问,以下介绍了我们团队部署的全流程和途中踩到的坑,以供大家快速入手(以下均以Bert模型为例):

    step 1: 将训练好的模型保存为onnx或torchscript(即.pt)文件格式。据调研行业经验,onnx一般用于cpu环境下推理任务效果较好,.pt文件在gpu环境下推理效果较好,我们最终选择了将模型转化为.pt文件。代码例子如下:

    import torch
    from transformers import BertTokenizer, BertForSequenceClassification
    
    tokenizer = BertTokenizer.from_pretrained('./pretrained-weights/bert-base-chinese')
    model = BertForSequenceClassification.from_pretrained('./pretrained-weights/bert-base-chinese', num_labels=10)
    # Trace the wrapped model
    # input_ids和attention_mask来自tokenizer, 具体可看一下torch.jit.trace用法
    traced_model = torch.jit.trace(model, (input_ids, attention_mask))
    traced_model.save("./saved_model_torchscript_v3.pt")

    本段代码借用了torch.jit.trace的存储方式,输入是文本经过tokenizer之后的input_ids和attention_mask,输出是未经softmax处理的线性层。我们尝试将softmax部分包装进模型中一起打包成pt文件,使模型能够直接吐出分类类别,方案是外层再包装一层forward,代码例子如下:

    class BertSequenceClassifierWrapper(torch.nn.Module):
        def __init__(self, model):
            super().__init__()
            self.model = model.cuda()
    
        def forward(self, input_ids, attention_mask):
            outputs = self.model(input_ids=input_ids.cuda(), attention_mask=attention_mask.cuda())
            # Apply softmax to the logits
             probs = softmax(outputs.logits, dim=-1)
            # Get the predicted class
             predicted_class = torch.argmax(probs, dim=-1)
            return predicted_class
    
    wrapped_model = BertSequenceClassifierWrapper(model)
    traced_model = torch.jit.trace(model, (input_ids, attention_mask))
    traced_model.save("./saved_model_torchscript_v3.pt")

    然而,参考于行业内实践,我们没有选择将tokenizer部分包装至模型内部,这是因为torchscript仅接受数组类型输入而非文本。最终,我们封装的模型输入为input_ids和attention_mask,输出为分类结果(标量输出)。

    【注】:坑点:

      • 转onnx需要额外安装transformers-onnx包,需要sudo权限,九数上不能执行,建议本地转换。
      • 对于.pt类型文件,当前九数triton部署仅支持gpu方式推理方式,不支持cpu推理,且torch版本有强要求限制 torch ==1.10.0,cuda11.2(更高版本似乎也可),故我们在保存时必须要在torch ==1.10.0,cuda11.2环境下生成pt文件,不然会部署失败。
      • 转pt文件时建议使用torch.jit.trace而非torch.jit.script,后者经常出现引擎不兼容问题。

    step 2: 将.pt文件存放在九数磁盘目录下指定位置,注意,目录格式需要严格按照要求,具体可参考九数帮助文档。

    目录格式如下(其中model.pt即为我们训练好的模型):

    pytorch-backend-online
    |-- pytorch-model
    |   |-- 1
    |   |   |-- model.pt
    |   `-- config.pbtxt

    config.pbtxt配置如下:

    name: "pytorch-model"
    platform: "pytorch_libtorch"
    
    input [
      {
        name: "INPUT__0"
        data_type: TYPE_INT64
        dims: [1, 512]
      },
      {
        name: "INPUT__1"
        data_type: TYPE_INT64
        dims: [1, 512]
      }
    ]
    output [
      {
        name: "OUTPUT__0"
        data_type: TYPE_INT64
        dims: [1, 1] 
      }
    ]
    instance_group [
      {
          count: 1
      }
    ]

    配置中,我们需要指定输入和输出的维度以及数据类型。注意,数据类型指的是每个可迭代对象的类型(比如512维向量每个维度都是int64)。在本实例中,我们定义了两个输入均为1*512维向量,输出为一个标量。

    step 3: 模型注册。需要到九数上注册你的模型,然后才能部署,方式如下:

    模型注册表填写如下:

    坑点:图中step2定义的一级目录,比如 /home/{erp}/xxx/xxx/xxx。

    step 4: 模型注册好之后,就可以在注册好的模型下点击:部署-测试

    然后需要填写UI界面的信息。

    到这里,如果模型没有问题,部署就是成功了~

    step 5:  测试端口通不通。如果是测试环境,我们可以通过post接口在notebook中测试接口通不通,测试demo如下:

    URL来自获取方式如下:

    如果测试没有问题,就可以转生产了~配置好域名和端口就可以公网访问了。至此,triton框架部署torchscript方式完结。

    四、结语

    • 本文主要展示了一个基于Bert模型finetune的结果部署,经我们线下测试,对比于原有onnx在cpu机器上的推理速度增幅超过300%。
    • 本项工作由殷擎,孙研同学共同完成,致谢团队工作者!



    文章数
    1
    阅读量
    8

    作者其他文章