Triton Inference Server에서 gRPC 사용하기
1. tritonclient의 InferenceServerClient를 사용 $ pip install tritonclient[grpc]
1. tritonclient의 InferenceServerClient를 사용 $ pip install tritonclient[grpc]
일반적인 PyTorch 혹은 Transformers 모델 배포 성능을 극대화하기 위해 모델 포맷을 ONNX, TensorRT로 변환하고 Triton Inference Server로 배포하는 과정을 정리해봤습니다.