Über vLLM
vLLM ist extrem schnelles LLM-Serving. Es nutzt PagedAttention. vLLM ist Open Source. Es macht LLM-Serving performant.
Hauptfeatures
- LLM Serving
- Fast
- Open Source
- PagedAttention
vLLM ist extrem schnelles LLM-Serving. Es nutzt PagedAttention. vLLM ist Open Source. Es macht LLM-Serving performant.