AI1000AI1000
Groq — скриншот
Groq

Groq

Groq -- платформа сверхбыстрого AI-инференса на собственных LPU-чипах (Language Processing Unit). Обеспечивает скорость генерации до 750 токенов в секунду, что в 10-18 раз быстрее GPU-решений. Поддерживает популярные open-source модели: Llama 3, Mixtral, Gemma. API-совместим с OpenAI, что упрощает миграцию. Идеален для приложений, требующих мгновенных ответов.

Описание

Groq -- платформа сверхбыстрого AI-инференса на собственных LPU-чипах (Language Processing Unit). Обеспечивает скорость генерации до 750 токенов в секунду, что в 10-18 раз быстрее GPU-решений. Поддерживает популярные open-source модели: Llama 3, Mixtral, Gemma. API-совместим с OpenAI, что упрощает миграцию. Идеален для приложений, требующих мгновенных ответов.

Возможности

LPU-чипы -- специализированное железо для ускорения инференса в 10-18x
Поддержка Llama 3, Mixtral, Gemma и других open-source моделей
API, совместимый с OpenAI SDK -- простая миграция
GroqCloud -- облачная платформа для развертывания
Whisper Large -- сверхбыстрая транскрипция аудио
Скорость до 750 токенов/сек на Llama 3 70B