AI1000AI1000
Deepseek — скриншот
Deepseek

Deepseek

DeepSeek -- китайская open-source платформа на базе архитектуры Mixture-of-Experts (MoE) с 671 миллиардом параметров. Модель активирует только 37 миллиардов параметров за токен, обеспечивая высокую производительность при минимальных вычислительных затратах. Поддерживает контекст до 128K токенов и конкурирует с GPT-4o и Claude 3.5 Sonnet при значительно меньшей стоимости. Доступна под лицензией MIT.

Описание

DeepSeek -- китайская open-source платформа на базе архитектуры Mixture-of-Experts (MoE) с 671 миллиардом параметров. Модель активирует только 37 миллиардов параметров за токен, обеспечивая высокую производительность при минимальных вычислительных затратах. Поддерживает контекст до 128K токенов и конкурирует с GPT-4o и Claude 3.5 Sonnet при значительно меньшей стоимости. Доступна под лицензией MIT.

Возможности

Архитектура Mixture-of-Experts -- активация только релевантных параметров для экономии ресурсов
671 миллиард параметров с активацией 37B за токен
Контекстное окно до 128 000 токенов для длинных документов
Open-source под лицензией MIT -- полная свобода использования
Модели deepseek-chat и deepseek-reasoner для разных задач
API-доступ с минимальной стоимостью за токен