订阅
加入社区
订阅邮件,第一时间获取最新资讯与更新
Inception Labs 推出了 Mercury dLLMs,这是大语言模型技术的一次革命性飞跃,旨在以显著降低的成本提供极速推理和前沿级质量。传统的 LLM 采用顺序生成文本的方式,一次生成一个 Token,这往往成为速度和效率的瓶颈。然而,Mercury 的扩散大语言模型 (dLLMs) 采用并行方式生成 Token,极大地提升了处理速度并最大化了 GPU 利用率。这种创新方法使其成为驱动新一代高要求 AI 应用的理想选择。
Mercury Diffusion Models 旨在克服传统 LLM 的局限性。通过实现并行文本生成,它们在性能上提供了实质性优势,为寻求集成尖端 AI 的企业提供了极具成本效益的解决方案。无论您是需要加速代码编写、实现实时语音交互、增强创意工作流,还是优化企业搜索,Mercury dLLMs 都能提供所需的响应速度和质量。
Mercury dLLMs 功能强大,可集成到广泛的应用中:
Inception Labs 还提供专门针对编程优化的 Mercury Coder,以及用于超低延迟应用的通用型 dLLM。两款模型均支持流式传输、工具调用(tool use)和结构化输出。针对企业需求,Inception Labs 通过 AWS Bedrock 等主流云供应商提供集成服务,并提供微调、私有化部署和专属支持选项。其模型兼容 OpenAI API,确保可以无缝替换现有的 LLM 集成方案。
定价模式
支持的平台
支持的语言
并行生成文本 Token,与顺序模型相比,显著提升了推理速度和 GPU 效率。
提供可媲美前沿模型的高质量输出,确保为高要求的 AI 应用提供专业且可靠的结果。
提供超低延迟和高吞吐量,是语音智能体和代码编辑等实时应用的理想选择。
支持 128K 超大上下文窗口,能够处理海量信息以应对复杂任务和详细分析。
兼容 OpenAI API,允许作为现有 LLM 基础设施的无缝替代方案轻松集成。