中国免费开元AI大模型
DeepSeek-Coder-v2提出了一种新型注意力,在Transformer架构的基础上,用MLA(Multi-head Latent Attention)替代了传统的多头注意力,大幅减少了计算量和推理显存。
2024年5月开源的第二代MoE大模型DeepSeek-V2在性能上比肩GPT-4 Turbo,价格却只有GPT-4的百分之一,DeepSeek由此被称作“价格屠夫”、“AI界的拼多多”。
全球最大的数字图书馆
免费在线流程图绘制工具
AI智能写作辅助神器
知识从这里开始
能够与人对话互动,回答问题,协助创作,高效便捷地帮助人们获取信息、知识和灵感。
MiniMax 旗下生产力产品,你的AI伙伴