幻方发布第二代MoE 模型DeepSeek-V2,综合性能位列第一梯队。 2024 年5 月6 日,幻方发布第二代MoE 模型DeepSeek-V2。在AlignBench、MT-Bench、MMLU 等多个benchmark 上表现出色,其中AlignBench 在开源模型中居首位,与GPT-4-Turbo,文心4.0 比肩。MTBench超过最强MoE 开源模型Mixtral 8x22B。 继今年1月份开源国内首个MoE模型后,幻方人工智能公司最新推出了第二代MoE模型——DeepSeek-V2。这款新模型不仅参数更多、性能更强,训练成本更低的特点,令其在业界引起广泛关注。 DeepSeek-V2采用了创新的模型架构和训练方法,在多项综合评测中均表现出色,有些指标甚至媲美或超越目前最强的GPT-4模型。同时,它的推理效率和部署成本也大幅优于同类大模型,可谓是性能与成本的完美结合。 相关标的: $每日互动 sz300766$ :幻方二股东,技术负责人是每日互动的联合创始人,存在合作基础。 $卓创资讯 sz301299$ :幻方作为大型私募,卓创资讯金融语料库。 $阳光照明 sh600261$ :购买幻方3亿产品,叠加电器出海,外销占比75%。 $飞利信 sz300287$ :飞利信是目前市场采用MLA机制不多的上市公司,Multi-headlatent attention,就是多头注意力机制,简称MLA。 $南威软件 sh603636$ :在人工智能方面,基于多头注意力机制和增强特征金字塔方法,掌握了新型的生物认证技术。 |
|