Mistral AI公开的8x7B的MoE模子收成了不少好评。本人曾经火烧眉毛想看到它和其他SOTA模子的细致对比了!Mistral AI自始自终靠一条磁力链,贾扬清也暗示。

  且正在代码生成方面表示出强大的机能。支撑英语、法语、意大利语、德语和西班牙语,最新旗舰版模子Mistral Large问世,掀起了AI社区高潮。社区能够基于此建立本人使用。客岁12月,基准测试中,8个70亿参数的小模子机能超越了多达700亿参数的L 2。最新的8x22B MoE模子也正在抱抱脸平台上上线,281GB文件解禁了最新的8x22B MoE模子。Mistral Large具备杰出的逻辑推理能力,对此,网友纷纷暗示。