奥多码,点击查看详情 97CDN云盾,点击查看详情

​Mistral首个多模态模型Pixtral 12B来了!还是直接放出24GB磁力链接

       
广告2021-06-03到期2021-07-03广告2021-06-03到期2021-07-03
       
广告2021-06-03到期2021-07-03广告2021-06-03到期2021-07-03
训练完就直接上模型。
我们都知道,Mistral 团队向来「人狠话不多」。昨天下午,他们又又又丢出了一个不带任何注解的磁力链接。

​mistral首个多模态模型pixtral 12b来了!还是直接放出24gb磁力链接

解析一下这个链接,可以看到大k X + y s D ;小共 23.64 GB,其中包含 4 个文件,其中最大的文件是一个封装的多模态大模型。

​Mistral首个多模态模型Pixtral 12B来了!还是直接放出24GB磁力链接

动作快的非官方 Mistral 社区已经将该模型上传到了 Hugging Face。
  • 磁力链接:magnet:?xt=urn:btih:7278e625de2b1dC f a h m 9a598b23954cT _ b 5 B13933047126238a&dn=pixtral-12b-240910
  • Hugging Face 地址:https://huggingface.co/mistral-community/pixtral-12b-24091y L R Q j0
这一S , L M 3 r发布引来如潮好评,有人将其与近日经常出现在话题热榜中的 Reflection 模型做了对比,更是尽显 Mistral 团队踏实做事的风格t y W E % . w

​Mistral首个多模态模型Pixtral 12B来了!还是直接放出24GB磁力链接

Pixtral 12m $ / \ J _ = }B 的规格和性能
该模型的名字为 pixtral-12b-240910,从名字也能看出,该模型的参数量为 12B。
其中 params.jsom 列出了该模型的相关参数:

​Mistral首个多模态模型Pixtral 12B来了!还是直接放出24GB磁力链接

可以看到,该模型有一个视觉编码器,其支持 10241024 大小的图像,有 24 个隐藏层,支持高级图像处] 3 A Y理。
该模型的层数为 40、隐藏维度大小为 14,336,注意力头有 32 个。
此外,Pixtral 12B 的词汇库有 131,072 个不同的 token,可以说相当庞大,因此能实现, U | R J r非常细腻的语言理解和生成3 ] =
从这些参数和配置也能看出,Pixtral 12B 至少有能力处理文本和图像数据,实现多模态处理。
Pixl _ F `tral 12B 的发布广受好评,这是因为人们一直在期待开放模型社区也能获得好用易用的多模态模型。Mistral 这条磁Y 3 \ h力链接将我们向这个方向推o \ W ] 1 i v 7进了一步。
不过由于该模型才刚发布,其效果究竟如何还尚未可知,但好在我们也不是完全没有线索。就在昨天,Mistral 低调地举办了一场峰会 Mistral AI Summit,演讲者包括 Mistral CEO Arthur Mensch 以及英伟5 E w h达 CEO 黄仁勋等。
几位参与者在社交网络U L _ Q R ! 0上分享了一些现场照片,让我们可以一窥 P{ D v x }ixtral 模B o w 0 p e x , x型的性能。

​Mistral首个多模态模型Pixtral 12B来了!还是直接放出24GB磁力链接

在这张幻灯片中,W B T E , p E m 6我们可以看到 Pixtral 12B 支持任意大小的图像和 128k 的上下文窗口。另外,_ P u y @ l O% h B模型也能处理同时包含文本和图像的大型文档。
具体性能指标上,Pixtral 12B 的表现虽不及 GPT-4o 和 Claude-3.5 Sonnet,但在各基准上全面胜过了 Claude-3 Haiku 和 Gemini-1.d U 95 8B。

​Mistral首个多模态模型Pixtral 12B来了!还是直接放出24GB磁力链接

而在几个开放多模态模型中,PixtraF W w U 6 Cl 在大多数基准上都表现最佳,仅在 DocVQA 上略低于 Qwen2 7B。

​Mistral首个多模态模型Pixtral 12B来了!还是直接放出24GB磁力链接

Mistral 展示了 Pixtral 的一些具体应用案例。
通过 OCR 将包含数学公式的科v * { f Z Q v学文章图片转录成 Markdown 格式?毫无压力!

​Mistral首个多模态模型Pixtral 12B来了!还是直接放出24GB磁力链接

识别潦草的手写内容,也不在话下。

​Mistral首个多模态模型Pixtral 12B来了!还是直接放出24GB磁力链接

提取图片信息和描述图像内容?这已经算是多模态\ v S ^ + o d a模型的基本能力,那就更无问题了。

​Mistral首个多模态模型Pixtral 12B来了!还是直接放出24GB磁力链接

​Mistral首个多模态模型Pixtral 12B来了!还是直接放出24GB磁力链接

不仅如此. \ J . e X,Pixtral 还能理解更加复杂的图像,并从中提取出关键信息和见解:

​Mistral首个多模态模型Pixtral 12B来了!还是直接放出24GB磁力链接

Pixtral 也具备非常出色K } P ] D的解释和推理能力。具体指标上,Pixtral 1j x N ( {2B 在 MMMU 和 MathVista 上的多模态知识和推理性能均领先其它参与对比的模型(主要是2 8 O v开放模型e l l Z ` #,并没有 GPT-4o 和 Claude-3.5 Sonnet)。多模态问答性能也表现卓越,处于领先位置。

​Mistral首个多模态模型Pixtral 12B来了!还是直接放出24GB磁力链接

v g , I k / f – V模态& ? ~指令遵从以及文本理解能力都表现不错,在某些指标上仅略逊于 Claude-2 Haiku。

​Mistral首个多模态模型Pixtral 12B来了!还是直接放出24GB磁力链接

比如它能根据 DNA 图像分析出该图像是在解; , z / k #释 DNA 的结构(相信这个能力很适合用于学习新知识):

​Mistral首个多模态模型Pixtral 12B来了!还是直接放出24GB磁力链接

也能基于手绘的潦草网页设计草稿推理生成 HTML 代码:

​Mistral首个多模态模型Pixtral 12B来了!还是直接放出24GB磁力链接

拍一拍考试卷让其解答数学选择题,也轻轻松松就能完成:

​Mistral首个多模态模型Pixtral 12B来了!还是直接放出24GB磁力链接

至于 Pixtral 是否支持视频,MiR { ] s M Q Jstral 在问答环节分享说他们还未测试过视频帧,但已经尝试过 PFF(点特征融合),并且他们表示 Pixtral「128k 的上下文应该能处理视频」。此外,Pixtral 也能泛化u C | T i ] Q S用于卫星图像。
至于如何使用 Pixtral 12B,如果你的硬件性能足够,当然可以自己部署;但 Mistral 的开发者关系负责人 Sophia Yang 也表示,未来会通过 Mistral 的 Le Chatf . H l A : ) Z h 和 La Platform_ ; s . D & 7 }e 提供该模型。

​Mistral首个多模态模型Pixtral 12B来了!还是直接放出24GB磁力链接

MisN J v K F W h `tral 的愿景:让 AI 好用且有用
根据网友们分享的消息,在 Mistral AI Summit 上,该公司分享了他们的愿景。
他们认为,要让 AI 有用,最关键的其实是系统问题。x 1 }

​Mistral首个多模态模型Pixtral 12B来了!还是直接放出24GB磁力链接

但对不懂相关技术的普通用户来说,这个系统显得非常复杂4 B | L _ \ \。Mistral 想做的就是简化用户的使用流程,降低用户的使用成本。他们想把复杂的技术部分都整合进 La Platforme,让用户) H g p h 6 q 7只需进行简单的配置就能享受 AI 带来的便利和效率。

​Mistral首个多模态模型Pixtral 12B来了!还是直接放出24GB磁力链接

此外,为了让 AI 有能力解决复杂问题,将用户交互用于 AE K m .I 模型的持续训练是很有必要的。} ? k , 6 % ~ |同时还需要持续地将新软件整合进 AI 的工具箱,提升其能力。
目前$ & ] / m p,Mistral 的模型矩阵中已经包含了用于通用任务和科研任E – . t J : \ h @务的多种免费模型。

​Mistral首个多模态模型Pixtral 12B来了!还是直接放出24GB磁力链接

另外,该公司还为编程任务开发了 Codestral 模型,支持 80 多种编程语言并且性能优秀。不过需要指出{ H 6 : k,虽然 Mistral 允许研究者基于研究和测试目的免费使用 Codestral,但若想将其投入商业应用,则需要1 I F w x向其购买商用权限 —— 这也算是该公司为数不多的盈利项目之一。

​Mistral首个多模态模型Pixtral 12B来了!还是直接放出24GB磁力链接

今年 6 月份,Mistral 以 60 亿美元的估值获得了 6.4 亿美元投资,之后不久便发布了该公司\ 5 R w ?的旗舰模型 Mistral Large 2。
Mistral Large 2 的参数量为 123B,~ H I 6 a % \ 8支持多语言和函数调用,具备强大的推理和代码能力,整体性能虽不及当前最佳的 GPT-4o 和 Claude-3y * $ q.5 Sonnet,但却超过了 405B 参数的 Llama 3.1。同样,Mit U estral Large 2 也免费开放给非商业用途。K d c

​Mistral首个多模态模型Pixtral 12B来了!还是直接放出24GB磁力链接

Mistral 团队绝对算是 AI 模型开发领域的一股清流。在 AI 领域普遍关注营销宣传的如今,Mistral 的 Twitter 虽有 10 万关注者却并未关注任何一个人,其仅有的 10 条推文也几乎都是在发布新模型,其 CEO Arthur Mensch 的个人账户也毫不活跃。
Mistral AI 成立于 2023 年 5 月,是一家法国人工智能初创公司,也是为数不多来自欧洲的大\ ~ O } 1 = i ?模型开源领域的明星团队。一个有趣的小知识是因为该公司来自法国,所以 Le ChaT 1 L { = M lt 的意思其实就是「猫」,这也是j * I D s r其 Logo 之所以像一只猫的原因。

​Mistral首个多模态模型Pixtral 12B来了!还是直接放出24GB磁力链接

Mistral AI 曾在 2023 年 6 月获得了创纪录的 1.18 亿美元种子轮融资(据称是欧洲历史上最大的种子轮融资)。当然,这个纪录在前些天已经被 Ilya Sutskever 创立的 Safe Superintelligence Inc. 打破。

参考链接:

https://x.com/MistralAI/status/1833758285167722836

htM A [ 8tps://x.com/swyx/status/183392663086107035– J P f + ! F9

以上就是​Mistral首个多s ] I模态模型Pixtral 12B来了!还是直接放出24GB磁力链接的详细内容!

本文由【好易之】整理自网络!
原创文章,作者:【好易之】如转载请注明出处:https://www.zhengjiaxi.com/zxwd/itzx/117423.html
如有侵权,请邮件联系 aoduoye@qq.com 删除。
本站发布的文章及附件仅限用于学习和研究目的;不得将上述内容用于商业或非法用途,否则后果请用户自负。
本站信息来自网络,版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容。
如果您喜欢该程序,请支持正版软件,购买注册,得到更好的正版服务。如有侵权请邮件与我们联系处理。
(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
好易之的头像好易之站长
上一篇 2024-12-25 12:19
下一篇 2024-12-25 12:19

相关推荐

发表回复

登录后才能评论

联系我们

400-800-8888

在线咨询:点击这里给我发消息

 

工作时间:周一至周五,9:30-18:30,节假日休息

关注公众号
请查看头部文章来源地址!本站所有内容均为互联网收集整理和网友上传。仅限于学习研究,切勿用于商业用途。否则由此引发的法律纠纷及连带责任本站概不承担。