Intern-S1
支持
128K tokens
16384 tokens
多模态大模型
2025-07-27
481.6 GB
Intern-S1是一个被提出的开源多模态推理模型。该模型旨在结合强大的通用任务处理能力与在广泛科学任务上的高性能表现,并声称其性能可与领先的闭源商业模型相媲美。
Intern-S1的基础架构基于一个2350亿参数的MoE(Mixture-of-Experts)语言模型(源自Qwen3),以及一个60亿参数的InternViT视觉编码器。该模型经过了进一步的预训练,使用了5万亿(5 trillion)多模态数据令牌,其中包含超过2.5万亿(2.5 trillion)的科学领域数据令牌。这种训练方式旨在使模型在保持强大通用能力的同时,在解释化学结构、理解蛋白质序列和规划化合物合成路线等专业科学领域表现出色,使其定位为适用于实际科学应用的有力研究助手。
Intern-S1的性能已在多种基准测试中进行评估,包括通用数据集和科学数据集,并与近期其他视觉-语言模型(VLMs)和大型语言模型(LLMs)进行了对比。评估工具采用OpenCompass和VLMEvalkit。
根据公布的数据,Intern-S1在多个基准测试中取得了显著成绩:
总体而言,Intern-S1在开放源代码多模态模型中表现突出,尤其在科学相关任务上显示出其优势,并在部分关键科学基准上超越了包括一些闭源模型在内的所有参评模型。
关注DataLearnerAI微信公众号,接受最新大模型资讯