@AdinaYakup: Intern S2 预览 上海人工智能实验室的科学多模态模型 @intern_lm 35B 在科学基准上与其自身1T模型表现相当…
摘要
上海人工智能实验室发布 Intern S2,一个35B的科学多模态模型,在科学基准上与其自身1T模型表现相当,引入了Task Scaling作为新的扩展维度。采用Apache 2.0许可证。
Intern S2 预览 上海人工智能实验室 @intern_lm 的科学多模态模型 35B 在科学基准上与其自身1T模型表现相当 'Task Scaling':超越参数和数据的新扩展维度 结合晶体结构生成与通用能力 科学智能体工作流 + 工具调用 Apache 2.0
相似文章
internlm/Intern-S2-Preview · Hugging Face
InternLM 发布 Intern-S2-Preview,一款 35B 的科学多模态基础模型,通过任务缩放和全链条训练流程,在专业科学任务上达到与万亿级模型相当的性能。
@AnandButani:@huggingface 的 ml-intern 太疯狂了,只需一句高层提示(“打造最强科学推理模型”或“碾压医疗基准”)……
Hugging Face 开源的“ml-intern”智能体仅需一句高层提示,即可自动化完成后训练全流程:从文献调研、数据清洗到模型调优。
ML-Intern
Hugging Face 推出 AI 代理 ML-Intern,可自动完成机器学习工作流中的后训练任务。
@AdinaYakup:Alibaba AIDC 团队全新 MoE 多模态大语言模型 Ovis2.6-80B-A3B | 80B/3B 激活参数 | Apache 2.0 | 64K 上下文 / 2880×2880 图像…
Alibaba AIDC 团队已发布 Ovis2.6-80B-A3B,这是一款遵循 Apache 2.0 许可的混合专家(MoE)多模态大语言模型。该模型具备 80B 总参数量与 3B 激活参数,支持 64K 上下文长度,并原生支持 2880×2880 图像分辨率以及链式思考(CoT)视觉推理。
@cmpatino_:用了一段时间 ml-intern,它真的改变了我的工作流。它在以下方面特别强:- 模型/数据集发现……
开发者盛赞 ml-intern 工具,称其极大简化了模型/数据集发现、训练后迭代与数据处理流程。