国外 产品发布 热点

Hugging Face发布多模态指令微调数据集“MM-InstrucTune-1M”

发布于:2026-04-08 00:00 来源:Hugging Face
👁️ 1 📤 0
互动指标
阅读量
👁️ 1
分享量
📤 0

Hugging Face于今日正式发布了一个超大规模的多模态指令微调数据集 **“MM-InstrucTune-1M”**。该数据集旨在解决当前多模态大模型(MLLM)指令遵循能力弱、幻觉严重的问题。核心内容包含:1. **数据规模**:包含**105万条**高质量图文对齐的指令-响应对,覆盖了从简单描述、复杂推理到创造性写作等**12种任务类型**。2. **关键事实与构建方法**:数据并非简单爬取,而是通过一个两阶段流程生成:首先使用强大的MLLM(如GPT-4V)对原始图像生成多样化指令种子,然后通过众包平台和经过训练的奖励模型进行严格的质量过滤与改写,确保指令的多样性和响应的准确性。3. **技术参数**:数据格式与主流MLLM训练框架(如LLaVA、InstructBLIP)完全兼容,并提供了详细的训练脚本和基线模型评估结果。初步实验表明,在相同模型架构下,使用该数据集微调的模型在**MMBench**和**SEED-Bench**等权威多模态评测基准上的平均得分提升了**15.7%**,尤其在需要多步推理的任务上提升显著。其行业影响在于为开源社区和研究者提供了一个堪比闭源厂商质量的训练数据资源,有望大幅降低开发高性能MLLM的门槛,推动开源多模态模型能力的跃升。核心价值是提供了一个标准化、高质量、可复现的指令微调数据解决方案。结论是,MM-InstrucTune-1M的发布可能成为开源多模态模型发展史上的一个关键节点,加速追赶闭源模型的步伐。

← 返回列表