点击右上角微信好友

朋友圈

请使用浏览器分享功能进行分享

正在阅读:Monkey:实现更准确的“看图说话”
首页> 数字化频道> AI+ > 正文

Monkey:实现更准确的“看图说话”

来源:科技日报2024-01-09 16:37

  科技日报讯(记者 吴纯新 通讯员 汪伟颋 高翔)1月5日,记者从华中科技大学获悉,该校软件学院白翔教授领衔的VLRLab团队正式发布多模态大模型——Monkey。该模型可精确描述图片内容,并和人类就图片内容进行深入交流。

  多模态大模型是一类可以同时处理和整合多种感知数据(如文本、图片、音频等)的AI架构。近年来,它在众多场景中展现出较大潜力。据介绍,Monkey在18个数据集上的实验中表现出色,在图片描述、视觉问答任务以及文本密集的问答任务中具有优势。

  据介绍,目前,几乎所有多模态大模型都需要运用网上爬取的图文对数据集。这些数据集只能让大模型完成简单的图文描述任务,难以充分挖掘图片分辨率日益增加的优势。

  为解决上述问题,Monkey研发团队利用现有工具构建了一种多层级的描述生成方法。通过依次对图片进行整体简述、空间定位、模块化识别、描述赋分选取和最终总结,该方法可大幅提升图片描述的准确性和丰富程度。

  “一个个工具就好比不同的零件,合理排列组合才能使其发挥最大作用。”白翔说,他所在的团队从2003年就开始从事图片识别研究。他们一起反复讨论,尝试了10余种方案后才确定Monkey的最终方案。

  白翔介绍,Monkey的另一亮点是能处理分辨率高达1344×896像素的图片,这是目前其他多模态大模型所能处理的最大尺寸的6倍。这意味着Monkey能对更大尺寸的图片进行更准确、丰富、细致的描述甚至推理。

  据悉,目前业内能处理的图片最大分辨率为448×448像素。若想进一步提升多模态大模型的图片处理能力,需投入高昂的算力成本。该团队成员刘禹良介绍,为解决上述问题,团队采用创新性的“裁剪”方法。他们将原始输入图片分割成多个图片块,每个图片块的尺寸小于448×448像素。他们还为每个图片块配备了一个“放大镜”,将“放大镜”放到图片块合适的位置即可“看”清更多细节。多个“放大镜”同时工作,分别“放大”不同的图片块,就能提取更多图片局部特征。

[ 责编:刘昊 ]
阅读剩余全文(

相关阅读

您此时的心情

光明云投
新闻表情排行 /
  • 开心
     
    0
  • 难过
     
    0
  • 点赞
     
    0
  • 飘过
     
    0

视觉焦点

  • “五一”假期首日迎来出行高峰

  • 乐享“五一”假期

独家策划

推荐阅读
安徽省亳州市谯城区古城镇李寨村,农户抢抓田间农时,通过科学田间管护,防病防虫、促粒增重,扎实筑牢丰产基础,全力保障小麦稳产增收。
2026-05-01 20:12
广大劳动者以平凡坚守诠释责任担当,用实干劳作致敬劳动之美,在节日一线书写爱岗敬业、拼搏奋进的时代篇章。
2026-05-01 19:59
广西来宾市忻城县薰衣草庄园内马鞭草连片盛放,紫意盎然,假日游园赏花客流有序升温。
2026-05-01 19:49
全国铁路迎来出行高峰,预计发送旅客2480万人次,计划加开旅客列车2070列,全力保障假日旅客出行,运输安全平稳有序。(
2026-05-01 19:45
新疆昌吉回族自治州昌吉市,“翰墨庭州 传承经典”第二届现场临帖大赛在州美术馆广场举办。
2026-05-01 19:41