微信扫码
与创始人交个朋友
我要投稿
综合性理解挑战:信息图表和用户界面(UI)在视觉和语义上的复杂性,需要一个统一的模型来理解、推理和交互。
跨媒体理解:需要处理包括图表、插图、地图、表格、文档布局等在内的多种视觉和文本元素。
丰富的用户交互:在数字时代,移动和桌面 UI 需要提供丰富和交互性强的用户体验。
视觉-语言模型(VLM):提出了 ScreenAI,结合了 PaLI 架构和 Pix2struct 的灵活 patching 机制,将视觉任务转化为(文本,图像)到文本的问题
自动数据生成:利用大型语言模型(LLMs)和新的 UI 表示,实现了大规模自动生成训练数据。
预训练和微调任务混合:定义了一系列预训练和微调任务,这些任务覆盖了 UI 和信息图表理解的广泛领域。
# 训练任务
屏幕标注:模型的任务是检测和识别屏幕上存在的用户界面元素。这包括执行光学字符识别(OCR)和图像字幕以理解和解释文本和非文本内容。为了增强模型的上下文理解能力,一些文本元素被故意遮蔽,鼓励模型根据周围上下文和布局推断信息。
屏幕问答:在这个任务中,模型被要求回答与用户界面和计算机生成图像(如信息图表)相关的问题。经过初步实验,我们发现在算术、计数、理解包含复杂信息图表的图像等属性上存在性能差距。为了增强模型的能力,我们创建了专门针对这些差距的数据,例如涉及计数、算术运算和包含信息图表的复杂数据的问答。为了更好地理解图表示例,我们包括了大量的图表到表格转换示例
屏幕导航:这个任务涉及解释导航指令(例如,“返回”)并识别要交互的适当用户界面元素。预期的输出是目标元素的边界框坐标,范围在 0 到 999 之间,展示了模型准确理解用户意图并通过界面导航的能力。
屏幕摘要:模型的任务是用一两句话简洁地总结屏幕内容。这个任务评估了模型提炼和描述屏幕内容本质的能力。为确保全面训练,能够适应不同的纵横比,每个任务都以多种格式(移动和桌面)提供,并包括几种纵横比。
3. 在预训练数据中添加 LLM 生成的数据将综合得分提高了 4.6 个百分点。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-09-20
周鸿祎的“慢思考”先见,领先OpenAI两个月,大模型联盟显威力
2024-09-20
滴滴新一代大模型存储架构设计与踩坑之路
2024-09-20
RAG+Agent人工智能平台:RAGflow实现GraphRA知识库问答,打造极致多模态问答与AI编排流体验
2024-09-20
史上最强编程助手来了!GitHub Copilot再进化,引人OpenAI o1!
2024-09-20
基于大模型的自适应故障场景监控探索
2024-09-20
OpenAI携手T-Mobile,AI客户体验新时代到来了
2024-09-20
37手游在 AI 智能分析的探索
2024-09-20
用 Cursor AI 30分钟内打造汉字临摹模板生成器
2024-07-18
2024-03-30
2024-04-26
2024-04-11
2024-05-06
2024-06-12
2024-07-09
2024-05-09
2023-07-01
2024-07-25
2024-09-20
2024-09-20
2024-09-20
2024-09-20
2024-09-20
2024-09-20
2024-09-20
2024-09-20