最近,北京大学和吉林大学的Mingluo技术合作研究的最新结果,“预先图:用于高分辨率多模式多模式的个性化强化眼睛跟踪的多模式LLM”正式接受ACM MM 2025的ACM MM 2025的限制。高分辨率视频中多属性凝视预测的准确性。 ACM MM 2025(ACM国际多媒体会议)定于10月27日至2025年在爱尔兰都柏林举行。该会议由国际计算机科学学会(ACM)和全球多媒体技术领域的旗舰会议赞助。这也是国际学院会议,由中国计算机科学学会(CCF)推荐A级。纸张标题:预映射:个性化增强的眼睛追踪多模式LLMFor High-Resolution Multi-Attribute Point Prediction (Chinese Title: Pre-Map: Personalized Multimodal Large Language Language For High-Resolution Multi-Attribute Gaze Point Prediction) Paper Author: Wu Hanbing*, Jiang Ping*, Suang*, Zhao Chenxu, Tan Beiping, Li Huiying (* is the co-First Author) Brief Description of Research Results: 1. Directly hitting the main points of the industry's disease在当今的数字广告领域,了解消费者的重点很重要。但是,观看相同的视频广告时,来自不同背景的观众(例如年龄和性别)也具有不同的注意力分布,但是传统方法可能无法获得这种个性化的差异。传统重要性的预言的Amodels通常使用分割方法,这些方法依赖于低分辨率的图像来产生热图的重要性,随后在民间分辨率中加强了热图,从而限制了它们捕获个性化注意力模式的能力。 2研究团队的高质量数据基础要克服这个问题,该研究团队启动了管理大型行为行为(SPA-ADV)的领先行业,该行业首次记录了4,500多名各个年龄和性别背景的真实视觉行为。该数据集提供了单个凝视水平的准确坐标,为个人建模的重要性提供了高质量的基准数据支持。 3.基于此数据集的高精度构建预言的Amodel,该团队已经开发了图前的创新AI预测模型。该模型可以结合用户的个人特征,并使用最剪裁的多模式大型技术模型来增强该模型的泛化模型和个性化的预测,将准确预测“在哪里看某种类型的人”。有效地解决了对现有AI模型的预测不准确的问题,并难以专注于个人主题,帮助B兰德和广告商更加科学地优化广告创造力,评估交付结果并实现真正的“准确范围”。 Mingluuo的多模式训练:从EEG到眼动,填写广告预测模型的主要难题。这一成功并不是一个孤立的成功,而是多模式多模式的长期和深层培养的不可避免的结果,该模式显示了公司在探索切割技术和实施大型多模式大语言模型(MLLM)方面的前瞻性布局,并且在首次采用了多种多态的大型语言模型(MLLM),从而为新的Marketsing of Melectoy of Melect of Melect of Melect of Melect of Melect of Melect of Melect of Melect of Melect of Melect of Melect of Melect of tocle效果。 2024年,Mingluo技术启动了超级图多模式大型语言模型(HMLLM),非标准模态数据(例如脑电图)的附加整合,并支持企业在不同元素(例如实体)(例如EM)中进行 - 深度分析对毒品材料的影响,效果,场景和受众,从而改善营销建议,以出色的预测开发有效的营销内容以及优化优化建议,以优化优化的优化建议,以优化,以优化优化,以优化优化多二维,公司视频广告。 HyperGraph多模式大语言(HMLLM)平台的相关成就。该平台是专门为全球创意广告衡量的设计,可以快速准确地预测对广告的消费者主观响应和广告有效性,并提供优化建议。尽管测试效率已大大提高,但它大大降低了广告测试的成本,这为公司提供了尝试所有广告的机会,并在“创造性的情感”和“商业理性”之间找到平衡。直到收到这项研究导致JUly在开发人工智能的多模式边界方面取得了另一个成功,并填充了广告预言模型中“用户 - 人性化的观点”的“用户 - 人性化的观点”的“人”。这不仅是促进广告模型的高质量开发的一部分,而且还指示了人类的精确范围。 AI驱动的预测已成为提高内容内容的效率的主要机器。 技术,并专注于改变有关强大行业强大势头的科学研究科学研究的结果,该研究推动了智能广告营销升级到广告和更多行业,并认识到良好且智能的生态系统技术的发展。