在人工智能的世界里,让模型“举一反三”一直是研究者们追求的目标。比如训练好的图像分类模型,能从标注好的“源域”数据,无缝适配到没标注的“目标域”数据,这就是无监督域适应(UDA)的核心诉求。但长期以来,视觉-语言模型(VLM)在域适应任务中,始终被“模态间隙”这个难题绊住脚步。 最近,一篇名为《Unified Modality Separation: A Vision-Language Frame ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果一些您可能无法访问的结果已被隐去。
显示无法访问的结果