About 1,360,000 results
Open links in new tab
  1. 如何MoCo v1代码训练? - 知乎

    Feb 23, 2024 · 通过上图方式训练视觉模型,学习到了很好的视觉预训练模型的表达 Image Representation,在下游任务只要稍微进行 Fine-tune,效果就会比有很大的提升。 MoCo V1 …

  2. 在jupyter中怎么运行moco v3模型? - 知乎

    通常,MoCo是用来进行自监督学习的,因此你需要一个大型的数据集,例如ImageNet。 确保数据集已正确准备,并且可以通过Python接口访问。 3、导入所需库和模型: 在Jupyter Notebook …

  3. 如何评价Kaiming He团队的MoCo v3? - 知乎

    认真的读了一下论文,还是对He表示大大的钦佩,非常细致的工作。 首先MoCo v3不应该是这篇论文的重点,这篇论文的重点应该是将目前无监督学习最常用的对比学习应用在ViT上。MoCo …

  4. 多模态大模型之ALBEF

    Aug 20, 2024 · 这促使模型区分不同的图文组合,避免错误地将不相关的图像和文本联系在一起。 为了实现良好的图文对比效果,ALBEF 借鉴了 Moco 的做法,引入了 memory bank 和 …

  5. 自监督学习(Self-supervised Learning)有什么比较新的思路?

    4.结论 针对传统机器学习算法检测恶意加密流量能力有限的问题,引入视觉领域的MoCo模型,采用对比学习的思路进行流量自监督学习方法,收集大量的无标记数据进行训练,而后仅采用少 …

  6. VIT和对比学习咋选? - 知乎

    MOCO v2 MOCO v2相当于是把SimCLR中值得借鉴的地方拿来借鉴。 比如其中MLP的投影层,更多的数据增强方式,cosine learning rate schedule,以及更多的迭代epoch。 其中supervised …

  7. 有监督和无监督学习都各有哪些有名的算法和深度学习? - 知乎

    其模型结构为: Moco 在借鉴的Simclr的数据增强方式以及mlp结构之后形成了moco-v2,效果也有很大的提升,说明simclr本身的实验结论十分solid。 最初在看到Moco这篇文章的时候确实觉 …

  8. 自监督学习研究为什么纠结于负样本? - 知乎

    Sep 20, 2025 · 1. Introduction 对比学习容易受到模型崩塌的影响,其中模型收敛到一个恒定值,样本全部映射到特征空间中的单点。 负样本可以有效的解决这个问题。 CV中,SimCLR …

  9. OpenSim - 知乎

    本系列笔记记录的是笔者对OpenSim Moco的学习历程,由于笔者已经对其有一定的使用经验,但理论方面还有欠缺,所以目前针对理论性的内容开始学习和探索。本系列笔记一开始记录的是 …

  10. 自监督预训练在监督数据量足够大的情况下还有效吗? - 知乎

    先亮观点:推荐系统就是一个有海量标注数据的场景,但是对比学习仍然有用武之地。因为数据虽多,但是“少数人群、冷门物料”的数据相对较少,造成模型Bias。而对比学习正是“少数派”的 …