英文字典中文字典


英文字典中文字典51ZiDian.com



中文字典辞典   英文字典 a   b   c   d   e   f   g   h   i   j   k   l   m   n   o   p   q   r   s   t   u   v   w   x   y   z       







请输入英文单字,中文词皆可:


请选择你想看的字典辞典:
单词字典翻译
318399查看 318399 在百度字典中的解释百度英翻中〔查看〕
318399查看 318399 在Google字典中的解释Google英翻中〔查看〕
318399查看 318399 在Yahoo字典中的解释Yahoo英翻中〔查看〕





安装中文字典英文字典查询工具!


中文字典英文字典工具:
选择颜色:
输入中英文单字

































































英文字典中文字典相关资料:


  • 神经网络前置任务(pretext task)有什么作用? - 知乎
    神经网络前置任务(pretext task)有什么作用? 最近在看论文,看到不少论文训练和评估模型时都用到了pretext task (前置任务),而不是目标应用任务,想问一下这样做有什么好处吗? 显示全部 关注者 65
  • 通俗易懂讲AI--自监督学习
    3、自监督学习的任务(pretext task)种类 图像旋转:将图像进行随机旋转,然后让模型预测旋转的角度。 通过解决这个任务,模型可以学习到图像中的旋转不变性。 图像补全:通过遮挡图像的一部分,然后让模型预测被遮挡的区域。
  • 自监督预训练的辅助任务 (pretext task)跟训练目标 (objective . . .
    自监督预训练的辅助任务 (pretext task)跟训练目标 (objective)有啥区别啊? 想请教有过自监督预训练的大佬,辅助任务或者叫代理任务 (pretext task)跟训练目标 (objective)是啥区别啊。 我看有的论文把个体判别分为… 显示全部 关注者 3
  • 如何MoCo v1代码训练? - 知乎
    这个任务和下游任务毫不相干,但是 BERT 就是通过 Pretext Task 学习到了很好的 Language Representation 作为预训练模型,很好地适应了下游任务。 (2) CV领域的 Pretext Task:在训练 SimCLR 的时候,预训练过程让模型区分相似和不相似的图像。
  • 谁能解答一下excuse和pretext的区别? - 知乎
    小总结: Pretext 总是假的,它是一个掩盖真实目的的谎言。 刻意练习一下 他用生病作为没参加会议的借口,但我们后来发现那只是他偷偷去旅行的托词。 e g He used his illness as an excuse for not attending the meeting, but later we found out it was a pretext to go on a secret trip
  • 【2022. 03 北大报告】华为诺亚黄维然:自监督学习理论 - 知乎
    相关论文: 1 Towards the Generalization of Contrastive Self-Supervised Learning 2 Can Pretext-Based Self-Supervised Learning Be Boosted by Downstream Data? A Theoretical Analysis
  • 手机上有可以使用文件系统的markdown编辑器吗? - 知乎
    移动端Obsidian可以打开本地文件夹,不过会在本地文件夹下生成一个 obsidian的文件夹用来配置,另外我一般用onedrive加foldersync同步笔记, 配置方法 百度obsidian--Windows与安卓端双向同步。
  • pretext - 知乎
    回答数 0,获得 0 次赞同 京ICP证110745号 · 京ICP备13052560号-1 · 京公网安备 11010802020088 号 · 互联网新闻信息服务许可证:11220250001 · 京网文 [2025]0422-132 号 · 药品医疗器械网络信息服务备案(京)网药械信息备字(2022)第00334号 · 广播电视节目制作经营许可证:(京)字第06591号 · 互联网宗教信息服务
  • 深度学习中,自监督 (self-supervised)和无监督 (unsupervised . . .
    自监督学习通过解决自定义的pretext task,进行模型的预训练,将训练好的模型进行迁移或是微调以解决特定的任务,举个例子,在Unsupervised Learning of Visual Representations by Solving Jigsaw Puzzles这篇论文里面,作者通过让模型解决拼图问题来学习良好的特征表示,即把
  • 前沿解读 | 自监督学习中的迁移学习 - 知乎
    自监督学习是一个有趣的研究领域,其目标是从没有任何人工注释的未标记数据中学习丰富的表示。这可以通过创造性地制定一个问题来实现,这样就可以使用部分数据本身作为标签并尝试对其进行预测。这种表述被称为pretext任务。例如,您可以设置一个pretext 任务来预测给定灰度版本图像的颜色





中文字典-英文字典  2005-2009