基本信息
因服务器安全管理要求,采用 升级ssh至较新版、修复漏洞、改为密钥登录 等措施,便查。
记录一些有用的Link。
Google Scholar
常用2。打不开?!见后面5个镜像站:
arXiv官网
常用3。没发表和即将发表的论文提前看
1 | Wei, Yunxuan, Shuhang Gu, Yawei Li, and Longcun Jin. |
题目:通过 域距离感知训练 实现 无监督的 真实世界图像超分辨率
CVPR-2021 项目页已提
code: https://github.com/ShuhangGu/DASR
blog: 一作Yunxuan Wei (华南理工学生,导师金龙存 , 悉尼大学交流生)
二作(顾舒航, 悉尼大学AP,博后 at ETH Zurich, under the supervision of Prof. Luc Van Gool. )https://sites.google.com/site/shuhanggu/
摘要:
无监督超分。 现有方法的原理在于增强未配对数据,即首先生成 与真实世界域中LR图像-(HR)图像相对应的 合成低分辨率(LR)图像;然后利用伪图像对 进行监督训练。不幸的是,由于图像迁移本身是一项极具挑战性的任务,因此这些方法的SR性能受到生成的合成LR图像和真实LR图像之间的域间差距的严重限制。
在本文中,我们提出了一种无监督的用于现实世界图像SR的新颖的 域距离感知超分辨率(DASR)方法。 通过我们的域间差距感知训练和域距离加权监督策略,解决训练数据()和测试数据()之间的领间差距。 域间差距感知训练充分利用目标域(real)的实际数据;域距离加权监督则更合理使用了有标签的源域(合成)数据。 该方法在合成数据集和真实数据集上得到了验证,实验结果表明,在生成具有更真实自然纹理的SR输出时,DASR始终优于最先进的无监督SR方法。
just for pin fuction clamp()
torch.Tensor
clamp_(min, max) → Tensor
clamp() 的in-place运算形式
torch.clamp
torch.clamp(input, min, max, out=None) → Tensor
将输入input张量每个元素的夹紧到区间 [min,max],并返回结果到一个新张量。
操作定义如下:
1 | | min, if x_i < min |
1 | Zhou, Shangchen, Jiawei Zhang, Wangmeng Zuo, and Chen Change Loy. |
题目:用于图像超分的 交叉尺度 内部 图神经网络
NeurIPS. 2020
NTU MMLab PHD 周尚晨, 导师:吕健勤(Chen Change Loy)2016届董超的联合导师
个人web:Zhou, Shangchen, Chen Change Loy.
[Code] pytorch版
Self-Supervised Spatio-temporal Representation Learning for Videos by Predicting Motion and Appearance Statistics
Jiangliu Wang, Jianbo Jiao, Linchao Bao, Shengfeng He, Yunhui Liu, Wei Liu
IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2019
题目:通过运动统计和外观统计的预测,对视频进行自我监督时空表征学习
CVPR2019
港中文PHD, 实习腾讯AI LAB
个人web:Jiangliu Wang
[Code] 有pytorch版
1 | Si, Chenyang, Xuecheng Nie, Wei Wang, Liang Wang, Tieniu Tan, and Jiashi Feng. |
题目:对抗式自我监督学习,实现半监督3D动作识别
ECCV2020
一作 司晨阳,中科院自动化所博士生,新加坡国立大学访问学生
指导老师:Prof. Tieniu Tan, Prof. Liang Wang and associate Prof. Wei Wang
web:http://chenyangsi.top/
无code。作者开源代码少。
1 | @inproceedings{Zhang2020FewShotAR, |
题目:
2020ECCV
摘要:
我们构建了一个C3D编码器的视频时空块,以捕获短距离的动作模式。这些编码块通过排列不变性池化聚合;使我们的方法具有强大的鲁棒性,能应对变化的动作长度和长期的时间依赖性,这些模式,即使在同一类别的剪辑中,不太可能重复。随后,合并的表征被组合成简单的关系描述符,用于编码所谓的查询和支持片段。最后,将关系描述符输入到比较器,以实现查询和支持片段之间的相似性学习。重要的是,为了在池化中重新计算块贡献的权重,我们利用了时空注意力模块和自我监督。在自然剪辑中(同类别)存在着时间分布的偏移——区分性时间动作热点的位置不同。因此,我们对片段的块进行置换,并将结果的注意区域与非置换片段的类似置换的注意区域进行比对,以训练不改变块(从而不改变长期热点)置换的注意机制。我们的方法优于目前最先进的HMDB51, UCF101,miniMIT数据集
1 | Zero-Shot Action Recognition in Videos: A Survey |
题目:视频中的零次学习行为识别:综述
2019年预印版v1, 17 Nov 2020更新V2
摘要:
近年来,零次学习的动作识别已经引起了人们的关注,并且提出了许多方法来识别图像和视频中的物体,事件和动作。 而能够从模型训练过程中不存在的分类中,对实例进行分类的方法存在需求,特别是在自动视频理解的复杂任务中。因为收集,注释和标记视频是困难且费力的任务。我们确定文献中有许多可用的方法,但是,很难对哪些技术可以视为最新技术进行分类。 尽管存在一些有关静态图像和实验方案的零次动作识别的综述,但没有针对视频方面的。 因此,在本文中,我们对包括进行视觉特征提取和语义特征提取的技术在内的方法进行了概述,特别是视频下零次动作识别中的这些特征之间的映射学习。 我们还提供了数据集,实验和方案的完整描述,为计算机视觉研究领域的发展必不可少的未来工作指出了开放性问题和方向。