基本信息

  因服务器安全管理要求,采用 升级ssh至较新版、修复漏洞、改为密钥登录 等措施,便查。

阅读全文 »

基本信息

  记录一些有用的Link。

查文献

常用的

  1. Semantic Scholar
    常用1
  2. Connected Papers
    图形化地查一篇文章的引用与被引。
  3. Google Scholar
    常用2。打不开?!见后面5个镜像站:

  4. arXiv官网
    常用3。没发表和即将发表的论文提前看

  5. cn.arxiv
    arXiv国内镜像站
  6. Arxiv更友好的展示 | Sanity
    疑似停站
  7. arxiv-sanity Lite版
    换种视角来逛arXiv,支持订阅
  8. Papers With Code
    Paper连接Code,(数据集)榜单,Task。
阅读全文 »

基本信息

  记录一些日常使用的终端命令,便查。

阅读全文 »

基本信息

1
2
3
4
Wei, Yunxuan, Shuhang Gu, Yawei Li, and Longcun Jin. 
“Unsupervised Real-World Image Super Resolution via Domain-Distance Aware Training.”
ArXiv:2004.01178 [Cs], April 2, 2020. http://arxiv.org/abs/2004.01178.
CVPR-2021

题目:通过 域距离感知训练 实现 无监督的 真实世界图像超分辨率
CVPR-2021 项目页已提
code: https://github.com/ShuhangGu/DASR
blog: 一作Yunxuan Wei (华南理工学生,导师金龙存 , 悉尼大学交流生)
  二作(顾舒航, 悉尼大学AP,博后 at ETH Zurich, under the supervision of Prof. Luc Van Gool. )https://sites.google.com/site/shuhanggu/

摘要
  无监督超分。 现有方法的原理在于增强未配对数据,即首先生成 与真实世界域中LR图像-(HR)图像相对应的 合成低分辨率(LR)图像;然后利用伪图像对 进行监督训练。不幸的是,由于图像迁移本身是一项极具挑战性的任务,因此这些方法的SR性能受到生成的合成LR图像和真实LR图像之间的域间差距的严重限制。
在本文中,我们提出了一种无监督的用于现实世界图像SR的新颖的 域距离感知超分辨率(DASR)方法。 通过我们的域间差距感知训练和域距离加权监督策略,解决训练数据()和测试数据()之间的领间差距。 域间差距感知训练充分利用目标域(real)的实际数据;域距离加权监督则更合理使用了有标签的源域(合成)数据。 该方法在合成数据集和真实数据集上得到了验证,实验结果表明,在生成具有更真实自然纹理的SR输出时,DASR始终优于最先进的无监督SR方法。

阅读全文 »

just for pin fuction clamp()

torch.Tensor

clamp_(min, max) → Tensor
clamp() 的in-place运算形式

torch.clamp
torch.clamp(input, min, max, out=None) → Tensor
将输入input张量每个元素的夹紧到区间 [min,max],并返回结果到一个新张量。

操作定义如下:

1
2
3
      | min, if x_i < min
y_i = | x_i, if min <= x_i <= max
| max, if x_i > max

基本信息

1
2
3
4
Zhou, Shangchen, Jiawei Zhang, Wangmeng Zuo, and Chen Change Loy. 
“Cross-Scale Internal Graph Neural Network for Image Super-Resolution.”
NeurIPS. virtual, 2020.
https://proceedings.neurips.cc/paper/2020/hash/23ad3e314e2a2b43b4c720507cec0723-Abstract.html.

题目:用于图像超分的 交叉尺度 内部 图神经网络
NeurIPS. 2020
NTU MMLab PHD 周尚晨, 导师:吕健勤(Chen Change Loy)2016届董超的联合导师
个人web:Zhou, Shangchen, Chen Change Loy.
[Code] pytorch版

阅读全文 »

基本信息

Self-Supervised Spatio-temporal Representation Learning for Videos by Predicting Motion and Appearance Statistics

Jiangliu Wang, Jianbo Jiao, Linchao Bao, Shengfeng He, Yunhui Liu, Wei Liu

IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2019

[BibTeX] [Code]

题目:通过运动统计和外观统计的预测,对视频进行自我监督时空表征学习
CVPR2019
港中文PHD, 实习腾讯AI LAB
个人web:Jiangliu Wang
[Code] 有pytorch版

阅读全文 »

基本信息

1
2
3
Si, Chenyang, Xuecheng Nie, Wei Wang, Liang Wang, Tieniu Tan, and Jiashi Feng. 
"Adversarial Self-Supervised Learning for Semi-Supervised 3D Action Recognition."
In European Conference on Computer Vision, pp. 35-51. Springer, Cham, 2020.

题目:对抗式自我监督学习,实现半监督3D动作识别
ECCV2020
一作 司晨阳,中科院自动化所博士生,新加坡国立大学访问学生
指导老师:Prof. Tieniu Tan, Prof. Liang Wang and associate Prof. Wei Wang
web:http://chenyangsi.top/
无code。作者开源代码少。

阅读全文 »

基本信息

1
2
3
4
5
6
@inproceedings{Zhang2020FewShotAR,
title={Few-Shot Action Recognition with Permutation-Invariant Attention},
author={Hongguang Zhang and Liyong Zhang and Xiaojuan Qi and Hongdong Li and P. Torr and Piotr Koniusz},
booktitle={ECCV},
year={2020}
}

题目:
2020ECCV

摘要
  我们构建了一个C3D编码器的视频时空块,以捕获短距离的动作模式。这些编码块通过排列不变性池化聚合;使我们的方法具有强大的鲁棒性,能应对变化的动作长度和长期的时间依赖性,这些模式,即使在同一类别的剪辑中,不太可能重复。随后,合并的表征被组合成简单的关系描述符,用于编码所谓的查询和支持片段。最后,将关系描述符输入到比较器,以实现查询和支持片段之间的相似性学习。重要的是,为了在池化中重新计算块贡献的权重,我们利用了时空注意力模块和自我监督。在自然剪辑中(同类别)存在着时间分布的偏移——区分性时间动作热点的位置不同。因此,我们对片段的块进行置换,并将结果的注意区域与非置换片段的类似置换的注意区域进行比对,以训练不改变块(从而不改变长期热点)置换的注意机制。我们的方法优于目前最先进的HMDB51, UCF101,miniMIT数据集

阅读全文 »

基本信息

1
2
3
4
5
6
Zero-Shot Action Recognition in Videos: A Survey
Valter Luís Estevam Junior a,c,, Helio Pedrini b and David Menotti c
a Federal Institute of Paraná, Irati-PR, 84500-000, Brazil
b Universiy of Campinas, Institute of Computing, Campinas-SP, 13083-852, Brazil
c Federal University of Paraná, Department of Informatics, Curitiba-PR, 81531-970, Brazil
https://arxiv.org/abs/1909.06423

题目:视频中的零次学习行为识别:综述
 2019年预印版v1, 17 Nov 2020更新V2

摘要
  近年来,零次学习的动作识别已经引起了人们的关注,并且提出了许多方法来识别图像和视频中的物体,事件和动作。 而能够从模型训练过程中不存在的分类中,对实例进行分类的方法存在需求,特别是在自动视频理解的复杂任务中。因为收集,注释和标记视频是困难且费力的任务。我们确定文献中有许多可用的方法,但是,很难对哪些技术可以视为最新技术进行分类。 尽管存在一些有关静态图像和实验方案的零次动作识别的综述,但没有针对视频方面的。 因此,在本文中,我们对包括进行视觉特征提取和语义特征提取的技术在内的方法进行了概述,特别是视频下零次动作识别中的这些特征之间的映射学习。 我们还提供了数据集,实验和方案的完整描述,为计算机视觉研究领域的发展必不可少的未来工作指出了开放性问题和方向。

阅读全文 »