Posts by Tag

Computer Vision

Do Vision Transformers See Like Convolutional Neural Networks

September 04 2021

Paper Link : CNN vs VIT 최근 Transformer 계열의 Vision 모델들이 쏟아져 나오면서 기존의 CNN 모델들과는 어떤 차이점이 있는지 궁금했는데, 드디어!! 이 둘을 비교하는 논문이 나왔다. 본 논문에서는 다음의 관점들에서 VIT와 대표적인 CNN이라 ...

Polarized Self-Attention: Towards High-quality Pixel-wise Regression

August 14 2021

Regression task를 해결하기 위한 대부분의 DCNN 모델은 encoder-decoder 구조로 이루어져 있다. 이러한 구조는 대부분 endcoder 구조에서 순차적으로 spatial resolution을 줄이는 동시에 channel resolution을 늘려나가고, d...

Back to top ↑

Generative Model

Back to top ↑

GAN

Back to top ↑

Transformer

Back to top ↑

Keypoint Estimation

Polarized Self-Attention: Towards High-quality Pixel-wise Regression

August 14 2021

Regression task를 해결하기 위한 대부분의 DCNN 모델은 encoder-decoder 구조로 이루어져 있다. 이러한 구조는 대부분 endcoder 구조에서 순차적으로 spatial resolution을 줄이는 동시에 channel resolution을 늘려나가고, d...

Back to top ↑

Semantic Segmentation

Polarized Self-Attention: Towards High-quality Pixel-wise Regression

August 14 2021

Regression task를 해결하기 위한 대부분의 DCNN 모델은 encoder-decoder 구조로 이루어져 있다. 이러한 구조는 대부분 endcoder 구조에서 순차적으로 spatial resolution을 줄이는 동시에 channel resolution을 늘려나가고, d...

Back to top ↑

Text Recognition

Back to top ↑

NLP

Back to top ↑

Hybrid Self-Attention

Polarized Self-Attention: Towards High-quality Pixel-wise Regression

August 14 2021

Regression task를 해결하기 위한 대부분의 DCNN 모델은 encoder-decoder 구조로 이루어져 있다. 이러한 구조는 대부분 endcoder 구조에서 순차적으로 spatial resolution을 줄이는 동시에 channel resolution을 늘려나가고, d...

Back to top ↑

CNN vs VIT

Do Vision Transformers See Like Convolutional Neural Networks

September 04 2021

Paper Link : CNN vs VIT 최근 Transformer 계열의 Vision 모델들이 쏟아져 나오면서 기존의 CNN 모델들과는 어떤 차이점이 있는지 궁금했는데, 드디어!! 이 둘을 비교하는 논문이 나왔다. 본 논문에서는 다음의 관점들에서 VIT와 대표적인 CNN이라 ...

Back to top ↑