![](https://img1.daumcdn.net/thumb/R750x0/?scode=mtistory2&fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FqkXaJ%2FbtrGLAlg3NS%2F3kPznBW9kDOAYnbRL2wJ40%2Fimg.png)
[논문 리뷰] SegFormer: Simple and Efficient Design for Semantic Segmentation with Transformers
·
Paper review/2D Segmentation
나의 정리 Vision Transformer 모델들의 문제점인 single-scale feature map을 사용하여서 작은 물체에 대한 성능이 낮고 large image에 대한 연산량이 많다는 점을 개선한 모델이다. Positional Encoding을 사용하지 않아서 Train/test의 해상도가 다르더라도 성능 저하가 없다. Overlapping Patch Merging을 이용해서 local continuity를 살리고 self attention layer에서 R의 비율로 적게 sampling을 하여서 연산량을 줄였다. multi-level feature map을 사용하여서 hierarchical Transformer Encoder를 사용하여 high-level feature map에서는 coars..