최신 논문을 씹고 뜯고 소화하는 PaperGOAT — 🗞️🐐
Greatest of All Time — It’s You🫵
AI 엔지니어 3,000명이 아침마다 여는 논문 브리핑 ⚡️유료급 퀄리티, 하지만 무료 🙌최신 AI 논문의 핵심을 정리한 뉴스래터를 매일 받아보세요 📩
#efficient_models #foundation_models #generation #optimization #DDPM #GAN #Langevin dynamics #U-Net #compression #denoising score matching #diffusion #diffusion model #generative model #noise schedule #progressive lossy compression
Apr 14, 2026
•
4 min read
사진을 먼지로 갈아버린 뒤, 그 먼지에서 다시 원래 사진을 복원하는 법을 배우면 — 아무 먼지에서도 새 사진을 만들 수 있다는 것을 증명한 논문
#efficient_models #foundation_models #generation #object_detection #optimization #segmentation #COCO #ImageNet #Imagen #ResNet #batch normalization #bottleneck #deep CNN #degradation problem #identity mapping #
Apr 13, 2026
5 min read
신경망이 깊어질수록 오히려 성능이 떨어지는 역설을, '지름길(shortcut)'이라는 단순한 아이디어 하나로 해결하고 152층짜리 네트워크를 학습시킨 논문
#efficient_models #foundation_models #generation #optimization #vision_transformer #CLS #token #Imagen #ViT #Vision #Transformer #attention #image #classification #image #patch #embedding #inductive #bias #large-scale #pre-training #position #embedding
Apr 12, 2026
NLP의 왕좌를 차지한 Transformer를 컴퓨터 비전에 데려와, 이미지를 16x16 퍼즐 조각으로 쪼개 문장처럼 읽게 만든 논문
#efficient_models #foundation_models #GPT #GPT-3 #autoregressive transformer #emergent #emergent abilities #few-shot learning #fine-tuning #in-context learning #language model #prompt engineering #scaling laws #sparse attention #zero-shot
Apr 7, 2026
1,750억 개의 뉴런을 가진 언어 모델에게 예시 몇 개만 보여주면, 별도의 훈련 없이도 번역·요약·코딩까지 해내는 '만능 학습자'가 탄생한다는 것을 증명한 논문
#foundation_models #self_supervised #BERT #Masked Language Model #Next Sentence Prediction #Transformer #WordPiece #bidirectional #fine-tuning #pre-training #self-attention #transfer learning
문장을 왼쪽에서 오른쪽으로만 읽던 AI에게, 빈칸 채우기 퀴즈를 내서 문맥 전체를 이해하게 만든 논문
#foundation_models #optimization #Encoder-Decoder #GPU #Machine Translation #Multi-Head Attention #Positional Encoding #Scaled Dot-Product Attention #Self-Attention #Sequence-to-Sequence #Transformer #attention
Apr 6, 2026
번역기에서 순차 처리하는 통역사를 해고하고, 문장 전체를 한눈에 조망하는 감독관으로 대체한 논문 — 그리고 그 감독관이 현대 AI의 뇌가 되었습니다.