#efficient_models #foundation_models #GPT #GPT-3 #autoregressive transformer #emergent #emergent abilities #few-shot learning #fine-tuning #in-context learning #language model #prompt engineering #scaling laws #sparse attention #zero-shot
Apr 7, 2026
•
4 min read
1,750억 개의 뉴런을 가진 언어 모델에게 예시 몇 개만 보여주면, 별도의 훈련 없이도 번역·요약·코딩까지 해내는 '만능 학습자'가 탄생한다는 것을 증명한 논문