Search
Log In
Subscribe

#efficient_models #foundation_models #GPT #GPT-3 #autoregressive transformer #emergent #emergent abilities #few-shot learning #fine-tuning #in-context learning #language model #prompt engineering #scaling laws #sparse attention #zero-shot

#efficient_models #foundation_models #GPT #GPT-3 #autoregressive transformer #emergent #emergent abilities #few-shot learning #fine-tuning #in-context learning #language model #prompt engineering #scaling laws #sparse attention #zero-shot

크기가 곧 능력이다: GPT-3 💪

Apr 7, 2026

•

4 min read

크기가 곧 능력이다: GPT-3 💪

1,750억 개의 뉴런을 가진 언어 모델에게 예시 몇 개만 보여주면, 별도의 훈련 없이도 번역·요약·코딩까지 해내는 '만능 학습자'가 탄생한다는 것을 증명한 논문

Jason Lee
Jason Lee