1. AI Research Flow
1st Generation
gerffrey Hinton : 딥러닝의 대부분의 요소를 개발 ((AI의 겨울 해결, AlexNet 개발
다만 회의적 → 대부분의 직업이 대체되어, plumber를 준비하라
Yan LeCun : CNN specialist, Meta에서 일함… 오.. AI를 긍정적으로 바라보는 중
트랜스포머나 LLM으로는 AGI에 도달할 수 없다.
Yoshua Bengio : 뉴럴 머신 translation, sequence model, GAN, ReLU, Xavier Init
remove subjectivity를 시도하고 있음
2nd Generation
Andrew Ng : AI 모델에 GPU를 이용하기 시작
Fei-Fei Li : imagenet 프로젝트 시작 / Vision 분야에 기여 - science + AI를 해라, AI의 실제 작동원리를 알아가야한다
Demis Hassabis : neuroscience+CS 에서 ph.D, AlphaGo 제작, 현재는 new drug제작 중
3rd Generation
Ashish Vaswani : Transformer team - 그러나 이에 한계를 느끼고 next transformer 준비
Ian Goodfellow : GAN 제작 - contents watermarking, detect generative contents 준비
Ilya Sutskever : Open AI , AlexNet, ChatGPT- AI safety 문제에 집중
4세대 -ing
DDPM 제작 / Mamba(next transformer) , Flashed Attention / GELU, MMLU 등의 연구 등 —
넘사벽인것같다… 아이디어도 대단하고 그걸 실행하는 능력도 멋지다… 논문 저거를 다 어케읽어요…
2. 창업 경험 공유 LLM 스타트 업
Thermit → 상품 상세 서비스 만들어주는 팀
투자 인사이트 → VC, AC, LP, GP, 사모펀드
VentureCapital : 스타트업에 자금을 투자해서 투자금을 회수 ((개인
AC → 보육?
LP → 은행, 연기금, 대기업, 고액 자산가 등의 지원으로
사모펀드 : 우리나라는 주로 국가 주도
GP : 그 펀드를 실제로 굴리는 운용사
글로벌 확장성을 요즘은 많이 봅니다
context window size가 요즘 많이 늘어남.. GPT는 지금 200만 토큰.. 어마어마 하다 ((그래도 토큰을 아끼는게 좋은가봐
LLM은 컨텍스트 창 내의 토큰을 처리하기 위해 Self- Attention 메커니즘 사용 → context 창 크기 = 한번에 self-attentoin을 할 수 있는 양 = 모델이 한번에 주의를 기울일 수 있는 최대 토큰 수를 결정
⇒ 범용 모델을 어떻게 유저 특화할 것인가
Streaming 기술… / Interleaved Reason..?