본문 바로가기

러닝머신 하는 K-공대생

검색하기
러닝머신 하는 K-공대생
프로필사진 prgmti1

  • 분류 전체보기 (58)
    • 잡담, 일상 (17)
    • Machine Learning (8)
    • Project (5)
    • Problem Solving (19)
      • BOJ (18)
      • Algorithms (1)
    • Computer Vision (1)
Guestbook
Notice
Recent Posts
Recent Comments
Link
«   2025/04   »
일 월 화 수 목 금 토
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30
Tags
  • 구현
more
Archives
Today
Total
관리 메뉴
  • 글쓰기
  • 방명록
  • RSS
  • 관리

목록2025/04 (1)

러닝머신 하는 K-공대생

Transformer 제대로 이해하자

Transformer 하면 “Attention is all you need”를 떠올리며 대충 Self-Attention과 MLP가 있고, 이를 반복해서 Encoder와 Decoder가 존재하며 예측한다고 겉핡기로 아는 경우가 많은데 작년에 나온, 3B1B Transformer 영상을 보면 self-attention과 MLP에 대해 더 깊은 의미를 생각해볼 수 있고 후속 연구들도 이런 해석을 지지하고 있어, 이런 내용을 포함해 Transformer의 작동 원리를 말로서 정리해보고자 한다. 1. Encoder-Only 구조로 큰 틀에서 이해하기먼저 핵심 원리를 파악하기 위해 Encoder-Only 구조에 대해 먼저 살펴보겠다. Transformer는 입력 문장 내 단어 임베딩들 간의 상호작용을 위해 self..

Machine Learning 2025. 4. 6. 18:33
Prev 1 Next

Blog is powered by kakao / Designed by Tistory

티스토리툴바