KyungHyun Lim
ML/AI/SW Developer
Home
© 2023
Week7 - Day1
Sep 13, 2021
ustage
1. 개인학습
Transformer - self attention
Transformer - multi head attention
2. 피어세션
텍스트 없는 음성처리
루트 d_k 로 나눠주는 이유?
Residual Block