-
Logging
-
Docker - Basic
-
FastAPI - FastAPI 기본지식, Pydantic
-
FastAPI - FastAPI 심화
-
FastAPI - 백엔드의 기초
-
Cloud
-
Linux & Shell Command
-
프로토타이핑 - 웹 서비스 형태(Streamlit)
-
프로토타이핑 - Notebook 베이스(Voila)
-
머신러닝 프로젝트 라이프 사이클
-
Model serving 개론
-
MLOps 개론
-
모델 경량화 - 이미지 분류(분리수거)
-
NLP 모델 경량화 - Knowledge Distilation
-
NLP 모델 경량화 (1)
-
자연어처리 데이터 소개
-
자연어처리 데이터 기초
-
데이터 제작의 A to Z
-
Triplet Loss with Pytorch
-
Dense Passage Retrieval with Pytorch
-
Negative log likelihood Loss with pytorch
-
허깅 페이스 Trainer를 이용해 학습 중 샘플 출력해보기 (QA task)
-
QA with Phrase Retrieval
-
Closed-book QA with T5
-
Reducing Training Bias
-
Linking MRC and Retrieval
-
Scaling up with FAISS
-
Custom data를 이용해 WordPiece 방식으로 vocab 생성 및 BertTokenizer 훈련하기
-
Passage Retrieval - Dense Embedding
-
Passage Retrieval - Sparse Embedding
-
Generation-based MRC
-
Extraction-based MRC
-
MRC Intro & Python Basics
-
Hugging face - QA model classification head 분석해보기
-
torcn.nn.Embedding 알아보기
-
GPT - applications
-
Huggingface - RobertaForSequenceClassification의 반환값 분석
-
Scikit-learn train_test_split의 random_state
-
Entity를 변형해 데이터 Augmentation 하기
-
BERT vs RoBERTa vs ELECTRA
-
Hugging face - Custom Loss
-
BERT 기반 두 문장의 관계 분류 (한국어)
-
BERT 언어모델 소개 및 학습 with 한국어
-
자연어의 전처리
-
인공지능과 자연어처리
-
Huggingface- KLUE- 관계 추출
-
Huggingface- Text Classification
-
Huggingface- Chapter 4. Sharing models and tokenizers
-
Huggingface- Chapter 3. Fine-tunning
-
Huggingface- Chapter 2. Pretrained model & tokenizer
-
Huggingface- Chapter 1. pipeline, theory
-
NLP: GPT-2/3, ALBERT, ELECTRA
-
Byte Pair Encoding
-
NLP: GPT-1, BERT
-
Transformer - Multi head attention
-
Transformer - Self attention
-
Visualization-PIE
-
Visualization-Polar
-
Beam search and BLEU score
-
Seq2Seq with attention
-
Recurrent Neural Network - NLP
-
NLP word embedding
-
NLP basic
-
Visualization-Seaborn Basic
-
Hook and Apply
-
Visualization-More Tips
-
Visualization-Facet 활용
-
Visualization-Color 활용
-
Visualization-Text 활용
-
Pytorch(8)-Trouble shooting
-
Pytorch(7)-Hyperparameter tuning
-
Pytorch(6)-MultiGPU
-
Pytorch(5)-Monitering(Tensorbaord & Weight and Bias)
-
Pytorch(4)-모델 불러오기(transfer learning)
-
Pytorch(3)-Dataset & DataLoader
-
Pytorch(2)-AutoGrad & Optimizer
-
Pytorch(1)-Basic
-
GAN - Mode collapsing
-
Softmax regression and Cross-entropy
-
Generative model-VAE, GAN
-
Generative model-통계이론 및 모델
-
Transformer
-
Recurrent Neural Network
-
Convolution Neural Network
-
Visualization-Scatter
-
Optimization
-
Visualization-Line
-
Visualization-Bar
-
Ensemble - bagging and boosting
-
Vanishing gradient & Relu
-
Batch Normalization layer
-
Entropy, KL Divergence (정보이론)
-
Pytorch, 대용량 데이터 처리 with Dataset 클래스
-
Tensorflow, 대용량 데이터 처리 with h5py, HDF5Matrix
-
Maximum Likelihood
ML/AI/SW Developer