torch == 1.7.1
torchtext == 0.8.1
🍟 스터디 끝!
🍕 transformers
를 사용하지 않고 패키지 형태로 논문 재현하기
🍔 2021.01.06~2021.06.30까지 끝내기 목표
🌮 논문 구현 단계는 이와 같음
논문 읽기
-> reference code 읽기
-> 코드 짜기
-> 동일 조건 실험으로 성능이 재현되는지 확인하기
순번 | paper | 시작일자 | 상태 | arxiv | notion | reference code |
---|---|---|---|---|---|---|
01 | Convolutional Neural Networks for Sentence Classification (2014) | 0106 | Done | paper | notion | reference code official code |
02 | Sequence to Sequence Learning with Neural Networks (2014) | 0203 | WIP | paper | notion | reference code1 reference code2 |
03 | Neural Machine Translation by Jointly Learning to Align and Translate (2016) | 0303 | Done | paper | notion | reference code |
04 | Attention is All You Need (2017) | 0406 | WIP | paper | notion | reference code |
05 | Deep contextualized word representations (2018) | 0504 | Done | paper | notion | - |
06 | BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding (2019) | 0608 | Done | paper | notion | - |
🍕 https://tutorials.pytorch.kr/ 노트북 다운 받아서 실행해보고 모르는 것 정리하고, 요약하고 연습문제 만들어서 풀기
🍔 2020.09.30~2020.12.31까지 끝내기 목표
순번 | 튜토리얼 | 시작일자 | 상태 | 주요내용 | 링크 |
---|---|---|---|---|---|
01 | what is torch.nn? | 1010 | 완료 | nn.Functional ,nn.Module ,nn.Linear ,optim |
tutorial |
02 | Tensorboard | 1012 | 완료 | tensorboard |
tutorial |
03 | 이름분류 | 1013 | 완료 | nn.Linear ,Dataset ,DataLoader |
tutorial |
04 | 이름생성 | 1019 | 완료 | nn.GRU ,.to(device) |
tutorial |
05 | seq2seq 번역 | 1030 | 완료 | nn.Embedding ,torch.save ,torch.load |
tutorial |
06 | torchtext 분류 | 1023 | 완료 | torchtext ,Field ,nn.EmbeddingBag |
tutorial |
07 | torchtext 번역 | 1026 | 완료 | TabularDataset ,BucketIterator |
tutorial |
08 | seq2seq 모델링 | 1022 | 완료 | nn.TransformerEncoder |
tutorial |