Comments (3)
Week1 SOTA모델
Reader
모델: KLUE/RoBERTA-Large
Learning_rate: 3e-5
Epoch: 3
Step: 2600 step
모델링크: https://huggingface.co/Nonegom/klue-roberta-large
retrieval
모델: TF_IDF / top_k_40
리더보드: EM: 60 / F1: 70.42
KLUE/RoBERTA-Large모델의 경우 이전 MRC Task 당시 좋은 성능을 보였던 모델이었기 때문에, 첫 주에 쉽게 접근해서 모델을 선정했다. 하이퍼 파라미터 값은 파라미터 튜닝(lr: 3e-5, 5e-5, 1e-5 / Epoch:1, 3, 5)을 통해 선정을 헀으며 가장 좋은 성능을 보였던 모델이었다.
해당 모델의 경우 기존 top_k_10에서 40으로 올렸을 때 성능향상 폭이 컸으며, top_k를 40정도로 줬을 때 성능이 좋다는 것을 알게 해준 모델이었다.
from level2-mrc-level2-nlp-09.
Week2 SOTA모델
Reader
모델: KLUE/RoBERTA-Large (1차 Finetune: KorQuAD / 2차 Finetune: Train_Dataset)
Learning_rate: 9e-6
Epoch: 3
Step: 2800 step
모델링크: https://huggingface.co/Nonegom/roberta_finetune_twice
retrieval
모델: TF_IDF / top_k_40
리더보드: EM: 64.58 / F1: 75.02
다른 팀원분(성진, 나연)께서 삼성 SDS에서 Korquad 모델의 성능을 높이기 위해서 총 2번의 Fine-tuning을 진행해서 성능을 올렸다는 내용을 보고 우리 Task에 적용시키면 좋겠다는 생각을 함. SDS와는 다르게 우리의 경우 1차를 KorQuAD데이터셋으로 2차를 현재 Train_dataset으로 해서 2번 Finetuning을 진행하고자 했다.
실험 결과 이전 SOTA모델과 비교했을 때, 동일한 파라미터 세팅값에서는 성능차이가 있어서 하이퍼파라미터 튜닝을 진행했고, learning_rate 1e-5(기존 3e-5)에서 더 좋은 eval 그래프를 보여서 제출했다. 이때, 이전 SOAT모델과 Retrieval도 동일하게 해서 비교했을 때, TF-IDF(top_k:40) EM: 61.6700 F1: 71.3000으로 더 성능향상이 있었다.
그래서 다른 팀원분께서 구현해주신 BM-25(okapi)로 retrieval를 변경해서 inference를 진행했고, EM: 64.58 / F1: 75.02을 달성할 수 있었다.
from level2-mrc-level2-nlp-09.
Issue
SOTA2모델을 재현하는 부분에서 재현이 안되는 문제가 생김. 알아보니 현재 SOTA2 모델의 경우 실수로 200 step에서 멈추고 다시 시작한 적이 있었다. 하지만 checkpoint에서부터 진행을 했을 때나 일반 모델을 돌렸을 때 둘 다 성능 차이가 없을 것이라고 생각했었는데 정작 모델을 돌려봤을 때 차이가 생기는 것을 확인할 수 있었다.
이에 대해서 원인을 찾기 위해 검색을 하고, 조교님께 여쭤봤는데도 뚜렷한 이유에 대해서 찾을 수 없었다. 단지 몇몇 사이트에서 해당 checkpoint파일을 load해서 학습할 시 문제가 생기는 경우가 있다고 얘기하고 있기는 했지만 충분한 답이 되지는 않았다. 현재는 팀원들과 얘기를 나누면서 DataLoader 쪽에서 데이터를 load하는 과정에서 차이가 발생해서 다른 부분이 생긴 것은 아니었을 지 추측하고 있다. 추후 이에 대한 원인에 대해서 새로운 가설이나 내용이 나온다면 추가적으로 적도록 하겠다.
from level2-mrc-level2-nlp-09.
Related Issues (20)
- 실험) 한국어 데이터셋 pretrained 모델 활용 HOT 1
- 구현) Korquad 데이터 활용 모델 Pretrain 학습 HOT 5
- 실험) n-gram TFIDF 성능 비교 HOT 3
- 실험) bm25+알고리즘 HOT 3
- 구현) Elasticsearch 적용 HOT 3
- 실험) Wiki Retrieval 데이터 수정 HOT 2
- 실험) Learning rate & Scheduler HOT 3
- 조사) ANNA (SQuAD_SOTA) 논문 조사 HOT 1
- 조사) Sentence BERT Ranking 분야 논문 조사 HOT 1
- 구현) SOTA의 예측과 진행한 실험의 예측 비교 HOT 1
- 조사) DPR 논문 조사 HOT 1
- 구현) Dense Passage Retrieval HOT 2
- 구현) inference 후처리 작업(조사처리) HOT 2
- 구현) 커리큘럼 러닝 HOT 1
- 실험) Elasticsearch 설정값 변경 HOT 4
- 구현) Ensemble HOT 1
- 실험) Ensemble HOT 1
- 구현) Sentence BERT 구조의 임베딩 생성 코드구현 및 실험 HOT 3
- 구현) KorQuad 데이터 MLM Pretrain 학습 HOT 2
Recommend Projects
-
React
A declarative, efficient, and flexible JavaScript library for building user interfaces.
-
Vue.js
🖖 Vue.js is a progressive, incrementally-adoptable JavaScript framework for building UI on the web.
-
Typescript
TypeScript is a superset of JavaScript that compiles to clean JavaScript output.
-
TensorFlow
An Open Source Machine Learning Framework for Everyone
-
Django
The Web framework for perfectionists with deadlines.
-
Laravel
A PHP framework for web artisans
-
D3
Bring data to life with SVG, Canvas and HTML. 📊📈🎉
-
Recommend Topics
-
javascript
JavaScript (JS) is a lightweight interpreted programming language with first-class functions.
-
web
Some thing interesting about web. New door for the world.
-
server
A server is a program made to process requests and deliver data to clients.
-
Machine learning
Machine learning is a way of modeling and interpreting data that allows a piece of software to respond intelligently.
-
Visualization
Some thing interesting about visualization, use data art
-
Game
Some thing interesting about game, make everyone happy.
Recommend Org
-
Facebook
We are working to build community through open source technology. NB: members must have two-factor auth.
-
Microsoft
Open source projects and samples from Microsoft.
-
Google
Google ❤️ Open Source for everyone.
-
Alibaba
Alibaba Open Source for everyone
-
D3
Data-Driven Documents codes.
-
Tencent
China tencent open source team.
from level2-mrc-level2-nlp-09.