16:00~18:00 Peer Session

창용: 로버타 라지 3에폭 이후 약간 오버피팅

상하: 전처리 안한게 성능이 좋았다. 특수문자 그대로 사용한게 성능이 더 좋았다.

기성: 엔티티에 한자가 전처리후에 사라져서 성능이 나쁜듯 하다.

klue/roberta로 모델 통일하는게 좋을것 같다.

klue/roberta-small 로 테스트를 하는게 좋겠다.


오늘의 정보 공유