수강생 토론게시판
-
Attention 모델에서 전체 문장을 보지 않고 고정된 윈도우 사이즈를 정해서 하면 어떤가요?
Questions
Ben
- 추천
- 0
- 댓글
- 0
-
Self attention은 어떻게 최적화 되나요?
Questions
Ben
- 추천
- 0
- 댓글
- 0
-
문장 생성시 다양성은 어떻게 해결하나요?
Questions
Ben
- 추천
- 0
- 댓글
- 0
-
문장 생성 모델 훈련시, 토픽을 감안한 효율적인 훈련 방법은 있나요? 역으로 문장이 주어졌을 때, 해당 문장을 어떤 토픽으로 분류할 수 있나요?
Questions
Ben
- 추천
- 0
- 댓글
- 0
-
문장 길이가 길어질 수록 점수가 낮아질 것 같은데 어떻게 해결하나요? 일반적인 문장표현은 어떻게 찾을 수 있나요?
Questions
Ben
- 추천
- 0
- 댓글
- 0
-
재미있는 문장은 어떻게 해야 훈련해야 할까요?
Questions
Ben
- 추천
- 0
- 댓글
- 0
-
문장에 점수를 메긴다(scroing)는 무엇을 뜻하나요?
Questions
Ben
- 추천
- 0
- 댓글
- 0
-
"Tagging" 문제에서 self attention 을 활용하면 어떤가요?
Questions
Ben
- 추천
- 0
- 댓글
- 0
-
Self attention은 얼만큼 길이의 context 길이를 볼 수 있나요? 그렇다면 계산량 이슈는 어떻게 해결하나요?
Questions
Ben
- 추천
- 0
- 댓글
- 0
-
기계번역의 평가는 어떻게 하나요? 사람들이 RNN을 안쓰고 어떤 다른 방법으로 가고 있습니까? 훈련데이터를 필터링해서 크기를 줄일 수 있는 방법은 어떤 것이 있나요?
Questions
Ben
- 추천
- 0
- 댓글
- 0
-
Vocabulary 크기는 문제마다 다르게 설정해야하나요?
Questions
Ben
- 추천
- 0
- 댓글
- 1
-
어텐션 기반의 멀티모달 트랜스포머(Attention-based Multimodal Transformer)는 자연어 처리 기술을 관통하는 알고리즘???
Finishing the lecture
Ben
- 추천
- 0
- 댓글
- 0
-
2017년의 딥러닝 기반 자연어처리 기법의 최근 연구 동향 페이퍼 같은 최신 페이퍼는 없을까요?
Finishing the lecture
Ben
- 추천
- 0
- 댓글
- 0
-
NLP의 역사, [NLP] 자연어처리 딥러닝 모델 변천과정 (RNN, LSTM, Seq2Seq, Attention, Transformer), 자연어 처리 연구의 역사와 연구동향
Introduction
Ben
- 추천
- 0
- 댓글
- 0
-
구글 트랜스포머와 조경현 교수님의 연구
Introduction
Ben
- 추천
- 0
- 댓글
- 0
-
Validation과 Testing의 개념적 차이
Overview
Ben
- 추천
- 0
- 댓글
- 0
-
강의별 동영상 재생시간을 적어주시면 좋겠습니다.
Introduction
nicewook
- 추천
- 7
- 댓글
- 1