일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
- 사조사
- 절삭평균
- 통계학입문
- 확률밀도함수
- 첨가행렬
- 통계학개론
- 균일분포
- 행사다리꼴
- 모수
- 연속확률변수
- 베르누이분포
- 기본행연산
- pmf
- 이변량자료
- 피어슨상관계수
- 수학적확률
- 이산형
- 모평균
- 범주형자료
- 조건부확률
- 표본공간
- 이산확률질량함수
- jupyter notebook
- 누적분포함수
- 표본평균
- 포아송분포
- Anaconda
- 수치형자료
- 기댓값과 분산
- 이항분포
- Today
- Total
목록2024/09/30 (2)
summ의 블로그
자연어 처리의 모든 것 https://www.boostcourse.org/ai330/joinLectures/369533 자연어 처리의 모든 것부스트코스 무료 강의www.boostcourse.org w2v 희소 표현 vs 밀집 표현 희소 표현: one-hot encoding 으로 표현. 벡터나 행렬의 값이 0과 1로만 이루어짐 단어의 갯수가 크면 클수록 고차원의 벡터가 만들어지며, 해당 단어만 1이고 나머지는 다 0으로 처리됨→ '메모리 공간 부족' 이라는 문제점이 발생함 밀집 표현 : 단어의 갯수와 상관없이 차원을 사용자가 설정함. 백터나 행렬의 값이 실수로 이루어짐워드 임베딩이 밀집 표현에 해당함 이러한 밀집 벡터가 워드 임베딩을 통해 나온 결과로 embedding vector 라고 한다...
자연어처리의 모든 것 https://www.boostcourse.org/ai330/joinLectures/369533 자연어 처리의 모든 것부스트코스 무료 강의www.boostcourse.org 워드 임베딩 word embedding : 주어진 텍스트들을 숫자로 변환시키는 과정 기존의 자연어 처리는?단어 별 어순으로 나누고, 번역하는 등 언어적 지식을 활용한 rule-based 모델 transformer 2017년 ! 트랜스포머 transformer 모델: 언어학적 룰 기반이 아닌 번역된 영어&한글 번역 쌍을 학습 데이터로 사용하여 시퀀스 데이터를 처리하는 self-attention 구조를 사용한 딥러닝 기계번역 모델 → 번역 성과가 월등히 향상하는 결과self-attention self-at..