1 |
021_KoNLPy corpus(말뭉치)를 NLTK 패키지로 분석해보기(2) [24:53]
|
|
2 |
022_KoNLPy corpus(말뭉치)를 NLTK 패키지로 분석해보기(3) [17:13]
|
|
3 |
023_KoNLPy 형태소 분석기별 품사 분류표 데이터프레임으로 변환 출력(1) [25:12]
|
|
4 |
024_KoNLPy 형태소 분석기별 품사 분류표 데이터프레임으로 변환 출력(2) [21:18]
|
|
5 |
025_KoNLPy 형태소 분석기별 품사 분류표 데이터프레임으로 변환 출력(3) [09:18]
|
|
6 |
026_단어주머니란 무엇인가 - Bag of words [25:54]
|
|
7 |
027_빈도 수 기반의 핵심어 추출 [20:13]
|
|
8 |
028_TF-IDF 어휘 빈도 문서 역빈도 [10:33]
|
|
9 |
029_자연어 처리를 위한 텍스트 수치화 작업 - BoW 구현하기(1) - 토큰화 처리 [19:39]
|
|
10 |
030_자연어 처리를 위한 텍스트 수치화 작업 - BoW 구현하기(2) - WordPunctTokenizer, TreebankWordTokenizer [13:42]
|
|
11 |
031_Bag of words 구현하기(3) - BoW 실습을 위한 텍스트 전처리 [12:33]
|
|
12 |
032_Bag of words 구현하기(4) - stopwords, punctuation 제거 [14:28]
|
|
13 |
033_사이킷런 BoW 구현1 [27:34]
|
|
14 |
034_사이킷런 BoW 구현2 - Count Vector 수치화 [19:42]
|
|
15 |
035_사이킷런 BoW 구현3 - 단어 사전화 처리된 vocabulary_(딕셔너리) 출력해보기 [09:43]
|
|
16 |
036_CountVectorizer 파라미터 옵션(1) - max_df, min_df [27:08]
|
|
17 |
037_CountVectorizer 파라미터 옵션(2) - max_features, stop_words [32:22]
|
|
18 |
038_CountVectorizer 파라미터 옵션(3) - ngram_range [24:21]
|
|
19 |
039_TfidfVectorizer 기반의 자연어 텍스트 수치화 작업(1) [27:03]
|
|
20 |
040_TfidfVectorizer 기반의 자연어 텍스트 수치화 작업(2) [19:18]
|
|