파이썬 텍스트 마이닝 완벽 가이드 > 프로그래밍/언어

본문 바로가기
쇼핑몰 검색
  • 회원가입
    2000

    로그인

    다양한 서비스와 이벤트 혜택을 누리실 수 있습니다.

    아이디 비밀번호
파이썬 텍스트 마이닝 완벽 가이드 > 프로그래밍/언어

파이썬 텍스트 마이닝 완벽 가이드 요약정보 및 구매

기본설명

상품 선택옵션 0 개, 추가옵션 0 개

제조사 위키북스
원산지 국내산
브랜드 위키북스
시중가격 30,000원
판매가격 30,000원
배송비결제 주문시 결제
최소구매수량 1 개
최대구매수량 999 개

선택된 옵션

  • 파이썬 텍스트 마이닝 완벽 가이드
    +0원
위시리스트

관련상품

등록된 상품이 없습니다.

  • 상품정보
  • 사용후기 0
  • 상품문의 0
  • 배송정보
  • 교환정보
  • 상품정보

    상품 기본설명

    기본설명

    상품 상세설명

    파이썬 텍스트 마이닝 완벽 가이드

    9791158394226.jpg

    도서명:파이썬 텍스트 마이닝 완벽 가이드
    저자/출판사:박상언 , 강주영/위키북스
    쪽수:424쪽
    출판일:2023-02-28
    ISBN:9791158394226

    목차
    [1부] 텍스트 마이닝 기초

    ▣ 01장: 텍스트 마이닝 기초
    1.1 텍스트 마이닝의 정의
    1.2 텍스트 마이닝 패러다임의 변화
    ___1.2.1 카운트 기반의 문서 표현
    ___1.2.2 시퀀스 기반의 문서 표현
    1.3 텍스트 마이닝에 필요한 지식과 도구
    ___1.3.1 자연어 처리 기법
    ___1.3.2 통계학과 선형대수
    ___1.3.3 시각화 기법
    ___1.3.4 머신러닝
    ___1.3.5 딥러닝
    1.4 텍스트 마이닝의 주요 적용분야
    ___1.4.1 문서 분류
    ___1.4.2 문서 생성
    ___1.4.3 문서 요약
    ___1.4.4 질의응답
    ___1.4.5 기계번역
    ___1.4.6 토픽 모델링
    1.5 이 책의 실습 환경과 사용 소프트웨어
    ___1.5.1 기본 실습 환경
    ___1.5.2 자연어 처리 관련 라이브러리
    ___1.5.3 머신러닝 관련 라이브러리
    ___1.5.4 딥러닝 관련 라이브러리

    ▣ 02장: 텍스트 전처리
    2.1 텍스트 전처리의 개념
    ___2.1.1 왜 전처리가 필요한가?
    ___2.1.2 전처리의 단계
    ___2.1.3 실습 구성
    2.2 토큰화
    ___2.2.1 문장 토큰화
    ___2.2.2 단어 토큰화
    ___2.2.3 정규표현식을 이용한 토큰화
    ___2.2.4 노이즈와 불용어 제거
    2.3 정규화
    ___2.3.1 어간 추출
    ___2.3.2 표제어 추출
    2.4 품사 태깅
    ___2.4.1 품사의 이해
    ___2.4.2 NLTK를 활용한 품사 태깅
    ___2.4.3 한글 형태소 분석과 품사 태깅
    ___2.4.4 참고자료

    ▣ 03장: 그래프와 워드 클라우드
    3.1 단어 빈도 그래프 - 많이 쓰인 단어는?
    3.2 워드 클라우드로 내용을 한눈에 보기
    3.3 한국어 문서에 대한 그래프와 워드 클라우드

    [2부] BOW 기반의 텍스트 마이닝

    ▣ 04장: 카운트 기반의 문서 표현
    4.1 카운트 기반 문서 표현의 개념
    4.2 BOW 기반의 카운트 벡터 생성
    4.3 사이킷런으로 카운트 벡터 생성
    4.4 한국어 텍스트의 카운트 벡터 변환
    ___4.4.1 데이터 다운로드
    4.5 카운트 벡터의 활용
    4.6 TF-IDF로 성능을 높여보자

    ▣ 05장: BOW 기반의 문서 분류
    5.1 20 뉴스그룹 데이터 준비 및 특성 추출
    ___5.1.1 데이터셋 확인 및 분리
    ___5.1.2 카운트 기반 특성 추출
    5.2 머신러닝과 문서 분류 과정에 대한 이해
    5.3 나이브 베이즈 분류기를 이용한 문서 분류
    5.4 로지스틱 회귀분석을 이용한 문서 분류
    ___5.4.1 릿지 회귀를 이용한 과적합 방지
    ___5.4.2 라쏘 회귀를 이용한 특성 선택
    5.5 결정트리 등을 이용한 기타 문서 분류 방법
    5.6 성능을 높이는 방법
    5.7 카운트 기반의 문제점과 N-gram을 이용한 보완
    ___5.7.1 통계로는 알 수 없는 문맥 정보
    ___5.7.2 N-gram의 이해
    ___5.7.3 N-gram을 이용한 문서 분류
    5.8 한국어 문서의 분류
    ___5.8.1 다음 영화 리뷰에 대한 영화 제목 예측
    ___5.8.2 성능을 개선하기 위한 노력

    ▣ 06장: 차원 축소
    6.1 차원의 저주와 차원 축소의 이유
    6.2 PCA를 이용한 차원 축소
    6.3 LSA를 이용한 차원 축소와 의미 파악
    ___6.3.1 LSA를 이용한 차원 축소와 성능
    ___6.3.2 LSA를 이용한 의미 기반의 문서 간 유사도 계산
    ___6.3.3 잠재된 토픽의 분석
    ___6.3.4 단어 간 의미 유사도 분석
    6.4 tSNE를 이용한 시각화와 차원축소의 효과

    ▣ 07장: 토픽 모델링으로 주제 찾기
    7.1 토픽 모델링과 LDA의 이해
    ___7.1.1 토픽 모델링이란?
    ___7.1.2 LDA 모형의 구조
    ___7.1.3 모형의 평가와 적절한 토픽 수의 결정
    7.2 사이킷런을 이용한 토픽 모델링
    ___7.2.1 데이터 준비
    ___7.2.2 LDA 토픽 모델링 실행
    ___7.2.3 최적의 토픽 수 선택하기
    7.3 Gensim을 이용한 토픽 모델링
    ___7.3.1 Gensim 사용법과 시각화
    ___7.3.2 혼란도와 토픽 응집도를 이용한 최적값 선택
    7.4 토픽 트렌드로 시간에 따른 주제의 변화 알아내기
    7.5 동적 토픽 모델링

    ▣ 08장: 감성 분석
    8.1 감성분석의 이해
    ___8.1.1 어휘 기반의 감성 분석
    ___8.1.2 머신러닝 기반의 감성 분석
    8.2 감성 사전을 이용한 영화 리뷰 감성 분석
    ___8.2.1 NLTK 영화 리뷰 데이터 준비
    ___8.2.2 TextBlob을 이용한 감성 분석
    ___8.2.3 AFINN을 이용한 감성 분석
    ___8.2.4 VADER를 이용한 감성 분석
    8.3 학습을 통한 머신러닝 기반의 감성 분석
    ___8.3.1 NLTK 영화 리뷰에 대한 머신러닝 기반 감성 분석
    ___8.3.2 다음 영화 리뷰에 대한 머신러닝 기반 감성 분석
    8.4 참고문헌

    ▣ 09장: 인공신경망과 딥러닝의 이해
    9.1 인공신경망의 이해
    ___9.1.1 인공신경망의 구조와 구성요소
    ___9.1.2 인공신경망에서의 학습
    ___9.1.3 손실 함수의 이해
    ___9.1.4 경사하강법
    9.2 딥러닝의 이해
    ___9.2.1 딥러닝이란?
    ___9.2.2 층이 깊은 신경망의 문제점
    ___9.2.3 딥러닝에서의 해결방안
    ___9.2.4 다양한 딥러닝 알고리즘
    ___9.2.5 딥러닝 개발 및 활용환경

    [3부] 텍스트 마이닝을 위한 딥러닝 기법

    ▣ 10장: RNN - 딥러닝을 이용한 문서 분류
    10.1 왜 RNN일까?
    ___10.1.1 RNN의 이해
    ___10.1.2 RNN이 문서 분류에 적합한 이유
    ___10.1.3 RNN의 문서 분류 적용방안
    10.2 워드 임베딩의 이해
    ___10.2.1 워드 임베딩이란?
    ___10.2.2 BOW와 문서 임베딩
    ___10.2.3 워드 임베딩과 딥러닝
    10.3 RNN을 이용한 문서 분류 - NLTK 영화 리뷰 감성분석
    ___10.3.1 워드 임베딩을 위한 데이터 준비
    ___10.3.2 RNN이 아닌 일반적인 신경망 모형을 이용한 분류
    ___10.3.3 문서의 순서정보를 활용하는 RNN 기반 문서분류
    10.4 LSTM, Bi-LSTM과 GRU를 이용한 성능 개선

    ▣ 11장: Word2Vec, ELMo, Doc2Vec의 이해
    11.1 Word2Vec - 대표적인 워드 임베딩 기법
    ___11.1.1 Word2Vec 학습의 원리
    ___11.1.2 Word2Vec 활용 - 학습된 모형 가져오기
    ___11.1.3 FastText - 워드 임베딩에 N-gram 적용
    11.2 ELMo - 문맥에 따른 단어 의미의 구분
    ___11.2.1 Word2Vec의 문제점
    ___11.2.2 ELMo의 구조
    11.3 Doc2Vec - 문맥을 고려한 문서 임베딩

    ▣ 12장: CNN - 이미지 분류를 응용한 문서 분류
    12.1 CNN의 등장과 작동 원리
    12.2 CNN을 이용한 문서 분류
    __12.2.1 CNN을 이용한 문서 분류의 원리
    __12.2.2 CNN을 이용한 NLTK 영화 리뷰 분류

    ▣ 13장: 어텐션(Attention)과 트랜스포머
    13.1 Seq2seq: 번역에서 시작한 딥러닝 기법
    13.2 어텐션을 이용한 성능의 향상
    13.3 셀프 어텐션(Self-attention)과 트랜스포머
    ___13.3.1 셀프 어텐션의 이해
    ___13.3.2 트랜스포머의 구조
    ___13.3.3 인코더의 셀프 어텐션 원리
    ___13.3.4 디코더의 작동 원리

    ▣ 14장: BERT의 이해와 간단한 활용
    14.1 왜 언어 모델이 중요한가?
    14.2 사전학습 언어모델의 이론적 이해
    14.3 BERT의 구조
    14.4 언어모델을 이용한 사전학습과 미세조정학습
    14.5 사전학습된 BERT 모형의 직접 사용방법
    14.6 자동 클래스를 이용한 토크나이저와 모형의 사용

    ▣ 15장: BERT 사전학습 모형에 대한 미세조정학습
    15.1 BERT 학습을 위한 전처리
    15.2 트랜스포머의 트레이너를 이용한 미세조정학습
    15.3 파이토치를 이용한 미세조정학습

    ▣ 16장: 한국어 문서에 대한 BERT 활용
    16.1 다중 언어 BERT 사전학습 모형의 미세조정학습
    16.2 KoBERT 사전학습 모형에 대한 파이토치 미세조정학습

    ▣ 17장: 트랜스포머 변형 모형의 현황
    17.1 트랜스포머 변형 모형의 다양한 토크나이저
    __17.1.1 BPE(Byte-Pair Encoding) 토크나이저
    __17.1.2 워드피스(WordPiece) 토크나이저
    __17.1.3 센텐스피스(SentencePiece) 유니그램 토크나이저
    __17.2 GPT 기반 트랜스포머 변형 모형
    __17.2.1 GPT-2
    __17.2.2 GPT-3
    __17.2.3 ChatGPT
    17.3 BERT 기반 트랜스포머 변형 모형
    __17.3.1 RoBERTa(Robustly Optimized BERT Pretraining Approach)
    __17.3.2 ALBERT(A Lite BERT)
    __17.3.3 ELECTRA(Efficiently Learning an Encoder that Classifies Token Replacements Accurately)
    17.4 인코더와 디코더를 모두 사용하는 트랜스포머 변형 모형
    __17.4.1 BART (Bidirectional and Auto-Regressive Transformers)
    __17.4.2 T5 (Text-to-Text Transfer Transformer)
    17.5 국내 트랜스포머 변형 모형 현황

    ▣ 18장: 트랜스포머 모형을 이용한 문서 요약
    18.1 문서 요약의 이해
    __18.1.1 문서 요약 성능 지표: ROUGE
    __18.1.2 문서 요약 데이터셋과 트랜스포머 변형 모형
    18.2 파이프라인을 이용한 문서 요약
    18.3 T5 모형과 자동 클래스를 이용한 문서 요약
    18.4 T5 모형과 트레이너를 이용한 미세조정학습
    18.5 한글 문서 요약

    ▣ 19장: 트랜스포머 모형을 이용한 질의 응답
    19.1 질의 응답 시스템의 이해
    19.2 파이프라인을 이용한 질의 응답
    19.3 자동 클래스를 이용한 질의 응답
    19.4 트레이너를 이용한 질의 응답 미세조정학습
    19.5 한글 질의 응답
    delivery.jpg
  • 사용후기

    등록된 사용후기

    사용후기가 없습니다.

  • 상품문의

    등록된 상품문의

    상품문의가 없습니다.

  • 배송정보

    배송정보

    배송업체 : 한진택배 (1588-0011)
     배송비
     2,500원 (25,000원 이상 구매 시 무료 배송/일부상품제외) 군부대 및 도서산간 지역은 추가 배송비가 발생할 수 있습니다.
     ◆배송기간
     : 평일 오전 7시 이전 주문 시 당일 발송 (2~3일 소요) : 단, 공휴일, 연휴, 천재지변 등으로 인해 발송이 지연될 수 있습니다.
     ◆배송추적
     : 당일 발송건에 한해 익일 오전 9시 이후 확인 가능합니다.


  • 교환정보

    교환/반품

     ◆반품/교환을 원하는 경우 반드시 고객센터로 연락 후 신청하시기 바랍니다.
     ◆반품/교환은 상품 수령일로 부터 7일 이내에만 가능합니다. 단, 상품이 훼손되지 않았거나, 속 비닐이 있는 경우 듣지 않았을    때 가능합니다.
     •고객님의 변심 또는 잘못 주문하신 경우에는 왕복 배송비는 고객님의 부담입니다.
     ◆오배송, 파본, 불량 상품에 대해서는 고객센터로 연락주시면 상담 후 교환해 드립니다.
     ◆오배송, 파본, 불량상품의 배송비는 환불처에서 부담합니다.
     교환/반품
     ◆환불은 상품이 환불에 도착 시 처리됩니다. (카드 취소는 3~5일이 소요될 수 있습니다.)

장바구니

오늘본상품

오늘 본 상품

  • 파이썬 텍스트 마이닝 완벽 가이드
    파이썬 텍스트 마이 30,000
  • 리더라면 손자병법
    리더라면 손자병법 21,000
  • 지텔프의 정석 32-50+ Level 2
    지텔프의 정석 32 19,800
  • 여기까지 한 시절이라 부르자
    여기까지 한 시절이 14,000
  • 퍼펙트 프리젠테이션 3
    퍼펙트 프리젠테이션 38,000
  • 100가지 사례로 이해하는 글로벌 경영 CASE 100
    100가지 사례로 28,000
  • 무역관계법
    무역관계법 22,000
  • 성경 속 믿음의 영웅들 만들기
    성경 속 믿음의 영 5,000
  • 조직행동이론
    조직행동이론 33,000
  • 2024 부동산 계약서 중개실무 한방에 끝내기
    2024 부동산 계 29,000
  • 리크루터의 채용 실무 가이드
    리크루터의 채용 실 18,000
  • 위구르 제노사이드
    위구르 제노사이드 30,000
  • 초필사력
    초필사력 19,500
  • 살아남은 세 개의 숲 이야기
    살아남은 세 개의 14,000
  • 문재인 흑서
    문재인 흑서 17,000
  • Do it! 프런트엔드 UI 개발 with Vue.js
    Do it! 프런트 25,000
  • 2023 남정선 이종하의 세법ㆍ회계 전공강화 동형모의고사
    2023 남정선 이 17,000
  • 2024 해커스 주택관리사 2차 기출문제집: 주택관리관계법규·공동주택관리실무
    2024 해커스 주 31,000
  • 디즈니 픽사 인사이드 아웃 2 증명사진 세트(6매)
    디즈니 픽사 인사이 6,000
  • 하이 퍼포머 프로파일
    하이 퍼포머 프로파 15,900
  • 백 마디 말보다 강력한 행동의 심리학
    백 마디 말보다 강 17,000
  • 재건축 재개발의 모든 것
    재건축 재개발의 모 18,000
  • 지피지기 백전백승 수능봉투모의고사 수학영역(확률과 통계) 3회분(2023)(2024 수능대비)(봉투)
    지피지기 백전백승 11,000
  • 리더를 만드는 말, 어서 와! 고마워!
    리더를 만드는 말, 19,000
  • 테마 민사소송법 핵심암기장
    테마 민사소송법 핵 28,000
  • 관계력
    관계력 17,000
  • 당뇨와 고혈압 잡는 저탄수 균형식 다이어트
    당뇨와 고혈압 잡는 21,000
  • 유정아의 서울대 말하기 강의
    유정아의 서울대 말 18,000
  • 토픽 쓰기 한 달 완성
    토픽 쓰기 한 달 23,000
  • 팀이 일하게 하라
    팀이 일하게 하라 19,000
  • 사소한 일
    사소한 일 15,000
  • 9988 건강습관
    9988 건강습관 16,800
  • 재료역학
    재료역학 33,000
  • 나 혼자 한다 프리미어 프로 & 애프터이펙트
    나 혼자 한다 프리 28,000
  • 작은브랜드는 행동경제학이 답이다
    작은브랜드는 행동경 19,500
  • 2024 해커스경찰 노신 범죄학 단원별 기출+실전문제집
    2024 해커스경찰 39,000
  • 말문이 막힐 때 나를 구하는 한마디
    말문이 막힐 때 나 18,800
  • 이길 수밖에 없는 무인카페 데이롱
    이길 수밖에 없는 19,000
  • 당신은 왜 회사에 가기 싫은가
    당신은 왜 회사에 18,000
  • 세상에서 가장 빛나는 별
    세상에서 가장 빛나 15,000
  • 자폐스펙트럼장애의 이해
    자폐스펙트럼장애의 27,000
  • 보완 대체 의사 소통
    보완 대체 의사 소 28,000
  • 어른을 위한 좋은 행동 습관
    어른을 위한 좋은 19,800

위시리스트

  • 보관 내역이 없습니다.
회사명 경기책방 주소 경기도 파주시 조리읍 장미꽃길 157-161
사업자 등록번호 6829601269 대표 오주봉 전화 02-356-5779 팩스 02-356-5779
통신판매업신고번호 제2021-경기파주-1335호 개인정보 보호책임자 오주봉

Copyright © 2001-2013 경기책방. All Rights Reserved.