간편결제, 신용카드 청구할인
인터파크 롯데카드 5% (23,940원)
(최대할인 10만원 / 전월실적 40만원)
북피니언 롯데카드 30% (17,640원)
(최대할인 3만원 / 3만원 이상 결제)
NH쇼핑&인터파크카드 20% (20,160원)
(최대할인 4만원 / 2만원 이상 결제)
Close

파이썬 텍스트 마이닝 완벽 가이드 : 자연어 처리 기초부터 딥러닝 기반 BERT 모델까지

소득공제

2013년 9월 9일 이후 누적수치입니다.

판매지수 291
?
판매지수란?
사이트의 판매량에 기반하여 판매량 추이를 반영한 인터파크 도서에서의 독립적인 판매 지수입니다. 현재 가장 잘 팔리는 상품에 가중치를 두었기 때문에 실제 누적 판매량과는 다소 차이가 있을 수 있습니다. 판매량 외에도 다양한 가중치로 구성되어 최근의 이슈도서 확인시 유용할 수 있습니다. 해당 지수는 매일 갱신됩니다.
Close
공유하기
정가

28,000원

  • 25,200 (10%할인)

    1,400P (5%적립)

할인혜택
적립혜택
  • I-Point 적립은 마이페이지에서 직접 구매확정하신 경우만 적립 됩니다.
추가혜택
배송정보
  • 12/3(토) 이내 발송 예정  (서울시 강남구 삼성로 512)
  • 무료배송
주문수량
감소 증가
  • 이벤트/기획전

  • 연관도서(51)

  • 상품권

AD

책소개

텍스트 마이닝에는 자연어 처리, 통계, 딥러닝 기법에 대해 많은 지식이 필요하지만, 이론적인 내용에 얽매이다 보면 정작 구현은 너무 먼 이야기가 되어 버리기 쉽다.

이 책에서는 실무에 바로 적용할 수 있는 실전적인 예제를 중심으로 텍스트 마이닝을 설명한다. 특히 초보자를 위해 텍스트 전처리 과정의 개념과 다양하고 상세한 활용방법을 기초부터 설명한다. 문서 분류와 감성 분석 같은 텍스트 마이닝 작업을 대상으로 다양한 머신러닝 기법을 사용하는 예를 보여주며, 차원을 축소하고 결과를 시각화하는 방법, 토픽 모델링을 수행하고 토픽 트렌드를 구해서 시각화하는 방법을 설명한다.

기본적인 딥러닝 기법을 이용한 문서 분류 외에, 최근 많이 사용되는 BERT를 이용한 미세조정학습까지 포함한다. 또한 한국어 문서 분석에 자신을 갖도록 대부분의 장에 관련 예제를 충분히 다뤘다.

★ 이 책에서 다루는 내용 ★

◎ 토큰화, 어간 추출, 표제어 추출, 불용어 처리, 품사 태깅과 같은 텍스트 전처리 기법
◎ 단어 빈도 그래프, 워드 클라우드 그리기
◎ 카운트 벡터, TF-IDF 벡터로 문서를 변환하고, 문서 간 유사도 구하기
◎ 다양한 머신러닝/딥러닝 기법으로 문서 분류와 감성 분석 수행
◎ KoNLPy를 이용해 한국어 문서를 변환하고 다양한 머신러닝 알고리즘으로 분석
◎ 문서 벡터의 차원 축소, LDA 토픽 모델링, 토픽 트렌드를 구하고 시각화
◎ Word2Vec, ELMo와 같은 워드 임베딩 기법과 Doc2Vec의 이해
◎ BERT의 이해와 활용, 파이토치를 이용한 미세조정 학습의 실습, 한국어 문서에 대한 BERT 사용법 실습

목차

[1부] 텍스트 마이닝 기초

▣ 01장: 텍스트 마이닝 기초
1.1 텍스트 마이닝의 정의
1.2 텍스트 마이닝 패러다임의 변화
___1.2.1 카운트 기반의 문서 표현
___1.2.2 시퀀스 기반의 문서 표현
1.3 텍스트 마이닝에 필요한 지식과 도구
___1.3.1 자연어 처리 기법
___1.3.2 통계학과 선형대수
___1.3.3 시각화 기법
___1.3.4 머신러닝
___1.3.5 딥러닝
1.4 텍스트 마이닝의 주요 적용분야
___1.4.1 문서 분류
___1.4.2 문서 생성
___1.4.3 문서 요약
___1.4.4 질의응답
___1.4.5 기계번역
___1.4.6 토픽 모델링
1.5 이 책의 실습 환경과 사용 소프트웨어
___1.5.1 기본 실습 환경
___1.5.2 자연어 처리 관련 라이브러리
___1.5.3 머신러닝 관련 라이브러리
___1.5.4 딥러닝 관련 라이브러리

▣ 02장: 텍스트 전처리
2.1 텍스트 전처리의 개념
___2.1.1 왜 전처리가 필요한가?
___2.1.2 전처리의 단계
___2.1.3 실습 구성
2.2 토큰화
___2.2.1 문장 토큰화
___2.2.2 단어 토큰화
___2.2.3 정규표현식을 이용한 토큰화
___2.2.4 노이즈와 불용어 제거
2.3 정규화
___2.3.1 어간 추출
___2.3.2 표제어 추출
2.4 품사 태깅
___2.4.1 품사의 이해
___2.4.2 NLTK를 활용한 품사 태깅
___2.4.3 한글 형태소 분석과 품사 태깅
___2.4.4 참고자료

▣ 03장: 그래프와 워드 클라우드
3.1 단어 빈도 그래프 - 많이 쓰인 단어는?
3.2 워드 클라우드로 내용을 한눈에 보기
3.3 한국어 문서에 대한 그래프와 워드 클라우드

[2부] BOW 기반의 텍스트 마이닝

▣ 04장: 카운트 기반의 문서 표현
4.1 카운트 기반 문서 표현의 개념
4.2 BOW 기반의 카운트 벡터 생성
4.3 사이킷런으로 카운트 벡터 생성
4.4 한국어 텍스트의 카운트 벡터 변환
___4.4.1 데이터 다운로드
4.5 카운트 벡터의 활용
4.6 TF-IDF로 성능을 높여보자

▣ 05장: BOW 기반의 문서 분류
5.1 20 뉴스그룹 데이터 준비 및 특성 추출
___5.1.1 데이터셋 확인 및 분리
___5.1.2 카운트 기반 특성 추출
5.2 머신러닝과 문서 분류 과정에 대한 이해
5.3 나이브 베이즈 분류기를 이용한 문서 분류
5.4 로지스틱 회귀분석을 이용한 문서 분류
___5.4.1 릿지 회귀를 이용한 과적합 방지
___5.4.2 라쏘 회귀를 이용한 특성 선택
5.5 결정트리 등을 이용한 기타 문서 분류 방법
5.6 성능을 높이는 방법
5.7 카운트 기반의 문제점과 N-gram을 이용한 보완
___5.7.1 통계로는 알 수 없는 문맥 정보
___5.7.2 N-gram의 이해
___5.7.3 N-gram을 이용한 문서 분류
5.8 한국어 문서의 분류
___5.8.1 다음 영화 리뷰에 대한 영화 제목 예측
___5.8.2 성능을 개선하기 위한 노력

▣ 06장: 차원 축소
6.1 차원의 저주와 차원 축소의 이유
6.2 PCA를 이용한 차원 축소
6.3 LSA를 이용한 차원 축소와 의미 파악
___6.3.1 LSA를 이용한 차원 축소와 성능
___6.3.2 LSA를 이용한 의미 기반의 문서 간 유사도 계산
___6.3.3 잠재된 토픽의 분석
___6.3.4 단어 간 의미 유사도 분석
6.4 tSNE를 이용한 시각화와 차원축소의 효과

▣ 07장: 토픽 모델링으로 주제 찾기
7.1 토픽 모델링과 LDA의 이해
___7.1.1 토픽 모델링이란?
___7.1.2 LDA 모형의 구조
___7.1.3 모형의 평가와 적절한 토픽 수의 결정
7.2 사이킷런을 이용한 토픽 모델링
___7.2.1 데이터 준비
___7.2.2 LDA 토픽 모델링 실행
___7.2.3 최적의 토픽 수 선택하기
7.3 Gensim을 이용한 토픽 모델링
___7.3.1 Gensim 사용법과 시각화
___7.3.2 혼란도와 토픽 응집도를 이용한 최적값 선택
7.4 토픽 트렌드로 시간에 따른 주제의 변화 알아내기

▣ 08장: 감성 분석
8.1 감성분석의 이해
___8.1.1 어휘 기반의 감성 분석
___8.1.2 머신러닝 기반의 감성 분석
8.2 감성 사전을 이용한 영화 리뷰 감성 분석
___8.2.1 NLTK 영화 리뷰 데이터 준비
___8.2.2 TextBlob을 이용한 감성 분석
___8.2.3 AFINN을 이용한 감성 분석
___8.2.4 VADER를 이용한 감성 분석
___8.2.5 한글 감성사전
8.3 학습을 통한 머신러닝 기반의 감성 분석
___8.3.1 NLTK 영화 리뷰에 대한 머신러닝 기반 감성 분석
___8.3.2 다음 영화 리뷰에 대한 머신러닝 기반 감성 분석
8.4 참고문헌

▣ 09장: 인공신경망과 딥러닝의 이해
9.1 인공신경망의 이해
___9.1.1 인공신경망의 구조와 구성요소
___9.1.2 인공신경망에서의 학습
___9.1.3 손실 함수의 이해
___9.1.4 경사하강법
9.2 딥러닝의 이해
___9.2.1 딥러닝이란?
___9.2.2 층이 깊은 신경망의 문제점
___9.2.3 딥러닝에서의 해결방안
___9.2.4 다양한 딥러닝 알고리즘
___9.2.5 딥러닝 개발 및 활용환경

[3부] 텍스트 마이닝을 위한 딥러닝 기법

▣ 10장: RNN - 딥러닝을 이용한 문서 분류
10.1 왜 RNN일까?
___10.1.1 RNN의 이해
___10.1.2 RNN이 문서 분류에 적합한 이유
___10.1.3 RNN의 문서 분류 적용방안
10.2 워드 임베딩의 이해
___10.2.1 워드 임베딩이란?
___10.2.2 BOW와 문서 임베딩
___10.2.3 워드 임베딩과 딥러닝
10.3 RNN을 이용한 문서 분류 - NLTK 영화 리뷰 감성분석
___10.3.1 워드 임베딩을 위한 데이터 준비
___10.3.2 RNN이 아닌 일반적인 신경망 모형을 이용한 분류
___10.3.3 문서의 순서정보를 활용하는 RNN 기반 문서분류
10.4 LSTM, Bi-LSTM과 GRU를 이용한 성능 개선

▣ 11장: Word2Vec, ELMo, Doc2Vec의 이해
11.1 Word2Vec - 대표적인 워드 임베딩 기법
___11.1.1 Word2Vec 학습의 원리
___11.1.2 Word2Vec 활용 - 학습된 모형 가져오기
___11.1.3 FastText - 워드 임베딩에 N-gram 적용
11.2 ELMo - 문맥에 따른 단어 의미의 구분
___11.2.1 Word2Vec의 문제점
___11.2.2 ELMo의 구조
11.3 Doc2Vec - 문맥을 고려한 문서 임베딩

▣ 12장: CNN - 이미지 분류를 응용한 문서 분류
12.1 CNN의 등장과 작동 원리
12.2 CNN을 이용한 문서 분류
12.2.1 CNN을 이용한 문서 분류의 원리
12.2.2 CNN을 이용한 NLTK 영화 리뷰 분류

▣ 13장: 어텐션(Attention)과 트랜스포머
13.1 Seq2seq: 번역에서 시작한 딥러닝 기법
13.2 어텐션을 이용한 성능의 향상
13.3 셀프 어텐션(Self-attention)과 트랜스포머
___13.3.1 셀프 어텐션의 이해
___13.3.2 트랜스포머의 구조
___13.3.3 인코더의 셀프 어텐션 원리
___13.3.4 디코더의 작동 원리

▣ 14장: BERT의 이해와 간단한 활용
14.1 왜 언어 모델이 중요한가?
14.2 BERT의 구조
14.3 언어모델을 이용한 사전학습과 미세조정학습
14.4 사전학습된 BERT 모형의 직접 사용방법
14.5 자동 클래스를 이용한 토크나이저와 모형의 사용

▣ 15장: BERT 사전학습 모형에 대한 미세조정학습
15.1 BERT 학습을 위한 전처리
15.2 트랜스포머의 트레이너를 이용한 미세조정학습
15.3 파이토치를 이용한 미세조정학습

▣ 16장: 한국어 문서에 대한 BERT 활용
16.1 다중 언어 BERT 사전학습 모형의 미세조정학습
16.2 KoBERT 사전학습 모형에 대한 파이토치 미세조정학습

관련이미지

저자소개

박상언 [저] 신작알림 SMS신청
생년월일 -

2007년 3월부터 경기대학교 경영정보전공 교수로 재직하고 있으며, 주요 관심분야는 텍스트마이닝, 머신러닝, 딥러닝 등이다. KAIST에서 전산학 학사, 경영공학 석사와 박사학위를 취득했다.

강주영 [저] 신작알림 SMS신청
생년월일 -

아주대학교 경영대학 e-비즈니스학과 교수이다. 출간한 대표작으로는 [웹툰. 1]이 있다.

정석찬 [저] 신작알림 SMS신청
생년월일 -

부산대학교 기계설계학과 학사, 일본 오사카부립대학 경영공학과 공학석사, 공학박사, 한국전자통신연구원 선임연구원, 현재: 동의대학교 e비즈니스학과 교수, 관심분야: e비즈니스시스템, 정보시스템, 유비쿼터스, 클라우드컴퓨팅, 정보기술수용, 정보화전략계획(ISP), 웹 접근성

이 상품의 시리즈

(총 58권 / 현재구매 가능도서 52권)

선택한 상품 북카트담기
펼쳐보기

전공도서/대학교재 분야에서 많은 회원이 구매한 책

    리뷰

    0.0 (총 0건)

    100자평

    작성시 유의사항

    평점
    0/100자
    등록하기

    100자평

    10.0
    (총 0건)

    판매자정보

    • 인터파크도서에 등록된 오픈마켓 상품은 그 내용과 책임이 모두 판매자에게 있으며, 인터파크도서는 해당 상품과 내용에 대해 책임지지 않습니다.

    상호

    (주)교보문고

    대표자명

    안병현

    사업자등록번호

    102-81-11670

    연락처

    1544-1900

    전자우편주소

    callcenter@kyobobook.co.kr

    통신판매업신고번호

    01-0653

    영업소재지

    서울특별시 종로구 종로 1(종로1가,교보빌딩)

    교환/환불

    반품/교환 방법

    ‘마이페이지 > 취소/반품/교환/환불’ 에서 신청 또는 1:1 문의 게시판 및 고객센터(1577-2555)에서 신청 가능

    반품/교환가능 기간

    변심 반품의 경우 출고완료 후 6일(영업일 기준) 이내까지만 가능
    단, 상품의 결함 및 계약내용과 다를 경우 문제점 발견 후 30일 이내

    반품/교환 비용

    변심 혹은 구매착오로 인한 반품/교환은 반송료 고객 부담
    상품이나 서비스 자체의 하자로 인한 교환/반품은 반송료 판매자 부담

    반품/교환 불가 사유

    ·소비자의 책임 있는 사유로 상품 등이 손실 또는 훼손된 경우
    (단지 확인을 위한 포장 훼손은 제외)

    ·소비자의 사용, 포장 개봉에 의해 상품 등의 가치가 현저히 감소한 경우
    예) 화장품, 식품, 가전제품(악세서리 포함) 등

    ·복제가 가능한 상품 등의 포장을 훼손한 경우
    예) 음반/DVD/비디오, 소프트웨어, 만화책, 잡지, 영상 화보집

    ·시간의 경과에 의해 재판매가 곤란한 정도로 가치가 현저히 감소한 경우

    ·전자상거래 등에서의 소비자보호에 관한 법률이 정하는 소비자 청약철회 제한 내용에 해당되는 경우

    상품 품절

    공급사(출판사) 재고 사정에 의해 품절/지연될 수 있음

    소비자 피해보상
    환불지연에 따른 배상

    ·상품의 불량에 의한 교환, A/S, 환불, 품질보증 및 피해보상 등에 관한 사항은 소비자분쟁해결 기준 (공정거래위원회 고시)에 준하여 처리됨

    ·대금 환불 및 환불지연에 따른 배상금 지급 조건, 절차 등은 전자상거래 등에서의 소비자 보호에 관한 법률에 따라 처리함

    (주) 인터파크 안전결제시스템 (에스크로) 안내

    (주)인터파크의 모든 상품은 판매자 및 결제 수단의 구분없이 회원님들의 구매안전을 위해 안전결제 시스템을 도입하여 서비스하고 있습니다.
    결제대금 예치업 등록 : 02-006-00064 서비스 가입사실 확인

    배송안내

    • 교보문고 상품은 택배로 배송되며, 출고완료 1~2일내 상품을 받아 보실 수 있습니다.

    • 출고가능 시간이 서로 다른 상품을 함께 주문할 경우 출고가능 시간이 가장 긴 상품을 기준으로 배송됩니다.

    • 군부대, 교도소 등 특정기관은 우체국 택배만 배송가능합니다.

    • 배송비는 업체 배송비 정책에 따릅니다.

    • - 도서 구매 시, 1만 원 이상 무료, 1만원 미만 2천 원 - 상품별 배송비가 있는 경우, 상품별 배송비 정책 적용