간편결제, 신용카드 청구할인
인터파크 롯데카드 5% (29,930원)
(최대할인 10만원 / 전월실적 40만원)
북피니언 롯데카드 30% (22,050원)
(최대할인 3만원 / 3만원 이상 결제)
NH쇼핑&인터파크카드 20% (25,200원)
(최대할인 4만원 / 2만원 이상 결제)
Close

파이썬으로 배우는 자연어 처리 인 액션

원제 : Natural Language Processing in Action
소득공제

2013년 9월 9일 이후 누적수치입니다.

판매지수 420
?
판매지수란?
사이트의 판매량에 기반하여 판매량 추이를 반영한 인터파크 도서에서의 독립적인 판매 지수입니다. 현재 가장 잘 팔리는 상품에 가중치를 두었기 때문에 실제 누적 판매량과는 다소 차이가 있을 수 있습니다. 판매량 외에도 다양한 가중치로 구성되어 최근의 이슈도서 확인시 유용할 수 있습니다. 해당 지수는 매일 갱신됩니다.
Close
공유하기
정가

35,000원

  • 31,500 (10%할인)

    1,750P (5%적립)

할인혜택
적립혜택
  • I-Point 적립은 출고완료 후 14일 이내 마이페이지에서 적립받기한 경우만 적립됩니다.
추가혜택
배송정보
주문수량
감소 증가
  • 북카트 담기
  • 바로구매
  • 매장픽업
  • 이벤트/기획전(1)

  • 연관도서(25)

  • 사은품(10)

책소개

파이썬과 다양한 AI 패키지로 만드는 수준 높은 예제!
최신 NLP 제품과 서비스 개발을 위한 실용주의적 안내서!


이 책은 사람의 언어를 읽고 해석할 수 있는 프로그램을 만들려는 모든 개발자를 위한 지침서다. 이 책에서는 바로 사용할 수 있는 파이썬 패키지들을 이용해서 텍스트의 의미를 포착하고 그에 따라 반응하는 챗봇을 구축한다. 또한, 전통적인 NLP 접근 방식들은 물론이고, 좀 더 최근의 심층 학습 알고리즘과 텍스트 생성 기법들을 동원해서 날짜와 이름 추출, 텍스트 작성, 비정형 질문에 대한 응답 같은 여러 실질적인 NLP 문제들을 해결한다.

출판사 서평

파이썬과 다양한 AI 패키지로 만드는 수준 높은 예제!
최신 NLP 제품과 서비스 개발을 위한 실용주의적 안내서!


최근 심층 학습(딥러닝) 기술이 발전하면서 응용 프로그램들이 대단히 정확하게 텍스트와 음성을 인식하게 되었다. 또한, 새로운 기술과 Keras나 TensorFlow 같은 사용하기 쉬운 도구들 덕분에 이제는 고품질 NLP(자연어 처리) 응용 프로그램을 예전보다 쉽게 만들어낼 수 있다.

이 책은 사람의 언어를 읽고 해석할 수 있는 프로그램을 만들려는 모든 개발자를 위한 지침서다. 이 책에서는 바로 사용할 수 있는 파이썬 패키지들을 이용해서 텍스트의 의미를 포착하고 그에 따라 반응하는 챗봇을 구축한다. 또한, 전통적인 NLP 접근 방식들은 물론이고, 좀 더 최근의 심층 학습 알고리즘과 텍스트 생성 기법들을 동원해서 날짜와 이름 추출, 텍스트 작성, 비정형 질문에 대한 응답 같은 여러 실질적인 NLP 문제들을 해결한다.

이 책의 주요 내용
■ Keras, TensorFlow, gensim, scikit-learn 사용법
■ NLP의 규칙 기반 접근 방식과 자료 기반 접근 방식
■ 규모 확장이 쉬운 NLP 파이프라인

추천사

NLP 시스템의 내부 작동 방식을 이해하는 것은 물론이고, 여러분 스스로 알고리즘과 모형을 만드는 데 필요한 이론과 실무 지식도 배운다.
- Dr. 아원 그리피온 / Zendesk

요즘 쓰이는 파이썬 NLP 도구들을 잘 개괄한다. 나의 NLP 프로젝트마다 이 책을 끼고 다닐 생각이다. 강력하게 추천한다!
- 토니 멀런 / 노스이스턴대학교(시애틀)

NLP를 처음 시작하는 사람들을 위한 직관적인 지침서! NLP를 대단히 실용적으로 배울 수 있는 프로그래밍 예제로 가득하다.
- 토마소 테오필리 / 어도비(Adobe Systems)

목차

PART I 말 많은 컴퓨터: NLP의 기초 1
CHAPTER 1 사고의 단위: NLP의 개요 3
1.1 자연어 대 프로그래밍 언어 4
1.2 마법 5
1.2.1 대화하는 기계 6
1.2.2 수학 7
1.3 실제 응용들 9
1.4 컴퓨터의 ‘눈’으로 본 언어 11
1.4.1 자물쇠 언어 12
1.4.2 정규 표현식 13
1.4.3 간단한 챗봇 14
1.4.4 또 다른 방법 19
1.5 짧은 초공간 탐험 23
1.6 단어의 순서와 문법 25
1.7 챗봇의 자연어 처리 파이프라인 27
1.8 더 깊은 처리 30
1.9 자연어 IQ 32
요약 35

CHAPTER 2 나만의 어휘 구축: 단어 토큰화 37
2.1 어려운 문제: 어간 추출의 개요 39
2.2 토큰 생성기를 이용한 어휘 구축 40
2.2.1 내적 50
2.2.2 두 단어 모음의 중복 측정 51
2.2.3 토큰 개선 52
2.2.4 n-그램을 이용한 어휘 확장 58
2.2.5 어휘 정규화 66
2.3 감정 분석 76
2.3.1 VADER―규칙 기반 감정 분석기 78
2.3.2 단순 베이즈 모형 80
요약 84

CHAPTER 3 말 잘하는 수학: TF-IDF 벡터 85
3.1 단어 모음 86
3.2 벡터화 92
3.2.1 벡터 공간 95
3.3 지프의 법칙 101
3.4 주제 모형화 104
3.4.1 돌아온 지프 108
3.4.2 관련성 순위 110
3.4.3 주요 도구: scikit-learn 112
3.4.4 여러 TF-IDF 정규화 방법 113
3.4.5 Okapi BM25 115
3.4.6 다음 단계 116
요약 116

CHAPTER 4 단어 빈도에서 의미 찾기: 의미 분석 117
4.1 단어 빈도에서 주제 점수로 119
4.1.1 TF-IDF 벡터와 표제어 추출 119
4.1.2 주제 벡터 120
4.1.3 사고 실험 122
4.1.4 주제 점수를 매기는 알고리즘 127
4.1.5 LDA 분류기 129
4.2 잠재 의미 분석(LSA) 134
4.2.1 사고 실험의 실현 137
4.3 특잇값 분해 140
4.3.1 왼쪽 특이 벡터 행렬 U 142
4.3.2 특잇값 행렬 S 143
4.3.3 오른쪽 특이 벡터 행렬 VT 145
4.3.4 SVD 행렬의 방향 145
4.3.5 주제 절단 146
4.4 주성분 분석(PCA) 148
4.4.1 3차원 벡터에 대한 PCA 150
4.4.2 말을 떠나 다시 NLP로 돌아가서 152
4.4.3 PCA를 이용한 문자 메시지 잠재 의미 분석 154
4.4.4 절단된 SVD를 이용한 문자 메시지 잠재 의미 분석 157
4.4.5 스팸 분류에 대한 LSA의 정확도 158
4.5 잠재 디리클레 할당(LDiA) 161
4.5.1 LDiA의 기초 162
4.5.2 문자 메시지 말뭉치에 대한 LDiA 주제 모형 165
4.5.3 LDiA + LDA = 스팸 분류기 168
4.5.4 좀 더 공정한 비교: 주제가 32개인 LDiA 171
4.6 거리와 유사도 173
4.7 피드백에 기초한 방향 조정 176
4.7.1 선형 판별 분석(LDA) 177
4.8 주제 벡터의 위력 179
4.8.1 의미 기반 검색 181
4.8.2 개선안 184
요약 184

PART II 더 깊은 학습: 신경망 적용 185
CHAPTER 5 신경망 첫걸음: 퍼셉트론과 역전파 187
5.1 신경망의 구성요소 188
5.1.1 퍼셉트론 189
5.1.2 디지털 퍼셉트론 190
5.1.3 치우침 단위 191
5.1.4 오차 곡면을 누비며 207
5.1.5 경사로를 따라 활강 208
5.1.6 흔들어서 탈출 210
5.1.7 케라스: 신경망 파이썬 구현 211
5.1.8 더 깊게 배우고 싶다면 215
5.1.9 정규화: 스타일 있는 입력 215
요약 216

CHAPTER 6 단어 벡터를 이용한 추론: word2vec 활용 217
6.1 의미 기반 질의와 비유 218
6.1.1 비유 질문 219
6.2 단어 벡터 221
6.2.1 벡터 지향적 추론 225
6.2.2 word2vec의 단어 표현 계산 228
6.2.3 gensim.word2vec 모듈 사용법 238
6.2.4 나만의 단어 벡터 모형 만들기 241
6.2.5 word2vec 대 GloVe 244
6.2.6 fastText 245
6.2.7 word2vec 대 LSA 246
6.2.8 단어 관계의 시각화 247
6.2.9 인위적인 단어들 254
6.2.10 doc2vec을 이용한 문서 유사도 추정 256
요약 258

CHAPTER 7 단어 순서를 고려한 의미 분석: 합성곱 신경망 259
7.1 의미의 학습 261
7.2 도구 모음 262
7.3 합성곱 신경망 264
7.3.1 합성곱 신경망의 구조 264
7.3.2 단계 크기(보폭) 266
7.3.3 필터의 구성 266
7.3.4 여백 채우기 268
7.3.5 훈련(학습) 270
7.4 다시 텍스트로 271
7.4.1 케라스로 합성곱 신경망 구현: 자료 준비 273
7.4.2 합성곱 신경망의 구조 279
7.4.3 풀링 280
7.4.4 드롭아웃 283
7.4.5 마지막 층 추가 284
7.4.6 모형의 저장 및 시험 286
7.4.7 모형을 NLP 파이프라인에 도입 289
7.4.8 나머지 이야기 290
요약 292

CHAPTER 8 돌고 도는 신경망: 순환 신경망 293
8.1 과거를 아는 순환 신경망 296
8.1.1 시간에 대한 역전파 301
8.1.2 무엇을 언제 갱신하는가? 303
8.1.3 정리 306
8.1.4 항상 그렇듯이 함정이 있다 307
8.1.5 케라스를 이용한 순환 신경망 구현 307
8.2 모형의 컴파일 312
8.3 모형의 훈련 315
8.4 초매개변수 조율 316
8.5 예측 319
8.5.1 상태 유지 320
8.5.2 양방향 처리 321
8.5.3 순환층 출력의 의미 323
요약 323

CHAPTER 9 장단기 기억망(LSTM 망)을 이용한 기억 유지 개선 325
9.1 장단기 기억망(LSTM 망) 327
9.1.1 시간에 대한 역전파 336
9.1.2 예제 문장으로 모형을 시험 339
9.1.3 더러운 자료 340
9.1.4 다시 더러운 자료로 돌아가서 344
9.1.5 단어보다 글자가 쉽다 345
9.1.6 말문이 열린 신경망 352
9.1.7 구체적인 예제 하나 354
9.1.8 무엇을 말할 것인가? 363
9.1.9 다른 종류의 기억 수단 363
9.1.10 더 깊이 들어가서 364
요약 366

CHAPTER 10 순차열 대 순차열 모형과 주의 메커니즘 367
10.1 부호기-복호기 구조 368
10.1.1 생각 벡터의 복호화 369
10.1.2 비슷한 구조들 371
10.1.3 대화 생성을 위한 순차열 대 순차열 모형 373
10.1.4 LSTM 복습 374
10.2 순차열 대 순차열 NLP 파이프라인 구축 375
10.2.1 순차열 대 순차열 훈련을 위한 자료 집합 준비 375
10.2.2 케라스의 순차열 대 순차열 모형 376
10.2.3 순차열 부호기 377
10.2.4 생각 벡터 복호기 379
10.2.5 순차열 대 순차열 신경망 조립 380
10.3 순차열 대 순차열 신경망의 훈련 381
10.3.1 출력 순차열 생성 381
10.4 순차열 대 순차열 신경망을 이용한 챗봇 구축 383
10.4.1 훈련 자료 준비 383
10.4.2 문자 사전 구축 384
10.4.3 원핫 부호화 훈련 집합 생성 385
10.4.4 순차열 대 순차열 챗봇의 훈련 386
10.4.5 순차열 생성을 위한 모형 설정 387
10.4.6 순차열 생성(예측) 387
10.4.7 응답문 생성 및 출력 388
10.4.8 챗봇과 대화 389
10.5 개선안 390
10.5.1 버키팅을 이용한 학습 복잡도 감소 390
10.5.2 주의 메커니즘 391
10.6 순차열 대 순차열 신경망의 실제 용도 393
요약 395

PART III 응용: 실제 NLP 문제들 397
CHAPTER 11 정보 추출: 개체명 인식과 질의응답 399
11.1 개체명과 개체 관계 399
11.1.1 지식 베이스 400
11.1.2 정보 추출 403
11.2 정규 패턴 404
11.2.1 정규 표현식 405
11.2.2 기계 학습 특징 추출로서의 정보 추출 406
11.3 추출할 만한 정보 408
11.3.1 GPS 좌표 추출 408
11.3.2 날짜 추출 409
11.4 관계의 추출 415
11.4.1 품사 태깅 416
11.4.2 개체명 정규화 420
11.4.3 관계의 정규화와 추출 422
11.4.4 단어 패턴 422
11.4.5 분할 423
11.4.6 split(‘.!?’)만으로는 안 되는 이유 424
11.4.7 정규 표현식을 이용한 문장 분할 426
11.5 실제 용도 428
요약 429

CHAPTER 12 챗봇(대화 엔진) 만들기 431
12.1 대화 능력 432
12.1.1 현대적 접근 방식들 434
12.1.2 혼합형 접근 방식 441
12.2 패턴 부합 접근 방식 441
12.2.1 AIML을 이용한 패턴 부합 챗봇 구현 443
12.2.2 패턴 부합의 그래프 시각화 450
12.3 근거화 451
12.4 정보 검색 454
12.4.1 문맥 관리의 어려움 454
12.4.2 정보 검색 기반 챗봇 예제 456
12.4.3 Chatterbot 소개 460
12.5 생성 모형 463
12.5.1 NLPIA에 관한 대화 464
12.5.2 각 접근 방식의 장단점 466
12.6 사륜구동 467
12.6.1 챗봇 프레임워크 Will 468
12.7 설계 과정 469
12.8 요령과 편법 473
12.8.1 예측 가능한 답이 나올 질문을 던진다 473
12.8.2 동문서답 474
12.8.3 최후의 대비책은 검색 474
12.8.4 흥미 유지 475
12.8.5 인연 만들기 475
12.8.6 감정 담기 475
12.9 실제 응용 분야 476
요약 477

CHAPTER 13 규모 확장: 최적화, 병렬화, 일괄 처리 479
13.1 자료가 너무 많으면 480
13.2 NLP 알고리즘의 최적화 480
13.2.1 색인화 481
13.2.2 고급 색인화 483
13.2.3 Annoy를 이용한 고급 색인화 485
13.2.4 근사적 색인이 꼭 필요한가? 490
13.2.5 실숫값의 색인화: 이산화 491
13.3 상수 RAM 알고리즘 492
13.3.1 gensim 492
13.3.2 그래프 계산 493
13.4 NLP 계산 병렬화 494
13.4.1 GPU를 이용한 NLP 모형의 훈련 495
13.4.2 대여와 구매 496
13.4.3 GPU 대여 옵션들 497
13.4.4 TPU(텐서 처리 장치) 498
13.5 모형 훈련의 메모리 요구량 줄이기 498
13.6 TensorBoard를 이용한 모형 성능 평가 501
13.6.1 단어 내장 시각화 502
요약 505

APPENDIX A NLP 도구들 507
A.1 Anaconda3 설치 508
A.2 NLPIA 설치 509
A.3 IDE 509
A.4 우분투 패키지 관리자 510
A.5 맥 OS 511
A.5.1 Homebrew 511
A.5.2 기타 개발용 도구 설치 512
A.5.3 조율 512
A.6 Windows 514
A.6.1 VM 설정 515
A.7 NLPIA의 편의 기능 515

APPENDIX B 파이썬 즐기기와 정규 표현식 517
B.1 문자열 다루기 518
B.1.1 문자열 형식들: str과 bytes 518
B.1.2 파이썬 문자열 템플릿 519
B.2 파이썬의 매핑 자료 구조: dict와 OrderedDict 519
B.3 정규 표현식 520
B.3.1 |―OR 기호 520
B.3.2 ()―그룹 묶기 521
B.3.3 []―문자 부류 522
B.4 코딩 스타일 523
B.5 실력 쌓기 523

APPENDIX C 벡터와 행렬: 기초 선형대수 524
C.1 벡터 524
C.1.1 거리 526

APPENDIX D 기계 학습의 도구와 기법 531
D.1 자료 선택과 편향 531
D.2 얼마나 적합해야 적합된 것인가? 533
D.3 문제를 알면 반은 해결된 것이다 534
D.4 교차 검증 535
D.5 과대적합 방지 536
D.5.1 정칙화 537
D.5.2 드롭아웃 538
D.5.3 배치 정규화 539
D.6 불균형 훈련 집합 539
D.6.1 과다표집 540
D.6.2 과소표집 540
D.6.3 자료 증강 541
D.7 성능 측정 542
D.7.1 분류 모형의 성능 측정 542
D.7.2 회귀 모형의 성능 측정 545
D.8 전문가의 조언 545

APPENDIX E AWS GPU 설정 548
E.1 AWS 인스턴스 설정 549
E.1.1 비용 관리 561

APPENDIX F 지역 민감 해싱(LSH) 564
F.1 고차원 벡터는 어렵다 564
F.1.1 벡터 공간의 색인과 해시 565
F.1.2 고차원적 사고 566
F.2 고차원 색인화 570
F.2.1 지역 민감 해싱 570
F.2.2 근사 최근접 이웃 검색 571
F.3 ‘좋아요’ 예측 571

참고 자료 573
용어집 586
찾아보기 595

본문중에서

단어의 이러한 벡터 표현과 문서의 테이블 표현이 가진 한 가지 장점은 그 어떤 정보도 소실되지 않는다는 점이다. 각 열이 어떤 단어에 대응되는지에 관한 정보만 유지한다면, 이러한 원핫 벡터들의 테이블로 원래의 문서를 복원할 수 있다. 그리고 이러한 복원 과정은 100% 정확하다. 비록 현재의 토큰 생성기가 우리가 유용하다고 생각하는 수준의 90%의 정확도로만 토큰들을 생성한다고 해도 그렇다. 이런 장점 때문에 신경망, 문장 대 문장 언어 모형, 생성적 언어 모형들에서는 이런 원핫 단어 벡터들을 흔히 사용한다. 원핫 벡터 표현은 원래의 텍스트에 담긴 의미를 고스란히 유지해야 하는 모든 종류의 모형이나 NLP 파이프라인에 적합하다.
(/ p.45)

간단한 검색 엔진들은 바로 이 TF-IDF 수치 하나에 기초한다. 이 수치를 통해 우리는 텍스트(문자열) 처리의 세계에서 수치 연산의 세계로 확실하게 넘어오게 되었다. 다음 절부터는 이 수치로 할 수 있는 계산들을 살펴본다. 사실 여러분이 TF-IDF 계산을 구현하는 코드를 실제로 작성할 일은 거의 없을 것이다. 선형대수를 몰라도 자연어 처리에 쓰이는 도구들을 이해하는 데 크게 문제가 되지는 않는다. 그러긴 하지만, 이런 공식들에 익숙해지면 자연어 처리 도구들을 좀 더 직관적으로 이해하고 사용할 수 있게 된다.
(/ p.109)

LDA 모형의 ‘훈련’에 필요한 것은 이진 부류의 두 무게중심을 잇는 직선을 찾는 것이다. 이번 예제의 분류기는 주어진 단문 문자(SMS) 메시지가 스팸인지 아닌지를 분류한다. 즉, 이진 부류는 ‘스팸’ 대 ‘비스팸’이다. LDA는 지도 학습에 속하므로, 훈련용 문자(SMS) 메시지들에 분류명(class label)을 붙여 두어야 한다. 이러한 모형으로 추론(inference) 또는 예측을 수행하는 방법은 간단하다. 그냥 TF-IDF 벡터가 어느 부류의 무게중심에 더 가까운지 보면 된다. 즉, 만일 TF-IDF 벡터가 스팸 부류 무게중심에 더 가깝다면 그 벡터에 해당하는 메시지는 스팸일 가능성이 크다.
(/ p.130)

이런 과대적합은 NLP의 고질적인 문제이다. 사람들의 다양한 어법과 어휘를 포함하며 응용 분야에 맞는 적절한 분류명이 붙은 자연어 자료 집합을 구하기란 쉽지 않다. 실제로 나는 스패머들이 고안할 만한 모든 스팸성 단어와 비스팸성 단어를 포함한 거대한 문자 메시지 데이터베이스를 구할 수 없었다. 그런 자료 집합을 만들어낼 수 있는 기업은 극히 소수이다. 따라서 우리가 할 수 있는 일은 과대적합을 기정사실로 받아들이고 그에 대한 대응책을 모색하는 것뿐이다. 즉, 적은 수의 훈련 견본으로 모형을 훈련해도 모형이 미지의 견본들에 잘 “일반화되게” 하는 알고리즘을 찾아야 한다.
(/ p.153)

합성곱 필터는 인접한 단어들에서 특정한 패턴을 검출한다. 그리고 단어들의 위치가 조금 변해도 합성곱 신경망의 출력은 크게 영향을 받지 않는다. 중요한 점은, 서로 가까이 있는 개념들이 합성곱 신경망에 큰 영향을 준다는 것이다. 그런데 좀 더 넓은 시야로 텍스트를 바라보고 좀 더 긴 시간 구간에서 단어들 사이의 관계들을 파악하고 싶다면, 그러니까 인접한 토큰 세 개나 네 개보다는 더 큰 구간으로 단어들을 처리하고 싶다면 어떻게 해야 할까? 그러니까 신경망이 “꽤 오래전에 본 단어들”을 고려하게 만들려면, 다시 말해 신경망에 ‘기억’ 능력을 추가하려면 어떻게 해야 할까?
(/ p.293)

관련이미지

저자소개

홉슨 레인(Hobson Lane) [저] 신작알림 SMS신청 작가DB보기
생년월일 -
출생지 -
출간도서 0종
판매수 0권

홉슨은 사람 대신 중요한 결정을 내리는 자율 시스템을 구축하는 분야에서 20년의 경험을 쌓았다. 그는 Keras, scikit-learn, PyBrain 같은 여러 오픈소스 프로젝트에 적극적으로 기여하며, 현재 Total Good에서 오픈소스 인지 조교(cognitive assistant) 구축을 비롯한 개방형 과학 연구 및 교육 프로젝트에 힘쓰고 있다. 또한, AIAA, PyCon, IEEE 등에 논문을 게재하거나
강연했으며, 로봇공학과 자동화에 관련된 여러 특허도 가지고 있다.

하네스 막스 하프케(Hannes Max Hapke) [저] 신작알림 SMS신청 작가DB보기
생년월일 -
출생지 -
출간도서 0종
판매수 0권

하네스는 전기 공학자가 기계 학습 공학자로 변신한 사례다. 대학교에서는 신경망 개념을 재생 가능 에너지 발전소를 효과적으로 제어하는 데 적용했다. 구인·구직, 보건 응용 프로그램을 위한 심층 학습 모형과 기계 학습 파이프라인을 개발하는 프로젝트에 참여했으며, OSCON, Open Source Bridge, Hack University 같은 여러 콘퍼런스에서 기계 학습을 주제로 강연했다.

콜 하워드(Cole Howard) [저] 신작알림 SMS신청 작가DB보기
생년월일 -
출생지 -
출간도서 0종
판매수 0권

콜은 기계 학습 공학자이자 NLP 실무자이자 작가다. 대규모 전자상거래 추천 엔진들과 고차원 기계 지능 시스템을 위한 최신 심층 학습 신경망들을 개발했으며, 그의 모형들은 Kaggle 공모전에서 상위에 랭크되었다. 또한, Open Source Bridge Conference와 Hack University에서 합성곱 신경망과 순환 신경망에 관해, 그리고 그런 신경망들이 자연어 처리에서 차지하는 역할에 관해 강연했다.

생년월일 -
출생지 -
출간도서 0종
판매수 0권

커누스 교수의 《컴퓨터 프로그래밍의 예술》 시리즈(한빛미디어)를 포함하여 60여 종의 다양한 IT 전문서를 번역한 전문 번역가다. 인공지능 관련 번역서로는 이 책 외에도 《인공지능: 현대적 접근방식(제3판)》(제이펍, 2016)과 《심층 학습》(제이펍, 2018), 《신경망과 심층 학습》(제이펍, 2019), 《파이썬으로 배우는 자연어 처리 인 액션》(제이펍, 2020)이 있으며, 《인공지능: 현대적 접근방식(제4판)》을 준비 중이다.

역자의 다른책

전체보기
펼쳐보기

이벤트 기획전

이 상품의 시리즈

(총 26권 / 현재구매 가능도서 26권)

펼쳐보기

컴퓨터/인터넷 분야에서 많은 회원이 구매한 책

    리뷰

    0.0 (총 0건)

    구매 후 리뷰 작성 시, 북피니언 지수 최대 600점

    리뷰쓰기

    기대평

    작성시 유의사항

    평점
    0/200자
    등록하기

    기대평

    10.0

    교환/환불

    교환/환불 방법

    ‘마이페이지 > 취소/반품/교환/환불’ 에서 신청함, 1:1 문의 게시판 또는 고객센터(1577-2555) 이용 가능

    교환/환불 가능 기간

    고객변심은 출고완료 다음날부터 14일 까지만 교환/환불이 가능함

    교환/환불 비용

    고객변심 또는 구매착오의 경우에만 2,500원 택배비를 고객님이 부담함

    교환/환불 불가사유

    반품접수 없이 반송하거나, 우편으로 보낼 경우 상품 확인이 어려워 환불이 불가할 수 있음
    배송된 상품의 분실, 상품포장이 훼손된 경우, 비닐랩핑된 상품의 비닐 개봉시 교환/반품이 불가능함

    소비자 피해보상

    소비자 피해보상의 분쟁처리 등에 관한 사항은 소비자분쟁해결기준(공정거래위원회 고시)에 따라 비해 보상 받을 수 있음
    교환/반품/보증조건 및 품질보증 기준은 소비자기본법에 따른 소비자 분쟁 해결 기준에 따라 피해를 보상 받을 수 있음

    기타

    도매상 및 제작사 사정에 따라 품절/절판 등의 사유로 주문이 취소될 수 있음(이 경우 인터파크도서에서 고객님께 별도로 연락하여 고지함)

    배송안내

    • 인터파크 도서 상품은 택배로 배송되며, 출고완료 1~2일내 상품을 받아 보실 수 있습니다

    • 출고가능 시간이 서로 다른 상품을 함께 주문할 경우 출고가능 시간이 가장 긴 상품을 기준으로 배송됩니다.

    • 군부대, 교도소 등 특정기관은 우체국 택배만 배송가능하여, 인터파크 외 타업체 배송상품인 경우 발송되지 않을 수 있습니다.

    • 배송비

    도서(중고도서 포함) 구매

    2,000원 (1만원이상 구매 시 무료배송)

    음반/DVD/잡지/만화 구매

    2,000원 (2만원이상 구매 시 무료배송)

    도서와 음반/DVD/잡지/만화/
    중고직배송상품을 함께 구매

    2,000원 (1만원이상 구매 시 무료배송)

    업체직접배송상품 구매

    업체별 상이한 배송비 적용