청구할인 안내(인터파크 제휴카드) | 안내
삼성카드 3% (3만원 이상 결제/최대 1만원 할인)
북피니언 롯데카드 30% (최대할인 3만원 / 3만원 이상 결제)
하나SK 북&카드 30% (최대할인 3만원 / 3만원 이상 결제)
EBS 롯데카드 20% (최대할인 3만원 / 3만원 이상 결제)
인터파크 NEW 우리V카드 10% (최대할인 3만원 / 3만원 이상 결제)
인터파크 현대카드 7% (최대할인 3만원 / 3만원 이상 결제)
Close

2013년 9월 9일 이후 누적수치입니다.

알고리즘 중심의 머신러닝 가이드 : 파이썬 코드 기반[2판]

판매지수 1,894
?
판매지수란?
사이트의 판매량에 기반하여 판매량 추이를 반영한 인터파크 도서에서의 독립적인 판매 지수입니다. 현재 가장 잘 팔리는 상품에 가중치를 두었기 때문에 실제 누적 판매량과는 다소 차이가 있을 수 있습니다. 판매량 외에도 다양한 가중치로 구성되어 최근의 이슈도서 확인시 유용할 수 있습니다. 해당 지수는 매일 갱신됩니다.
Close
정가

32,000원

  • 28,800 (10%할인)

    1,600P (5%적립)

  • (2건)

    27,200원 ~(15%할인)

    [특급]

  • 중고판매

    이 책을 인터파크에
    판매하세요

배송정보
주문수량
감소 증가
  • 이벤트/기획전(1)

  • 연관도서(5)

  • 사은품(2)

책소개

머신러닝에 필요한 수학/통계학 배경 지식!

이 책은 머신러닝 알고리즘의 이해를 돕기 위한 책이다. 이 책을 통해 머신러닝에 필요한 프로그래밍뿐만 아니라 관련 수학, 통계 개념을 완벽히 익히는 여행을 시작할 수 있을 것이다. 또한, 책을 학습할 때 함께 제공되는 코드를 직접 실행해 볼 것을 추천한다. 각 장마다 더 읽을거리와 연습 문제를 통해 세부적인 예제를 제공하고 있으며, 예제에 사용된 모든 파이썬 코드는 저자의 웹페이지에서 내려받을 수 있다.

출판사 서평

머신러닝에 사용되는 주요 알고리즘의 원리!
의사코드가 아닌 파이썬 코드 중심의 예제!


이 책은 머신러닝 알고리즘의 이해를 돕기 위한 책이다. 이 책을 통해 머신러닝에 필요한 프로그래밍뿐만 아니라 관련 수학, 통계 개념을 완벽히 익히는 여행을 시작할 수 있을 것이다.

이 책의 특징
- 심층 신뢰 신경망과 같은 최근의 머신러닝 동향을 반영했다.
- 머신러닝을 이해하는 데 필요한 기본 확률과 통계 개념을 제공한다.
- 신경망을 사용한 지도학습에 대해 배운다.
- 차원 감축, EM 알고리즘, 최근접 이웃법, 최선 분류 경계, 커널 방법과 최적화를 다룬다.
- 진화학습, 강화학습, 트리 기반의 학습자 그리고 다양한 학습자들의 예측 값을 합치는 방법들을 다룬다.
- 자기조직화 특성 지도를 통해서 비지도학습의 중요성을 알아본다.
- 머신러닝에서의 최신 통계 기반 접근법들을 살펴본다.

2판에 추가된 사항
- 심층 신뢰 신경망과 가우시안 프로세스가 추가되었다.
- 더 자연스러운 흐름을 위해 각 장을 새롭게 재구성했다.
- 실습을 위한 실행 코드를 추가했으며, 서포트 벡터 머신 자료들을 보강했다.
- 랜덤 포레스트, 퍼셉트론 수렴 이론, 정확성 측정 방법을 위한 고려사항, 그리고 MLP를 위한 켤레 기울기 최적화에 대한 새로운 자료를 추가했다.
- 칼만 필터와 파티클 필터에 관한 설명이 추가되었다.
- 파이썬의 명명 규칙을 수정하고 코드를 개선했다.

책을 학습할 때 함께 제공되는 코드를 직접 실행해 볼 것을 추천한다. 각 장마다 더 읽을거리와 연습 문제를 통해 세부적인 예제를 제공하고 있으며, 예제에 사용된 모든 파이썬 코드는 저자의 웹페이지에서 내려받을 수 있다.

목차

CHAPTER 1 - 들어가기에 앞서
1.1 데이터에 질량이 있다면 지구는 블랙홀이 될 것이다
1.2 학습
1.2.1 머신러닝
1.3 머신러닝의 종류
1.4 지도학습
1.4.1 회귀
1.4.2 분류
1.5 머신러닝 과정
1.6 프로그래밍 노트
1.7 이 책의 로드맵
● 더 읽을거리

CHAPTER 2 - 들어가며
2.1 용어 설명
2.1.1 가중치 공간
2.1.2 차원의 저주
2.2 알고 있는 것을 잘 이해하라- 머신러닝 알고리즘 평가하기
2.2.1 오버피팅
2.2.2 트레이닝, 테스팅, 밸리데이션 세트
2.2.3 혼동 행렬
2.2.4 정확도 지표
2.2.5 수신자 조작 특성 곡선
2.2.6 불균형 데이터세트
2.2.7 정밀도 측정
2.3 데이터를 확률로 변경
2.3.1 위험 최소화
2.3.2 나이브 베이즈 분류기
2.4 기본적인 통계학
2.4.1 평균
2.4.2 분산과 공분산
2.4.3 가우시안
2.5 바이어스 분산 트레이드오프
- 더 읽을거리
- 연습 문제

CHAPTER 3 - 뉴런, 뉴럴 네트워크, 선형 판별식
3.1 뇌와 뉴런
3.1.1 헵의 법칙
3.1.2 맥컬록과 피츠의 뉴런들
3.1.3 맥컬록과 피츠 뉴럴 모델의 한계점
3.2 뉴럴 네트워크
3.3 퍼셉트론
3.3.1 학습률
3.3.2 바이어스 값 입력
3.3.3 퍼셉트론 학습 알고리즘
3.3.4 퍼셉트론 학습의 예제- 논리 함수
3.3.5 구현
3.4 선형 분리성
3.4.1 퍼셉트론 수렴 이론
3.4.2 배타적 논리합 함수
3.4.3 도움이 될 만한 통찰력
3.4.4 또 다른 예제- 피마 인디언 데이터세트
3.4.5 전처리- 데이터 사전 준비
3.5 선형 회귀
3.5.1 선형 회귀 예제
- 더 읽을거리
- 연습 문제

CHAPTER 4 - 다층 퍼셉트론
4.1 전향
4.1.1 바이어스
4.2 후향- 오차 역전파
4.2.1 다층 퍼셉트론 알고리즘
4.2.2 가중치 초기화하기
4.2.3 다른 출력 활성화 함수들
4.2.4 순차와 배치 트레이닝
4.2.5 지역 최솟값
4.2.6 모멘텀 정하기
4.2.7 미니배치와 확률적 기울기 하강
4.3 다층 퍼셉트론의 실제
4.3.1 트레이닝 데이터 양
4.3.2 은닉층의 수
4.3.3 학습을 중지해야 할 시기
4.4 MLP의 활용 예
4.4.1 회귀 문제
4.4.2 MLP에서의 분류
4.4.3 분류 예- 아이리스 데이터세트
4.4.4 시계열 예측
4.4.5 데이터 압축- 자기 연산 네트워크
4.5 MLP 사용법
4.6 역전파 유도
4.6.1 네트워크 출력 값과 오류
4.6.2 네트워크의 오류
4.6.3 활성화 함수의 요건들
4.6.4 오류 역전달
4.6.5 출력 활성화 함수들
4.6.6 오차 함수의 대안
- 더 읽을거리
- 연습 문제

CHAPTER 5 - 방사 기저 함수와 스플라인
5.1 수용영역
5.2 방사 기저 함수 네트워크
5.2.1 RBF 네트워크 트레이닝
5.3 보간법과 기저 함수
5.3.1 기저 확장
5.3.2 3차 스플라인
5.3.3 데이터에 스플라인 맞추기
5.3.4 스무딩 스플라인/스플라인 다듬질
5.3.5 고차원
5.3.6 경계를 넘어
- 더 읽을거리
- 연습 문제

CHAPTER 6 - 차원 축소
6.1 선형 판별 분석
6.2 주성분 분석
6.2.1 다층 퍼셉트론과의 관계
6.2.2 커널 PCA
6.3 인자 분석
6.4 독립 성분 분석
6.5 지역 선형 임베딩
6.6 아이소맵
6.6.1 다차원 스케일링
- 더 읽을거리
- 연습 문제

CHAPTER 7 - 확률학습
7.1 가우시안 혼합 모델
7.1.1 기댓값 최대화
7.1.2 정보 기준
7.2 최근접 이웃법
7.2.1 최근접 이웃 스무딩
7.2.2 효율적인 거리 계산- KD 트리
7.2.3 거리 측정
- 더 읽을거리
- 연습 문제

CHAPTER 8 - 서포트 벡터 머신
8.1 최적 분리
8.1.1 마진과 서포트 벡터들
8.1.2 제약적 최적화 문제 A
8.1.3 비선형 분리 문제를 위한 슬랙 변수
8.2 커널
8.2.1 커널 고르기
8.2.2 XOR 예제
8.3 서포트 벡터 머신 알고리즘
8.3.1 구현
8.3.2 예제
8.4 SVM의 연장
8.4.1 다계층 분류
8.4.2 SVM 회귀
8.4.3 다른 이점들
- 더 읽을거리
- 연습 문제

CHAPTER 9 - 최적화와 탐색
9.1 언덕 내려가기
9.1.1 테일러 전개식
9.2 최소제곱법
9.2.1 레벤버그 말쿼트 알고리즘
9.3 켤레 기울기
9.3.1 켤레 기울기의 예제
9.3.2 켤레 기울기와 MLP
9.4 탐색- 세 가지 방법
9.4.1 완전 탐색
9.4.2 탐욕 탐색
9.4.3 언덕 오르기
9.5 활용과 탐험
9.6 담금질 기법
9.6.1 비교 241
- 더 읽을거리
- 연습 문제

CHAPTER 10 - 진화학습
10.1 유전 알고리즘
10.1.1 스트링 표현
10.1.2 적합성 평가
10.1.3 개체수
10.1.4 자손 만들기- 부모 선택
10.2 자손 만들기- 유전 연산자
10.2.1 크로스오버
10.2.2 돌연변이
10.2.3 정예주의, 토너먼트, 그리고 틈새
10.3 유전 알고리즘 사용하기
10.3.1 지도 색칠
10.3.2 단절된 균형
10.3.3 예제- 배낭 문제
10.3.4 예제- 포피크 문제
10.3.5 GA의 한계
10.3.6 유전 알고리즘을 사용해서 뉴럴 네트워크 트레이닝하기
10.4 유전 프로그래밍
10.5 샘플링과 유전학습을 접합하기
- 더 읽을거리
- 연습 문제

CHAPTER 11 - 강화학습
11.1 개관
11.2 예제- 길을 잃다
11.2.1 상태 공간과 행동 공간
11.2.2 당근과 채찍- 보상 함수
11.2.3 할인
11.2.4 행동 선택
11.2.5 정책
11.3 마르코프 결정 과정
11.3.1 마르코프 성질
11.3.2 마르코프 결정 과정 확률
11.4 가치
11.5 휴가 예제- 강화학습 사용
11.6 살사와 Q 학습의 다른 점
11.7 강화학습의 사용
- 더 읽을거리
- 연습 문제

CHAPTER 12 - 트리학습
12.1 결정 트리 사용
12.2 결정 트리 만들기
12.2.1 정보 이론의 엔트로피
12.2.2 ID3
12.2.3 트리와 그래프 파이썬으로 구현하기
12.2.4 결정 트리 구현
12.2.5 연속 변수 값 처리하기
12.2.6 계산 복잡도
12.3 분류와 회귀 트리
12.3.1 지니 불순도
12.3.2 회귀 트리
12.4 분류 예시
- 더 읽을거리
- 연습 문제

CHAPTER 13 - 위원회의 결정- 앙상블 학습
13.1 부스팅
13.1.1 아다부스트
13.1.2 스텀핑
13.2 배깅
13.2.1 서브배깅
13.3 랜덤 포레스트
13.3.1 부스팅과 비교하기
13.4 분류기를 종합하는 다른 방법들
- 더 읽을거리
- 연습 문제

CHAPTER 14 - 비지도학습
14.1 k-means 알고리즘
14.1.1 노이즈 다루기
14.1.2 k-means 뉴럴 네트워크
14.1.3 정규화
14.1.4 더 좋은 가중치 갱신 방법
14.1.5 예제- 아이리스 데이터세트
14.1.6 경쟁학습을 군집화에 이용하기
14.2 벡터 양자화
14.3 자기조직화 지도
14.3.1 SOM 알고리즘
14.3.2 이웃 연결
14.3.3 자기조직화
14.3.4 네트워크 차원과 경계 조건
14.3.5 SOM을 이용한 예제
- 더 읽을거리
- 연습 문제

CHAPTER 15 - 마르코프 체인 몬테 카를로
15.1 샘플링
15.1.1 난수
15.1.2 가우시안 난수
15.2 몬테 카를로가 아니면 죽기
15.3 제안 분포
15.4 마르코프 체인 몬테 카를로
15.4.1 마르코프 체인
15.4.2 메트로폴리스 해스팅스 알고리즘
15.4.3 시뮬레이티드 어닐링
15.4.4 깁스 샘플링
- 더 읽을거리
- 연습 문제

CHAPTER 16 - 그래프 모델
16.1 베이지언 네트워크
16.1.1 예제- 시험에 대한 두려움
16.1.2 근사 추론
16.1.3 베이지언 네트워크 만들기
16.2 마르코프 랜덤 필드
16.3 은닉 마르코프 모델
16.3.1 포워드 알고리즘
16.3.2 비터비 알고리즘
16.3.3 바움 웰치 또는 포워드 백워드 알고리즘
16.4 트래킹 방법
16.4.1 칼만 필터
16.4.2 입자 필터
- 더 읽을거리
- 연습 문제

CHAPTER 17 - 대칭 가중치와 심층 신뢰 네트워크
17.1 정력적인 학습- 홉필드 네트워크
17.1.1 연상 기억
17.1.2 연상 기억 만들기
17.1.3 에너지 함수
17.1.4 홉필드 네트워크의 수용력
17.1.5 연속 홉필드 네트워크
17.2 확률 뉴런-볼츠만 머신
17.2.1 제한 볼츠만 머신
17.2.2 CD 알고리즘 유도
17.2.3. 지도학습
17.2.4 유향 신뢰 네트워크
17.3 딥러닝/심층학습
17.3.1 심층 신뢰 네트워크
- 더 읽을거리
- 연습 문제

CHAPTER 18 - 가우시안 프로세스
18.1 가우시안 프로세스 회귀
18.1.1 노이즈 추가하기
18.1.2 구현
18.1.3 파라미터 학습하기
18.1.4 구현
18.1.5 공분산 함수 고르기
18.2 가우시안 프로세스 분류
18.2.1 라플라스 근사
18.2.2 사후 확률 계산
18.2.3 구현
-더 읽을거리
- 연습 문제

APPENDIX A - 파이썬
A.1 파이썬과 다른 패키지들 설치
A.2 시작하기
A.2.1 MATLAB과 R 사용자를 위한 파이썬
A.3 기본 코드
A.3.1 코드 작성하기와 코드 임포팅
A.3.2 흐름 제어
A.3.3 함수
A.3.4 문서 설명글
A.3.5 map과 lambda
A.3.6 예외
A.3.7 클래스
A.4 넘파이와 Matplotlib 사용하기
A.4.1 배열
A.4.2 난수
A.4.3 선형 대수
A.4.4 그래프 그리기
A.4.5 주의 사항
- 더 읽을거리
- 연습 문제

찾아보기

본문중에서

가능하다면 이 책은 일반적인 것에서 구체적인 것으로, 또한 간단한 부분에서 복잡한 쪽으로 관련된 개념들을 각각의 장에서 다루며 진행하려 한다. 알고리즘에 더 집중하고 실습을 통해 배울 수 있도록 확률 개념부터 시작하기보다는 간단하고 오래 사용되었던 알고리즘인 지도학습부터 시작하겠다.
(/ p.15)

손으로 계산해 봤던 OR 예제를 통해서 코드를 동작시켜 보자. OR 데이터를 만들어 내는 것은 쉬운데 코드를 데이터에 동작시키기 위해서는 파일을 읽어야 하고(pcn), pcntrain 함수를 실행시켜야 한다. 아래에는 배열을 설정하고 함수를 실행시키는 방법과 난수로 초기화된 가중치를 사용해서 프로그램의 5번 실행 반복 결과를 보여 주고 있다(가중치는 첫 번째 반복이 지나고 나서 변화하지 않았는데, 물론 난수를 이용했으므로 실행 때마다 다른 결과 값을 보여 줄 것이다).
(/ p.64)

멀티 퍼셉트론에서는 입력 값과 가중치들의 곱이 뉴런의 활성화를 결정하는 임계 값보다 높은지 낮은지에 따라서 은닉 노드들의 활성화를 결정한다. 미분 가능성에 대한 요구 사항을 지키지는 못하지만, 입력과 가중치의 곱의 합을 임계 값과 비교해서 임계 값보다 높으면 활성화하고, 낮으면 비활성화가 선형으로(1차원 함수) 작동한다. 어떤 입력 벡터에 대해서는 여러 개의 뉴런들이 활성화될 수 있고, 뉴런들의 출력 값과 가중치의 곱에 합은 두 번째 은닉층의 뉴런 활성화를 결정한다. 은닉층의 활동은 뉴런들에 분산되어서 다음 층에 입력 값으로 활용된다.
(/ p.131)

MLP나 선형 회귀 문제 등 많은 알고리즘에서 최소제곱 오류법을 사용하였다. 그만큼 많은 분야에서 최적화 문제를 해결할 때 최소제곱법을 보편적으로 사용하고 있으며, 이는 다른 방법에 비해 비교적 쉽게 문제를 해결할 수 있다는 특별한 특징이 연구되었기 때문이다. 이러한 선행 연구 덕분에 최소제곱 문제를 해결하는 특별한 알고리즘 집합들이 생겨났다. 그중에 하나는 매우 잘 알려진 레벤버그 말쿼트(LM, Levenberg-Marquardt) 방법이며, 이는 신뢰 영역 최적화 알고리즘(trust region optimisation algorithm)이다. 이제 LM 알고리즘을 유도하고, 왜 최소제곱 문제가 특별한 경우인지를 살펴본다.
(/ p.225)

입력 공간에 클러스터의 중심을 무작위로 위치시켜서 시작하고, 이를 데이터를 통해서 갱신해 나간다. 각 데이터가 어떤 클러스터에 속하는지는 거리 계산을 통해서 가장 가까운 클러스터의 중심을 갖는 클러스터로 배정한다. 이를 위한 계산 비용은 7.2.2절의 KD 트리 알고리즘을 통해서 줄일 수 있다. 클러스터에 배정된 모든 데이터 점들에 대해서 평균을 구하고 클러스터의 중심을 다시 움직인다. 알고리즘을 클러스터의 중심이 변화하지 않을 때까지 반복하며, 알고리즘은 다음과 같다.
(/ p.330)

관련이미지

저자소개

스티븐 마슬랜드(Stephen Marsland) [저] 신작알림 SMS신청 작가DB보기
생년월일 -
출생지 -
출간도서 0종
판매수 0권

과학 컴퓨팅 분야의 교수이자 뉴질랜드 매시 대학교(Massey University)의 SEAT(School of Engineering and Advanced Technology) 대학원장으로 있다. 주요 관심사는 형태 공간, 오일러 방정식, 머신러닝 및 알고리즘이다. 영국 맨체스터 대학교(University of Manchester)에서 박사 학위를 받았다.

생년월일 -
출생지 -
출간도서 0종
판매수 0권

미국 서던 캘리포니아 대학교(University of Southern California)의 컴퓨터공학 박사 과정에서 머신러닝을 전공하였다. Information Science Institute에서 다양한 인공지능 연구를 수행하였고, 현재는 구글 본사에서 근무 중이다. 추천 알고리즘부터 자연어 처리, 그리고 Best Paper Award를 받은 국제학회 논문을 포함해 30여 편의 논문을 머신러닝 관련 유명 저널에 발표했고, 실리콘밸리의 여러 회사에서 다양한 머신러닝 프로젝트를 수행했다.
? 2008년 아주 대학교 컴퓨터공학부 학사 학위 취득
? 2010년 서던 캘리포니아 대학교에서 컴퓨터공학 석사 학위 취득
? 20

펼쳐보기

이벤트 기획전

리뷰

0.0 (총 0건)

등록된 리뷰중 당선작을 선정하여, 도서상품권을 드립니다.

리뷰쓰기

기대평

작성시 유의사항

평점
0/200자
등록하기

기대평

9.3

교환/환불

교환/환불 방법

‘마이페이지 > 취소/반품/교환/환불’ 에서 신청함, 1:1 문의 게시판 또는 고객센터(1577-2555) 이용 가능

교환/환불 가능 기간

고객변심은 출고완료 다음날부터 14일 까지만 교환/환불이 가능함

교환/환불 비용

고객변심 또는 구매착오의 경우에만 2,500원 택배비를 고객님이 부담함

교환/환불 불가사유

반품접수 없이 반송하거나, 우편으로 보낼 경우 상품 확인이 어려워 환불이 불가할 수 있음
배송된 상품의 분실, 상품포장이 훼손된 경우, 비닐랩핑된 상품의 비닐 개봉시 교환/반품이 불가능함

소비자 피해보상

소비자 피해보상의 분쟁처리 등에 관한 사항은 소비자분쟁해결기준(공정거래위원회 고시)에 따라 비해 보상 받을 수 있음
교환/반품/보증조건 및 품질보증 기준은 소비자기본법에 따른 소비자 분쟁 해결 기준에 따라 피해를 보상 받을 수 있음

기타

도매상 및 제작사 사정에 따라 품절/절판 등의 사유로 주문이 취소될 수 있음(이 경우 인터파크도서에서 고객님께 별도로 연락하여 고지함)

배송안내

  • 인터파크 도서 상품은 택배로 배송되며, 출고완료 1~2일내 상품을 받아 보실 수 있습니다

  • 출고가능 시간이 서로 다른 상품을 함께 주문할 경우 출고가능 시간이 가장 긴 상품을 기준으로 배송됩니다.

  • 군부대, 교도소 등 특정기관은 우체국 택배만 배송가능하여, 인터파크 외 타업체 배송상품인 경우 발송되지 않을 수 있습니다.

  • 배송비

도서(중고도서 포함) 구매

2,000원 (1만원이상 구매 시 무료배송)

음반/DVD/잡지/만화 구매

2,000원 (2만원이상 구매 시 무료배송)

도서와 음반/DVD/잡지/만화/
중고직배송상품을 함께 구매

2,000원 (1만원이상 구매 시 무료배송)

업체직접배송상품 구매

업체별 상이한 배송비 적용