10가지 프로젝트로 끝내는 트랜스포머 활용 가이드 with 파이토치 > 나라별 에세이

본문 바로가기
쇼핑몰 검색
  • 회원가입
    2000

    로그인

    다양한 서비스와 이벤트 혜택을 누리실 수 있습니다.

    아이디 비밀번호
10가지 프로젝트로 끝내는 트랜스포머 활용 가이드 with 파이토치 > 나라별 에세이

10가지 프로젝트로 끝내는 트랜스포머 활용 가이드 with 파이토치 요약정보 및 구매

기본설명

상품 선택옵션 0 개, 추가옵션 0 개

제조사 루비페이퍼
원산지 국내산
브랜드 루비페이퍼
시중가격 28,000원
판매가격 28,000원
배송비결제 주문시 결제
최소구매수량 1 개
최대구매수량 999 개

선택된 옵션

  • 10가지 프로젝트로 끝내는 트랜스포머 활용 가이드 with 파이토치
    +0원
위시리스트

관련상품

등록된 상품이 없습니다.

  • 상품정보
  • 사용후기 0
  • 상품문의 0
  • 배송정보
  • 교환정보
  • 상품정보

    상품 기본설명

    기본설명

    상품 상세설명

    10가지 프로젝트로 끝내는 트랜스포머 활용 가이드 with 파이토치

    9791193083277.jpg

    도서명:10가지 프로젝트로 끝내는 트랜스포머 활용 가이드 with 파이토치
    저자/출판사:프렘 팀시나/루비페이퍼
    쪽수:292쪽
    출판일:2025-02-07
    ISBN:9791193083277

    목차
    01장 트랜스포머 아키텍처
    _01.1 NLP 모델 발전사
    __01.1.1 순환 신경망(RNN)
    __01.1.2 LSTM
    __01.1.3 RNN 인코더-디코더
    __01.1.4 어텐션 메커니즘
    _01.2 트랜스포머 아키텍처
    __01.2.1 임베딩
    __01.2.2 위치 인코딩
    __01.2.3 모델 입력
    __01.2.4 인코더 층
    __01.2.5 어텐션 메커니즘
    _01.3 트랜스포머 학습 프로세스
    _01.4 트랜스포머 추론 프로세스
    _01.5 트랜스포머 종류와 애플리케이션
    __01.5.1 인코더 전용 모델
    __01.5.2 디코더 전용 모델
    __01.5.3 인코더-디코더 모델

    02장 허깅페이스 생태계
    _02.1 허깅페이스 개요
    __02.1.1 주요 구성 요소
    __02.1.2 토크나이저
    __02.1.3 커스텀 토크나이저 생성
    __02.1.4 허깅페이스 사전 학습 토크나이저 사용
    _02.2 Datasets 라이브러리
    __02.2.1 허깅페이스 데이터셋 사용
    __02.2.2 파이토치에서 허깅페이스 데이터셋 사용
    _02.3 모델 파인튜닝
    __02.3.1 환경 설정
    __02.3.2 학습
    __02.3.3 추론
    _02.4 허깅페이스 모델 공유
    __02.4.1 모델(Model) 공유
    __02.4.2 스페이스(Spaces) 사용

    03장 파이토치 트랜스포머 모델
    _03.1 파이토치 트랜스포머 구성 요소
    _03.2 임베딩
    __03.2.1 임베딩 층 구현
    _03.3 위치 인코딩
    _03.4 마스킹
    _03.5 트랜스포머 인코더 구성 요소
    _03.6 트랜스포머 디코더 구성 요소
    _03.7 파이토치 트랜스포머 층

    04장 파이토치와 허깅페이스를 사용한 전이 학습
    _04.1 전이 학습 필요성
    _04.2 전이 학습 사용법
    _04.3 사전 학습 모델 저장소
    _04.4 사전 학습 모델
    __04.4.1 자연어 처리(NLP)
    __04.4.2 컴퓨터 비전
    __04.4.3 음성 처리
    _04.5 프로젝트 1: BERT-base-uncased 모델 파인튜닝으로 분류기 생성
    __04.5.1 커스텀 데이터셋 클래스
    __04.5.2 DataLoader 생성
    __04.5.3 추론

    05장 대규모 언어 모델
    _05.1 대규모 언어 모델(LLM)
    _05.2 성능을 결정하는 핵심 요인
    __05.2.1 네트워크 사이즈: 인코더 층과 디코더 층 개수
    _05.3 선도적인 LLM
    __05.3.1 BERT 및 계열 모델
    __05.3.2 GPT
    __05.3.3 BART
    _05.4 커스텀 LLM 생성
    __05.4.1 Clincal-BERT 구현

    06장 트랜스포머 NLP 작업
    _06.1 NLP 작업
    _06.2 텍스트 분류
    __06.2.1 텍스트 분류에 알맞은 아키텍처
    __06.2.2 트랜스포머 파인튜닝으로 텍스트 분류하기
    __06.2.3 긴 시퀀스 처리
    __06.2.4 문서 청킹 구현 예제
    __06.2.5 계층적 어텐션 구현 예제
    _06.3 텍스트 생성
    __06.3.1 프로젝트 2: 셰익스피어가 쓴 것 같은 텍스트 생성
    _06.4 트랜스포머 챗봇
    __06.4.1 프로젝트 3: 클리닉 질의 응답(AI 의사) 트랜스포머
    _06.5 PEFT 및 LoRA로 학습하기

    07장 컴퓨터 비전(CV) 모델
    _07.1 이미지 전처리
    __07.1.1 이미지 전처리 예제
    _07.2 Vision 트랜스포머 아키텍처
    __07.2.1 프로젝트 4: AI 안과 의사
    _07.3 Distillation 트랜스포머
    __07.3.1 DeiT의 사전 학습 과정
    __07.3.1 DeiT의 장점
    _07.4 Detection 트랜스포머
    __07.4.1 프로젝트 5: 객체 탐지 모델

    08장 트랜스포머 컴퓨터 비전 작업
    _08.1 컴퓨터 비전 작업
    __08.1.1 이미지 분류
    __08.1.2 이미지 세그멘테이션
    __08.1.3 프로젝트 6: **** 계산기용 이미지 세그멘테이션
    _08.2 디퓨전 모델: 비조건부 이미지 생성
    __08.2.1 포워드 디퓨전
    __08.2.2 백워드 디퓨전
    __08.2.3 추론 프로세스
    __08.2.4 학습 가능(Learnable) 파라미터
    __08.2.5 DogGenDiffuion 프로젝트 구현

    09장 음성 처리 모델
    _09.1 음성 처리
    __09.1.1 음성 전처리 예제
    _09.2 Whisper 모델
    __09.2.1 Whisper_Nep 모델 개발 과정
    _09.3 Wav2Vec 모델
    __09.3.1 Wav2Vec 애플리케이션
    _09.4 Speech T5 모델
    __09.4.1 입출력 표현(Representation)
    __09.4.2 크로스 모달 표현
    __09.4.3 인코더-디코더 아키텍처
    __09.4.4 사전 학습
    __09.4.5 파인튜닝 및 애플리케이션
    _09.5 Whisper, Wav2Vec 2.0, SpeechT5 비교

    10장 트랜스포머 음성 처리 작업
    _10.1 음성 처리 작업
    __10.1.1 음성 to 텍스트(Speech to text)
    __10.1.2 프로젝트 7: Whisper를 사용한 음성 to 텍스트 변환
    _10.2 텍스트 to 음성 변환
    __10.2.1 프로젝트8: 텍스트 to 음성 변환
    _10.3 오디오 to 오디오 변환
    __10.3.1 프로젝트9: 노이즈 제거로 오디오 품질 개선

    11장 테이블 데이터 처리를 위한 트랜스포머
    _11.1 트랜스포머를 사용한 테이블 데이터 처리
    __11.1.1 TAPAS 아키텍처
    _11.2 TabTransformer 아키텍처
    _11.3 FT Transformer 아키텍처
    __11.3.1 피처 토크나이저
    __11.3.2 수치형과 범주형 특성 병합
    __11.3.3 트랜스포머

    12장 테이블 데이터 회귀 및 분류 작업용 트랜스포머
    _12.1 분류 작업용 트랜스포머
    __12.1.1 데이터셋
    __12.1.2 타깃 변수
    __12.1.3 데이터 전처리
    __12.1.4 설정
    __12.1.5 세 모델로 학습 및 평가
    __12.1.6 평가 결과
    __12.1.7 분석
    _12.2 회귀 작업용 트랜스포머
    __12.2.1 데이터셋
    __12.2.2 데이터 전처리
    __12.2.3 설정
    __12.2.4 학습 및 평가

    13장 멀티모달 트랜스포머
    _13.1 멀티모달 아키텍처
    __13.1.1 ImageBind
    __13.1.2 CLIP
    _13.2 멀티모달 작업
    __13.2.1 피처 추출
    __13.2.2 텍스트 to 이미지
    __13.2.3 이미지 to 텍스트
    __13.2.4 비주얼 질의 응답

    14장 트랜스포머 강화 학습
    _14.1 강화 학습
    _14.2 강화 학습용 파이토치 테크닉(모델)
    __14.2.1 Stable Baseline3
    __14.2.2 Gymnasium
    _14.3 강화 학습 수행 방법
    _14.4 강화 학습용 트랜스포머
    __14.4.1 Decision 트랜스포머
    __14.4.2 Trajectory 트랜스포머

    15장 모델 내보내기, 서빙, 배포
    _15.1 프로젝트 10: 모델 내보내기 및 직렬화
    __15.1.1 파이토치 모델 내보내기 및 불러오기
    __15.1.2 여러 모델 저장
    _15.2 모델 ONNX 포맷으로 모델 내보내기
    _15.3 FastAPI로 모델 서빙하기
    __15.3.1 FastAPI의 장점
    __15.3.2 모델 서빙용 FastAPI 애플리케이션
    __15.3.3 시맨틱 세그멘테이션 모델 서빙용 FastAPI
    _15.4 모바일 디바이스에서 파이토치 모델 서빙하기
    _15.5 AWS에서 허깅페이스 트랜스포머 모델 배포하기
    __15.5.1 아마존 SageMaker를 통한 배포
    __15.5.2 AWS Lamda 및 아마존 API Gateway를 통한 배포

    16장 트랜스포머 모델 해석가능성 및 시각화
    _16.1 설명가능성 vs 해석가능성 개념
    __16.1.1 해석가능성
    __16.1.2 설명가능성
    _16.2 설명가능성 및 해석가능성 툴
    _16.3 트랜스포머 예측 해석 용도의 CAPTUM
    __16.3.1 모델 불러오기
    __16.3.2 입력 준비
    __16.3.3 층(레이어) 적분 그레이디언트
    __16.3.4 시각화
    _16.4 파이토치 모델용 텐서보드

    17장 파이토치 모델의 모범 사례 및 디버깅
    _17.1 트랜스포머 모델 구현 모범 사례
    __17.1.1 허깅페이스 활용
    __17.1.2 파이토치 모델에 대한 일반적인 고려 사항
    _17.2 파이토치 디버깅 기술
    __17.2.1 구문 에러
    __17.2.2 런타임 에러
    __17.2.3 논리적(Logical) 에러
    __17.2.4 파이토치 ML 모델 디버깅에 대한 일반 가이드라인
    delivery.jpg
  • 사용후기

    등록된 사용후기

    사용후기가 없습니다.

  • 상품문의

    등록된 상품문의

    상품문의가 없습니다.

  • 배송정보

    배송정보

    배송업체 : 한진택배 (1588-0011)
     배송비
     2,500원 (25,000원 이상 구매 시 무료 배송/일부상품제외) 군부대 및 도서산간 지역은 추가 배송비가 발생할 수 있습니다.
     ◆배송기간
     : 평일 오전 7시 이전 주문 시 당일 발송 (2~3일 소요) : 단, 공휴일, 연휴, 천재지변 등으로 인해 발송이 지연될 수 있습니다.
     ◆배송추적
     : 당일 발송건에 한해 익일 오전 9시 이후 확인 가능합니다.


  • 교환정보

    교환/반품

     ◆반품/교환을 원하는 경우 반드시 고객센터로 연락 후 신청하시기 바랍니다.
     ◆반품/교환은 상품 수령일로 부터 7일 이내에만 가능합니다. 단, 상품이 훼손되지 않았거나, 속 비닐이 있는 경우 듣지 않았을    때 가능합니다.
     •고객님의 변심 또는 잘못 주문하신 경우에는 왕복 배송비는 고객님의 부담입니다.
     ◆오배송, 파본, 불량 상품에 대해서는 고객센터로 연락주시면 상담 후 교환해 드립니다.
     ◆오배송, 파본, 불량상품의 배송비는 환불처에서 부담합니다.
     교환/반품
     ◆환불은 상품이 환불에 도착 시 처리됩니다. (카드 취소는 3~5일이 소요될 수 있습니다.)

장바구니

오늘본상품

오늘 본 상품

  • 10가지 프로젝트로 끝내는 트랜스포머 활용 가이드 with 파이토치
    10가지 프로젝트로 28,000
  • 별빛 너머의 별
    별빛 너머의 별 18,000
  • 데생 상표법 피날레
    데생 상표법 피날레 20,000
  • 리얼 교토: 오사카 고베 나라(2024~2025)
    리얼 교토: 오사카 18,000
  • 리얼 나고야 2025~2026: 다카야마 게로 시라카와고
    리얼 나고야 202 18,000
  • 내가 미운 날도, 내가 애틋한 날도
    내가 미운 날도, 15,000
  • 우리 집에 왜 왔어
    우리 집에 왜 왔어 15,000
  • 리얼 규슈 소도시(2025~2026)
    리얼 규슈 소도시( 21,000
  • 망그러진 만화 2
    망그러진 만화 2 17,500
  • 리얼 후쿠오카(2024~2025)
    리얼 후쿠오카(20 17,000
  • 엑셀 데이터 분석 with 챗GPT
    엑셀 데이터 분석 30,000
  • 사랑에 관한 거의 모든 기술
    사랑에 관한 거의 16,800
  • 2024 메가랜드 공인중개사 정동섭 민법 Master Book 핵심 요약서
    2024 메가랜드 18,000
  • 쓸수록 선명해진다
    쓸수록 선명해진다 17,800
  • 나는 당신의 아이가 키가 컸으면 좋겠습니다
    나는 당신의 아이가 18,000
  • 하루 3분, 세상에서 가장 쉬운 IT 수업
    하루 3분, 세상에 18,000
  • 현자의 돌 생활과 윤리 시즌2 파이널 모의고사 & 9평 분석서(2024)(2025 수능대비)
    현자의 돌 생활과 35,000
  • 희망 구슬
    희망 구슬 15,000
  • 박준범의 합격하는 Quiz특강
    박준범의 합격하는 29,000
  • 50, 설렘의 시작
    50, 설렘의 시작 18,000
  • 미래의 하양
    미래의 하양 12,000
  • 좋아서 하는 기록
    좋아서 하는 기록 19,000
  • RAG 시스템 구축을 위한 랭체인 실전 가이드
    RAG 시스템 구축 26,000
  • 중국성어사전
    중국성어사전 15,000
  • 이야기는 오래 산다
    이야기는 오래 산다 18,000
  • 마음의 꽃수들
    마음의 꽃수들 18,000
  • 리얼 괌(2024~2025)
    리얼 괌(2024~ 18,000
  • 나에게 지금
    나에게 지금 13,000
  • 아리아드네의 목소리
    아리아드네의 목소리 17,800
  • MLOps 구축 가이드북
    MLOps 구축 가 36,000
  • 새벽 별을 걸고
    새벽 별을 걸고 12,000
  • 새의 몸속에서 숲이 태어난다
    새의 몸속에서 숲이 10,000
  • 모든 것은 기본에서 시작한다(큰글자책)
    모든 것은 기본에서 28,000
  • 하루 15분 영어책 읽기의 기적
    하루 15분 영어책 18,500
  • 지중해낙양교토
    지중해낙양교토 20,000
  • 어쩌면 가장 보통의 인간
    어쩌면 가장 보통의 16,800
  • 삶의 반대편에 들판이 있다면
    삶의 반대편에 들판 18,000
  • 2024 김성수 논리회계학 재무회계 기본서
    2024 김성수 논 49,500
  • 킹더랜드 포토에세이
    킹더랜드 포토에세이 19,800
  • 꽃이 가득한 아름다운 날이에요
    꽃이 가득한 아름다 29,500
  • 데일리 프롬프트 101
    데일리 프롬프트 1 20,000
  • 한권 한달 완성 일본어 말하기 Lv 2
    한권 한달 완성 일 16,800
  • Choice English Voca
    Choice Eng 19,000
  • 누구보다 행복하고 싶은 너에게
    누구보다 행복하고 16,800
  • 혼자 있는 시간이 나를 만든다
    혼자 있는 시간이 18,000
  • 2023 메가랜드 공인중개사 1차 실전 모의고사
    2023 메가랜드 22,000
  • 해님의 신바람
    해님의 신바람 10,000
  • 그린 라이트 다이어트
    그린 라이트 다이어 17,000
  • 부자의 공부법
    부자의 공부법 18,800
  • 무엇이 당신에게 위로가 될 수 있을까
    무엇이 당신에게 위 12,000
  • 리얼 스페인(2025~2026)
    리얼 스페인(202 20,000
  • 2024 선재국어 최종 점검 파이널 모의고사
    2024 선재국어 11,000
  • 기회를 주세요
    기회를 주세요 14,000
  • 리얼 오사카: 교토 고베 나라(2025~2026)
    리얼 오사카: 교토 19,000
  • 행복은 곳곳에
    행복은 곳곳에 15,000
  • 2024 기출모의 지문사전 부동산등기법
    2024 기출모의 36,000
  • 연가
    연가 13,000
  • 이제 이 길밖에 없습니다
    이제 이 길밖에 없 18,000
  • 조재선의 글스토랑
    조재선의 글스토랑 20,000
  • 백두대간
    백두대간 18,000
  • 2024 세무사 객관식 행정소송법
    2024 세무사 객 36,000
  • 꽃은 피고 핀다
    꽃은 피고 핀다 13,000
  • 어싱광장에서 만난 사람들
    어싱광장에서 만난 22,000
  • 길에서 만난 세계사 2
    길에서 만난 세계사 15,000
  • 코번트가든의 여자들
    코번트가든의 여자들 22,000
  • 수촌리 언덕
    수촌리 언덕 12,000
  • 2024 MOOK 객관식 부동산학원론 기출문제 및 예상문제집
    2024 MOOK 32,000
  • 4주 완성 독해력 1단계(초등1~2학년)(2024)
    4주 완성 독해력 10,500
  • 내가 버린 애인은 울고 있을까
    내가 버린 애인은 12,000
  • 2024 식품안전관리지침
    2024 식품안전관 70,000
  • 실감콘텐츠 산업분야 취업가이드
    실감콘텐츠 산업분야 32,000
  • EBS 연계 파이널 국어 전형태 모의고사(3회분)(2024)(2025 수능대비)
    EBS 연계 파이널 27,000
  • LawMan 형사소송법 조문해설 및 판례법리
    LawMan 형사소 19,000
  • 정언명령 행정법 쟁점암기장
    정언명령 행정법 쟁 24,000
  • 희망대로 오십사번지
    희망대로 오십사번지 22,000
  • 작은 생명은 없다
    작은 생명은 없다 17,000
  • 와인과 페어링
    와인과 페어링 16,700
  • 느리게 살면
    느리게 살면 15,000
  • 2024 메가랜드 공인중개사 1차 부동산학개론 올인원 기본서
    2024 메가랜드 37,000

위시리스트

  • 보관 내역이 없습니다.
회사명 경기책방 주소 경기도 파주시 조리읍 장미꽃길 157-161
사업자 등록번호 6829601269 대표 오주봉 전화 02-356-5779 팩스 02-356-5779
통신판매업신고번호 제2021-경기파주-1335호 개인정보 보호책임자 오주봉

Copyright © 2001-2013 경기책방. All Rights Reserved.