LLM을 활용한 실전 AI 애플리케이션 개발 > 나라별 에세이

본문 바로가기
쇼핑몰 검색
  • 회원가입
    2000

    로그인

    다양한 서비스와 이벤트 혜택을 누리실 수 있습니다.

    아이디 비밀번호
LLM을 활용한 실전 AI 애플리케이션 개발 > 나라별 에세이

LLM을 활용한 실전 AI 애플리케이션 개발 요약정보 및 구매

기본설명

상품 선택옵션 0 개, 추가옵션 0 개

제조사 책만
원산지 국내산
브랜드 책만
시중가격 32,000원
판매가격 32,000원
배송비결제 주문시 결제
최소구매수량 1 개
최대구매수량 999 개

선택된 옵션

  • LLM을 활용한 실전 AI 애플리케이션 개발
    +0원
위시리스트

관련상품

등록된 상품이 없습니다.

  • 상품정보
  • 사용후기 0
  • 상품문의 0
  • 배송정보
  • 교환정보
  • 상품정보

    상품 기본설명

    기본설명

    상품 상세설명

    LLM을 활용한 실전 AI 애플리케이션 개발

    9791189909703.jpg

    도서명:LLM을 활용한 실전 AI 애플리케이션 개발
    저자/출판사:허정준/책만
    쪽수:556쪽
    출판일:2024-07-25
    ISBN:9791189909703

    목차
    [1부] LLM의 기초 뼈대 세우기
    1장 LLM 지도
    1.1 딥러닝과 언어 모델링
    __1.1.1 데이터의 특징을 스스로 추출하는 딥러닝
    __1.1.2 임베딩: 딥러닝 모델이 데이터를 표현하는 방식
    __1.1.3 언어 모델링: 딥러닝 모델의 언어 학습법
    1.2 언어 모델이 챗GPT가 되기까지
    __1.2.1 RNN에서 트랜스포머 아키텍처로
    __1.2.2 GPT 시리즈로 보는 모델 크기와 성능의 관계
    __1.2.3 챗GPT의 등장
    1.3 LLM 애플리케이션의 시대가 열리다
    __1.3.1 지식 사용법을 획기적으로 바꾼 LLM
    __1.3.2 sLLM: 더 작고 효율적인 모델 만들기
    __1.3.3 더 효율적인 학습과 추론을 위한 기술
    __1.3.4 LLM의 환각 현상을 대처하는 검색 증강 생성(RAG) 기술
    1.4 LLM의 미래: 인식과 행동의 확장
    1.5 정리

    2장 LLM의 중추, 트랜스포머 아키텍처 살펴보기
    2.1 트랜스포머 아키텍처란
    2.2 텍스트를 임베딩으로 변환하기
    __2.2.1 토큰화
    __2.2.2 토큰 임베딩으로 변환하기
    __2.2.3 위치 인코딩
    2.3 어텐션 이해하기
    __2.3.1 사람이 글을 읽는 방법과 어텐션
    __2.3.2 쿼리, 키, 값 이해하기
    __2.3.3 코드로 보는 어텐션
    __2.3.4 멀티 헤드 어텐션
    2.4 정규화와 피드 포워드 층
    __2.4.1 층 정규화 이해하기
    __2.4.2 피드 포워드 층
    2.5 인코더
    2.6 디코더
    2.7 BERT, GPT, T5 등 트랜스포머를 활용한 아키텍처
    __2.7.1 인코더를 활용한 BERT
    __2.7.2 디코더를 활용한 GPT
    __2.7.3 인코더와 디코더를 모두 사용하는 BART, T5
    2.8 주요 사전 학습 메커니즘
    __2.8.1 인과적 언어 모델링
    __2.8.2 마스크 언어 모델링
    2.9 정리

    3장 트랜스포머 모델을 다루기 위한 허깅페이스 트랜스포머 라이브러리
    3.1 허깅페이스 트랜스포머란
    3.2 허깅페이스 허브 탐색하기
    __3.2.1 모델 허브
    __3.2.2 데이터셋 허브
    __3.2.3 모델 데모를 공개하고 사용할 수 있는 스페이스
    3.3 허깅페이스 라이브러리 사용법 익히기
    __3.3.1 모델 활용하기
    __3.3.2 토크나이저 활용하기
    __3.3.3 데이터셋 활용하기
    3.4 모델 학습시키기
    __3.4.1 데이터 준비
    __3.4.2 트레이너 API를 사용해 학습하기
    __3.4.3 트레이너 API를 사용하지 않고 학습하기
    __3.4.4 학습한 모델 업로드하기
    3.5 모델 추론하기
    __3.5.1 파이프라인을 활용한 추론
    __3.5.2 직접 추론하기
    3.6 정리

    4장 말 잘 듣는 모델 만들기
    4.1 코딩 테스트 통과하기: 사전 학습과 지도 미세 조정
    __4.1.1 코딩 개념 익히기: LLM의 사전 학습
    __4.1.2 연습문제 풀어보기: 지도 미세 조정
    __4.1.3 좋은 지시 데이터셋이 갖춰야 할 조건
    4.2 채점 모델로 코드 가독성 높이기
    __4.2.1 선호 데이터셋을 사용한 채점 모델 만들기
    __4.2.2 강화 학습: 높은 코드 가독성 점수를 향해
    __4.2.3 PPO: 보상 해킹 피하기
    __4.2.4 RLHF: 멋지지만 피할 수 있다면…
    4.3 강화 학습이 꼭 필요할까?
    __4.3.1 기각 샘플링: 단순히 가장 점수가 높은 데이터를 사용한다면?
    __4.3.2 DPO: 선호 데이터셋을 직접 학습하기
    __4.3.3 DPO를 사용해 학습한 모델들
    4.4 정리

    [2부 LLM 길들이기]
    5장 GPU 효율적인 학습
    5.1 GPU에 올라가는 데이터 살펴보기
    __5.1.1 딥러닝 모델의 데이터 타입
    __5.1.2 양자화로 모델 용량 줄이기
    __5.1.3 GPU 메모리 분해하기
    5.2 단일 GPU 효율적으로 활용하기
    __5.2.1 그레이디언트 누적
    __5.2.2 그레이디언트 체크포인팅
    5.3 분산 학습과 ZeRO
    __5.3.1 분산 학습
    __5.3.2 데이터 병렬화에서 중복 저장 줄이기(ZeRO)
    5.4 효율적인 학습 방법(PEFT): LoRA
    __5.4.1 모델 파라미터의 일부만 재구성해 학습하는 LoRA
    __5.4.2 LoRA 설정 살펴보기
    __5.4.3 코드로 LoRA 학습 사용하기
    5.5 효율적인 학습 방법(PEFT): QLoRA
    __5.5.1 4비트 양자화와 2차 양자화
    __5.5.2 페이지 옵티마이저
    __5.5.3 코드로 QLoRA 모델 활용하기
    5.6 정리

    6장 sLLM 학습하기
    6.1 Text2SQL 데이터셋
    __6.1.1 대표적인 Text2SQL 데이터셋
    __6.1.2 한국어 데이터셋
    __6.1.3 합성 데이터 활용
    6.2 성능 평가 파이프라인 준비하기
    __6.2.1 Text2SQL 평가 방식
    __6.2.2 평가 데이터셋 구축
    __6.2.3 SQL 생성 프롬프트
    __6.2.4 GPT-4 평가 프롬프트와 코드 준비
    6.3 실습: 미세 조정 수행하기
    __6.3.1 기초 모델 평가하기
    __6.3.2 미세 조정 수행
    __6.3.3 학습 데이터 정제와 미세 조정
    __6.3.4 기초 모델 변경
    __6.3.5 모델 성능 비교
    6.4 정리

    7장 모델 가볍게 만들기
    7.1 언어 모델 추론 이해하기
    __7.1.1 언어 모델이 언어를 생성하는 방법
    __7.1.2 중복 연산을 줄이는 KV 캐시
    __7.1.3 GPU 구조와 최적의 배치 크기
    __7.1.4 KV 캐시 메모리 줄이기
    7.2 양자화로 모델 용량 줄이기
    __7.2.1 비츠앤바이츠
    __7.2.2 GPTQ
    __7.2.3 AWQ
    7.3 지식 증류 활용하기
    7.4 정리

    8장 sLLM 서빙하기
    8.1 효율적인 배치 전략
    __8.1.1 일반 배치(정적 배치)
    __8.1.2 동적 배치
    __8.1.3 연속 배치
    8.2 효율적인 트랜스포머 연산
    __8.2.1 플래시어텐션
    __8.2.2 플래시어텐션 2
    __8.2.3 상대적 위치 인코딩
    8.3 효율적인 추론 전략
    __8.3.1 커널 퓨전
    __8.3.2 페이지어텐션
    __8.3.3 추측 디코딩
    8.4 실습: LLM 서빙 프레임워크
    __8.4.1 오프라인 서빙
    __8.4.2 온라인 서빙
    8.5 정리

    [3부] LLM을 활용한 실전 애플리케이션 개발
    9장 LLM 애플리케이션 개발하기
    9.1 검색 증강 생성(RAG)
    __9.1.1 데이터 저장
    __9.1.2 프롬프트에 검색 결과 통합
    __9.1.3 실습: 라마인덱스로 RAG 구현하기
    9.2 LLM 캐시
    __9.2.1 LLM 캐시 작동 원리
    __9.2.2 실습: OpenAI API 캐시 구현
    9.3 데이터 검증
    __9.3.1 데이터 검증 방식
    __9.3.2 데이터 검증 실습
    9.4 데이터 로깅
    __9.4.1 OpenAI API 로깅
    __9.4.2 라마인덱스 로깅
    9.5 정리

    10장 임베딩 모델로 데이터 의미 압축하기
    10.1 텍스트 임베딩 이해하기
    __10.1.1 문장 임베딩 방식의 장점
    __10.1.2 원핫 인코딩
    __10.1.3 백오브워즈
    __10.1.4 TF-IDF
    __10.1.5 워드투벡
    10.2 문장 임베딩 방식
    __10.2.1 문장 사이의 관계를 계산하는 두 가지 방법
    __10.2.2 바이 인코더 모델 구조
    __10.2.3 Sentence-Transformers로 텍스트와 이미지 임베딩 생성해 보기
    __10.2.4 오픈소스와 상업용 임베딩 모델 비교하기
    10.3 실습: 의미 검색 구현하기
    __10.3.1 의미 검색 구현하기
    __10.3.2 라마인덱스에서 Sentence-Transformers 모델 사용하기
    10.4 검색 방식을 조합해 성능 높이기
    __10.4.1 키워드 검색 방식: BM25
    __10.4.2 상호 순위 조합 이해하기
    10.5 실습: 하이브리드 검색 구현하기
    __10.5.1 BM25 구현하기
    __10.5.2 상호 순위 조합 구현하기
    __10.5.3 하이브리드 검색 구현하기
    10.6 정리

    11장 자신의 데이터에 맞춘 임베딩 모델 만들기: RAG 개선하기
    11.1 검색 성능을 높이기 위한 두 가지 방법
    11.2 언어 모델을 임베딩 모델로 만들기
    __11.2.1 대조 학습
    __11.2.2 실습: 학습 준비하기
    __11.2.3 실습: 유사한 문장 데이터로 임베딩 모델 학습하기
    11.3 임베딩 모델 미세 조정하기
    __11.3.1 실습: 학습 준비
    __11.3.2 MNR 손실을 활용해 미세 조정하기
    11.4 검색 품질을 높이는 순위 재정렬
    11.5 바이 인코더와 교차 인코더로 개선된 RAG 구현하기
    __11.5.1 기본 임베딩 모델로 검색하기
    __11.5.2 미세 조정한 임베딩 모델로 검색하기
    __11.5.3 미세 조정한 임베딩 모델과 교차 인코더 조합하기
    11.6 정리

    12장 벡터 데이터베이스로 확장하기: RAG 구현하기
    12.1 벡터 데이터베이스란
    __12.1.1 딥러닝과 벡터 데이터베이스
    __12.1.2 벡터 데이터베이스 지형 파악하기
    12.2 벡터 데이터베이스 작동 원리
    __12.2.1 KNN 검색과 그 한계
    __12.2.2 ANN 검색이란
    __12.2.3 탐색 가능한 작은 세계(NSW)
    __12.2.4 계층 구조
    12.3 실습: HNSW 인덱스의 핵심 파라미터 이해하기
    __12.3.1 파라미터 m 이해하기
    __12.3.2 파라미터 ef_construction 이해하기
    __12.3.3 파라미터 ef_search 이해하기
    12.4 실습: 파인콘으로 벡터 검색 구현하기
    __12.4.1 파인콘 클라이언트 사용법
    __12.4.2 라마인덱스에서 벡터 데이터베이스 변경하기
    12.5 실습: 파인콘을 활용해 멀티 모달 검색 구현하기
    __12.5.1 데이터셋
    __12.5.2 실습 흐름
    __12.5.3 GPT-4o로 이미지 설명 생성하기
    __12.5.4 프롬프트 저장
    __12.5.5 이미지 임베딩 검색
    __12.5.6 DALL-E 3로 이미지 생성
    12.6 정리

    13장 LLM 운영하기
    13.1 MLOps
    __13.1.1 데이터 관리
    __13.1.2 실험 관리
    __13.1.3 모델 저장소
    __13.1.4 모델 모니터링
    13.2 LLMOps는 무엇이 다를까?
    __13.2.1 상업용 모델과 오픈소스 모델 선택하기
    __13.2.2 모델 최적화 방법의 변화
    __13.2.3 LLM 평가의 어려움
    13.3 LLM 평가하기
    __13.3.1 정량적 지표
    __13.3.2 벤치마크 데이터셋을 활용한 평가
    __13.3.3 사람이 직접 평가하는 방식
    __13.3.4 LLM을 통한 평가
    __13.3.4 RAG 평가
    13.4 정리

    [4부] 멀티 모달, 에이전트 그리고 LLM의 미래
    14장 멀티 모달
    LLM 14.1 멀티 모달 LLM이란
    __14.1.1 멀티 모달 LLM의 구성요소
    __14.1.2 멀티 모달 LLM 학습 과정
    14.2 이미지와 텍스트를 연결하는 모델: CLIP
    __14.2.1 CLIP 모델이란
    __14.2.2 CLIP 모델의 학습 방법
    __14.2.3 CLIP 모델의 활용과 뛰어난 성능
    __14.2.4 CLIP 모델 직접 활용하기
    14.3 텍스트로 이미지를 생성하는 모델: DALL-E
    __14.3.1 디퓨전 모델 원리
    __14.3.2 DALL-E 모델
    14.4 LLaVA
    __14.4.1 LLaVA의 학습 데이터
    __14.4.2 LLaVA 모델 구조
    __14.4.3 LLaVA 1.5
    __14.4.4 LLaVA NeXT
    14.5 정리

    15장 LLM 에이전트
    15.1 에이전트란
    __15.1.1 에이전트의 구성요소
    __15.1.2 에이전트의 두뇌
    __15.1.3 에이전트의 감각
    __15.1.4 에이전트의 행동
    15.2 에이전트 시스템의 형태
    __15.2.1 단일 에이전트
    __15.2.2 사용자와 에이전트의 상호작용
    __15.2.3 멀티 에이전트
    15.3 에이전트 평가하기
    15.4 실습: 에이전트 구현
    __15.4.1 AutoGen 기본 사용법
    __15.4.2 RAG 에이전트
    __15.4.3 멀티 모달 에이전트
    15.5 정리

    16장 새로운 아키텍처
    16.1 기존 아키텍처의 장단점
    16.2 SSM
    __16.2.1 S4
    16.3 선택 메커니즘
    16.4 맘바
    __16.4.1 맘바의 성능
    __16.4.2 기존 아키텍처와의 비교
    16.5 코드로 보는 맘바

    부록 | 실습을 위한 준비사항
    A.1 구글 코랩 사용법
    A.2 허깅페이스 토큰
    A.3 OpenAI 토큰
    delivery.jpg
  • 사용후기

    등록된 사용후기

    사용후기가 없습니다.

  • 상품문의

    등록된 상품문의

    상품문의가 없습니다.

  • 배송정보

    배송정보

    배송업체 : 한진택배 (1588-0011)
     배송비
     2,500원 (25,000원 이상 구매 시 무료 배송/일부상품제외) 군부대 및 도서산간 지역은 추가 배송비가 발생할 수 있습니다.
     ◆배송기간
     : 평일 오전 7시 이전 주문 시 당일 발송 (2~3일 소요) : 단, 공휴일, 연휴, 천재지변 등으로 인해 발송이 지연될 수 있습니다.
     ◆배송추적
     : 당일 발송건에 한해 익일 오전 9시 이후 확인 가능합니다.


  • 교환정보

    교환/반품

     ◆반품/교환을 원하는 경우 반드시 고객센터로 연락 후 신청하시기 바랍니다.
     ◆반품/교환은 상품 수령일로 부터 7일 이내에만 가능합니다. 단, 상품이 훼손되지 않았거나, 속 비닐이 있는 경우 듣지 않았을    때 가능합니다.
     •고객님의 변심 또는 잘못 주문하신 경우에는 왕복 배송비는 고객님의 부담입니다.
     ◆오배송, 파본, 불량 상품에 대해서는 고객센터로 연락주시면 상담 후 교환해 드립니다.
     ◆오배송, 파본, 불량상품의 배송비는 환불처에서 부담합니다.
     교환/반품
     ◆환불은 상품이 환불에 도착 시 처리됩니다. (카드 취소는 3~5일이 소요될 수 있습니다.)

장바구니

오늘본상품

오늘 본 상품

  • LLM을 활용한 실전 AI 애플리케이션 개발
    LLM을 활용한 실 32,000

위시리스트

  • 보관 내역이 없습니다.
회사명 경기책방 주소 경기도 파주시 조리읍 장미꽃길 157-161
사업자 등록번호 6829601269 대표 오주봉 전화 02-356-5779 팩스 02-356-5779
통신판매업신고번호 제2021-경기파주-1335호 개인정보 보호책임자 오주봉

Copyright © 2001-2013 경기책방. All Rights Reserved.