Post

AWS SageMaker 강의 전체 지도

S3·IAM·Studio를 포함한 SageMaker 학습/튜닝/배포 전체 흐름과 6개 프로젝트 요약으로 ML 파이프라인을 빠르게 복원하는 가이드

AWS SageMaker 강의 전체 지도

이 강의는 AWS 기반 ML 파이프라인을 실무적으로 구성해야 하는 개발자·데이터 사이언티스트를 위한 학습 코스다. 로컬에서 모델만 학습하던 방식이 아닌, 데이터 적재 → 학습 → 튜닝 → 배포 → 운영 전체 흐름을 SageMaker 중심으로 자동화하는 구조를 익히게 된다. 이 글 하나로 강의 전체의 골격·주제·프로젝트 구성을 빠르게 복원할 수 있도록 재정리했다.

이번 글 핵심 요약 5줄

  • SageMaker는 ML 워크플로우의 “학습·튜닝·배포” 구간을 관리형 서비스로 제공한다.
  • 강의는 선형 회귀 → XGBoost → PCA → CNN → AutoML 순으로 난이도를 키운다.
  • 실무 패턴은 Training Job, Hyperparameter Tuning, Endpoint 배포 3가지만 정확히 이해하면 대부분 재사용된다.
  • 프로젝트 6개는 각각 SageMaker의 특정 기능을 실전 데이터로 검증하는 구성이다.
  • 이 글의 구조대로 복습하면 강의 전체 지도가 빠르게 복원된다.

SageMaker가 해결하는 문제와 위치

전통적인 ML 워크플로우는 다음과 같다:

  1. 로컬에서 데이터 전처리
  2. 로컬/GPU 서버에서 학습
  3. 수동으로 모델 아티팩트 관리
  4. Flask/FastAPI로 엔드포인트 구성
  5. 서버 모니터링·스케일링 처리

문제는 서버 비용·운영 복잡도·확장성·재현성이 자동화되지 않는다는 점이다.

SageMaker는 이를 다음처럼 정리한다:

  • 데이터 저장: S3
  • 개발·실험 환경: SageMaker Notebook / Studio
  • 학습 실행: Training Job
  • 튜닝 자동화: Hyperparameter Tuning Job
  • 배포·운영: Endpoint (Real-time / Batch transform)

즉, 개발자가 “환경 구성”이 아니라 모델 설계와 데이터 품질에 집중할 수 있도록 인프라를 숨긴다. 직관적 비유: 로컬 ML이 “개인이 직접 공장을 차리는 것”이라면, SageMaker는 “이미 자동화된 생산 라인에 끼워 넣고 결과만 가져가는 구조”다.

텍스트 기반 워크플로우 다이어그램

1
2
3
4
5
6
7
8
9
[ S3 데이터 적재 ]
        ↓
[ SageMaker Studio/Notebook ]
        ↓ (train request)
[ Training Job 실행 ]
        ↓ (model artifact)
[ Endpoint 배포 ]
        ↓
[ 애플리케이션에서 API 호출 ]

실무에서 가장 중요한 점은 Training Job과 Endpoint가 모두 완전한 관리형 인스턴스라는 사실이다. 개발자는 “학습 시작 명령 + 하이퍼파라미터 + S3 경로”만 던지면 된다.


강의에서 사용하는 주요 AWS 서비스 요약

S3

  • 정의: 객체 스토리지. 학습 데이터·모델 아티팩트 저장.
  • 강의에서의 사용: 모든 입력/출력 경로의 기본 저장소.
  • 중요 포인트:

    • 데이터 버킷 구조를 예측 가능하게 유지할 것
    • 학습 스크립트는 로컬 경로가 아니라 S3 URI로 접근

EC2

  • 정의: AWS의 일반 컴퓨팅 인스턴스.
  • 강의에서의 사용: 간단한 준비 작업, 기본 컴퓨팅·네트워크 개념 설명용.
  • 중요 포인트:

    • ML 학습 자체는 EC2가 아니라 SageMaker Training Job이 수행
    • 단, 비용 비교 시 EC2 vs SageMaker 구조 이해 필요

IAM

  • 정의: 권한 제어 시스템.
  • 강의에서의 사용: S3·SageMaker 리소스 접근을 위한 execution role 설정.
  • 중요 포인트:

    • SageMaker Execution Role이 S3 read/write 권한을 반드시 가져야 함
    • 실무에서는 최소 권한 원칙을 적용해야 비용/보안 사고 방지 가능

SageMaker

  • 정의: AWS 머신러닝 플랫폼의 중심 서비스.
  • 강의에서의 사용: 학습·튜닝·배포 전체 파이프라인.
  • 중요 포인트:

    • Training Job / Estimator / Hyperparameter Tuner 구조
    • Endpoint 비용이 학습보다 더 많이 나올 수 있음(주의)

SageMaker Studio

  • 정의: ML IDE. 실험 관리·Notebook 환경·UI 중심 워크플로우 제공.
  • 강의에서의 사용: Notebook 기반 데이터 처리 → Training Job 실행.
  • 중요 포인트:

    • 실무에서 Studio는 팀 협업과 실험 기록 관리에 유용
    • 단순 Notebook 대체가 아니라, 훈련/튜닝/배포 UI 컨트롤 패널로 이해 필요

강의 전체 커리큘럼을 실무 관점으로 재분류

(1) 기초 이론 & AWS 인프라

  • 주제

    • ML 기본 개념, EC2·S3·IAM 이해, SageMaker 시작 구성
  • 실무 연결 예시

    • 신규 ML 프로젝트 온보딩 시 인프라 셋업 플로우 문서화
  • 꼭 다시 봐야 할 포인트

    • IAM Role이 ML 파이프라인에서 왜 중요한가
    • S3 구조 설계 방식
    • Studio에서 Training Job을 발사하는 패턴

(2) 선형 회귀 + 기본 SageMaker 패턴

  • 주제

    • 선형 회귀로 SageMaker Estimator → Training Job → Endpoint까지 전체 흐름 학습
  • 실무 연결 예시

    • PoC 단계에서 빠르게 “하나의 엔드투엔드 ML API” 만들기
  • 꼭 다시 봐야 할 포인트

    • Estimator 설정 방식(알고리즘 이름, instance type, output path)
    • S3 데이터 위치 지정 규칙
    • Endpoint 생성·삭제 패턴(비용 관리 핵심)

(3) XGBoost + 하이퍼파라미터 튜닝

  • 주제

    • XGBoost 알고리즘, Hyperparameter Tuner 활용
  • 실무 연결 예시

    • 프로덕션 모델 성능 개선을 위한 자동 튜닝 파이프라인 구축
  • 꼭 다시 봐야 할 포인트

    • 튜너의 ObjectiveMetric 설정 방식
    • Tuning Job 병렬성 조절이라는 비용·속도 trade-off
    • 최적 모델 아티팩트 자동 저장 구조

(4) PCA + 분류 + CNN + AutoML

  • 주제

    • 차원 축소(PCA), 이미지 분류(CNN), SageMaker Autopilot
  • 실무 연결 예시

    • 비정형 데이터(이미지·고차원 텍스트 등) 처리 파이프라인 구성
  • 꼭 다시 봐야 할 포인트

    • PCA가 고차원 데이터 정리에 유효한 상황
    • CNN Training Job의 GPU 인스턴스 선택 기준
    • AutoPilot의 장점/제약(빠른 탐색 vs 제어의 부족)

6개 프로젝트 초압축 요약

프로젝트입력 데이터 / 도메인사용 알고리즘SageMaker 기능재사용 가능한 실무 패턴
#1 선형 회귀 기본 예측CSV 구조화 데이터Linear LearnerEstimator → Training Job → Endpoint최소 파이프라인 구성법, S3 경로 설계
#2 다중 변수 회귀다중 컬럼 수치 데이터Linear Learner(다변량)모델 학습 후 배포피처 스케일링 및 전처리 패턴
#3 XGBoost 분류범주형/수치형 혼합XGBoostHyperparameter Tuning Job튜닝 ObjectiveMetric 전략
#4 PCA 차원 축소고차원 테이블형 데이터PCA → 후처리 분류빌트인 PCA 알고리즘차원 축소 + 후속 모델 조합 구조
#5 CNN 이미지 분류이미지 데이터CNN (SageMaker 빌트인)GPU 기반 Training Job이미지 채널/배치 구성, 학습 로그 해석
#6 AutoML 예측구조화 데이터Autopilot자동 모델 탐색 및 배포빠른 PoC 생성, 모델 explainability 활용

각 프로젝트는 서로 다른 알고리즘을 사용하지만, Training Job → Model → Endpoint라는 공통 패턴을 반복해 “실무 ML 파이프라인 감각”을 익히게 한다.


이 강의를 다시 볼 때의 추천 복습 순서

전체를 다시 볼 필요 없이, 실무 난이도·재사용성 기준으로 우선순위를 추천한다.

  1. XGBoost + 하이퍼파라미터 튜닝(섹션 3)

    • 실제 구조화 데이터 업무에서 가장 많이 쓰이는 알고리즘
    • 튜닝 파이프라인은 실무 재사용도가 가장 높음
  2. CNN + AutoML(섹션 4·5·6)

    • 이미지 기반 업무 또는 빠른 AutoML PoC 필요 시 즉시 활용 가능
    • GPU Job 설정과 비용 감각을 다시 정리하는 데 유효
  3. 선형 회귀 + 기본 SageMaker 패턴(섹션 2)

    • 엔드투엔드 전체 흐름 복습용
    • Endpoint 라이프사이클 이해에 필수
  4. 기초 이론 & AWS 인프라(섹션 1)

    • IAM/S3 구조가 헷갈릴 때만 필요 시 참조

직관적 비유: GPU·튜닝 기반 프로젝트는 “실전 경기”, 선형 회귀 섹션은 “룰북”, 인프라 섹션은 “경기장 구조”다. 실전 문제를 해결하려면 실전 섹션부터 다시 보는 게 효율적이다.


이 글을 읽고 나면 당연히 알고 있어야 할 3가지

  • SageMaker ML 파이프라인의 기본 뼈대: S3 → Training Job → Model → Endpoint

  • 실무 핵심 알고리즘 흐름: 선형 → XGBoost → PCA → CNN → AutoML

  • 프로젝트 6개가 각각 “SageMaker 기능 단위 실습”이라는 구조적 맥락


This post is licensed under CC BY 4.0 by the author.