Skip to content

[성주현] Sprint8#274

Open
jh9dev wants to merge 12 commits into
codeit-bootcamp-spring:성주현from
jh9dev:sprint8
Open

[성주현] Sprint8#274
jh9dev wants to merge 12 commits into
codeit-bootcamp-spring:성주현from
jh9dev:sprint8

Conversation

@jh9dev
Copy link
Copy Markdown
Collaborator

@jh9dev jh9dev commented Apr 14, 2026

프로젝트 마일스톤

  • 애플리케이션 컨테이너화
  • BinaryContentStorage 고도화 (AWS S3)
  • AWS를 활용한 배포 (AWS ECSRDS)
  • CI/CD 파이프라인 구축 (GitHub Actions)

베이스 코드

이전 미션에서 아직 달성하지 못한 요구사항이 있어 이 미션을 수행하기 어렵다면 베이스 코드를 참고해보세요.

베이스 코드 다운로드


주요 변경 사항

1. 원활한 실습 진행을 위해 Spring Boot Admin 관련 코드는 삭제되었습니다.

  • 세부 사항
    • admin 모듈

    • IntelliJ Gradle 툴 윈도우에서도 삭제해주세요.

      yfdejqkdz-image.png

    • spring boot admin 의존성 삭제

      # build.gradle
      ...
      implementation 'de.codecentric:spring-boot-admin-starter-client:3.4.5'
      ...

2. 프로젝트 버전이 변경되었습니다. v1.2-M8

  • 세부 사항

    # build.gradle
    ...
    version = '0.0.1-SNAPSHOT'
    version = '1.2-M8'
    ...
    • 1.2api-doc 버전을 따릅니다.
    • M8: 미션 8을 의미합니다.

과금 안내사항

미션 진행 중 유의사항

이 미션은 AWS 프리티어 할당량 내에서 충분히 수행 가능하도록 설계되었습니다. 불필요한 비용이 발생하지 않도록 미션 요구사항을 사전에 꼼꼼히 확인해 주시기 바랍니다.

미션 종료 후 안내사항

멘토님들의 리뷰가 완료된 후에는 추후에 진행할 실습(미션, 중급 프로젝트 등)을 위해, 이번 미션에서 생성했던 모든 AWS 리소스(EC2, RDS, S3)를 반드시 삭제해 주세요. 리소스를 '중지'하는 것이 아닌 '삭제'해야 추가 비용이 발생하지 않습니다.

애플리케이션 컨테이너화

Dockerfile 작성

  • Amazon Corretto 17 이미지를 베이스 이미지로 사용하세요.
  • 작업 디렉토리를 설정하세요. (/app)
  • 프로젝트 파일을 컨테이너로 복사하세요. 단, 불필요한 파일은 .dockerignore를 활용해 제외하세요.
  • Gradle Wrapper를 사용하여 애플리케이션을 빌드하세요.
  • [ ] 80 포트를 노출하도록 설정하세요.
  • 프로젝트 정보를 환경 변수로 설정하세요.
    • 실행할 jar 파일의 이름을 추론하는데 활용됩니다.
    • PROJECT_NAME: discodeit
    • PROJECT_VERSION: 1.2-M8
  • JVM 옵션을 환경 변수로 설정하세요.
    • JVM_OPTS: 기본값은 빈 문자열로 정의
  • 애플리케이션 실행 명령어를 설정하세요. 이때 환경변수로 정의한 프로젝트 정보를 활용하세요.

이미지 빌드 및 실행 테스트

  • Docker 이미지를 빌드하고 태그(local)를 지정하세요.
  • 빌드된 이미지를 활용해서 컨테이너를 실행하고 애플리케이션을 테스트하세요.
    • [ ] prod 프로필로 실행하세요.
    • 데이터베이스는 로컬 환경에서 구동 중인 PostgreSQL 서버를 활용하세요.
    • [ ] http://localhost:8081로 접속 가능하도록 포트를 매핑하세요.

Docker Compose 구성

  • 개발 환경용 docker-compose.yml 파일을 작성합니다.
  • 애플리케이션과 PostgreSQL 서비스를 포함하세요.
  • 각 서비스에 필요한 모든 환경 변수를 설정하세요.
    • .env 파일을 활용하되, .env는 형상관리에서 제외하여 보안을 유지하세요.
  • 애플리케이션 서비스를 로컬 Dockerfile에서 빌드하도록 구성하세요.
  • 애플리케이션 볼륨을 구성하여 컨테이너가 재시작되어도 BinaryContentStorage 데이터가 유지되도록 하세요.
  • PostgreSQL 볼륨을 구성하여 컨테이너가 재시작되어도 데이터가 유지되도록 하세요.
  • PostgreSQL 서비스 실행 후 schema.sql이 자동으로 실행되도록 구성하세요.
  • 서비스 간 의존성을 설정하세요(depends_on).
  • 필요한 포트 매핑을 구성하세요.
  • Docker Compose를 사용하여 서비스를 시작하고 테스트하세요.
    • -build 플래그를 사용하여 서비스 시작 전에 이미지를 빌드하도록 합니다.

BinaryContentStorage 고도화 (AWS S3)

AWS S3 버킷 구성

  • AWS S3 버킷을 생성하세요.
    • 버킷 이름을 discodeit-binary-content-storage-(사용자 이니셜) 형식으로 지정하세요.
    • 퍼블릭 액세스 차단 설정을 활성화하세요(모든 퍼블릭 액세스 차단).
    • 버전 관리는 비활성화 상태로 두세요.

AWS S3 접근을 위한 IAM 구성

  • S3 버킷에 접근하기 위한 IAM 사용자(discodeit)를 생성하세요.

  • AmazonS3FullAccess 권한을 할당하고, 사용자 생성을 완료하세요.

  • 생성된 사용자에 엑세스 키를 생성하세요.

  • 발급받은 키를 포함해서 AWS 관련 정보는 .env 파일에 추가합니다.

    ...
    # AWS
    AWS_S3_ACCESS_KEY=**엑세스_키**
    AWS_S3_SECRET_KEY=**시크릿_키**
    AWS_S3_REGION=**ap-northeast-2**
    AWS_S3_BUCKET=**버킷_이름**
    
    • 작성한 .env 파일은 리뷰를 위해 PR에 별도로 첨부해주세요. 단, 엑세스 키와 시크릿 키는 제외하세요.

AWS S3 테스트

  • AWS S3 SDK 의존성을 추가하세요.

    implementation 'software.amazon.awssdk:s3:2.31.7'
  • S3 API를 간단하게 테스트하세요.

    • 패키지명: com.sprint.mission.discodeit.stoarge.s3
    • 클래스명: AWSS3Test
    • [ ] Properties 클래스를 활용해서 .env에 정의한 AWS 정보를 로드하세요.
    • 작업 별 테스트 메소드를 작성하세요.
      • 업로드
      • 다운로드
      • PresignedUrl 생성

AWS S3를 활용한 BinaryContentStroage 고도화

  • 앞서 작성한 테스트 메소드를 참고해 S3BinaryContentStorage를 구현하세요.

    • 클래스 다이어그램

      fxlj0hb8j-image.png]

  • discodeit.storage.type 값이 s3인 경우에만 Bean으로 등록되어야 합니다.

  • S3BinaryContentStorageTest를 함께 작성하면서 구현하세요.

  • BinaryContentStorage 설정을 유연하게 제어할 수 있도록 application.yaml을 수정하세요.

    discodeit:
      storage:
        type: local
        type: ${STORAGE_TYPE:local}  # local | s3 (기본값: local)
        local:
          root-path: .discodeit/storage
          root-path: ${STORAGE_LOCAL_ROOT_PATH:.discodeit/storage}
        s3:
          access-key: ${AWS_S3_ACCESS_KEY}
          secret-key: ${AWS_S3_SECRET_KEY}
          region: ${AWS_S3_REGION}
          bucket: ${AWS_S3_BUCKET}
          presigned-url-expiration: ${AWS_S3_PRESIGNED_URL_EXPIRATION:600} # (기본값: 10분)
    • AWS 관련 정보는 형상관리하면 안되므로 .env 파일에 작성된 값을 임포트하는 방식으로 설정하세요.
    • Docker Compose에서도 위 설정을 주입할 수 있도록 수정하세요.
  • download 메소드는 PresignedUrl을 활용해 리다이렉트하는 방식으로 구현하세요.

AWS를 활용한 배포 (AWS RDS, ECR, ECS)

AWS RDS 구성

  • AWS RDS PostgreSQL 인스턴스를 생성하세요.
항목 비고
데이터베이스 생성 방식 표준 생성  
엔진 옵션 > 엔진 유형 PostgreSQL  
엔진 옵션 > 엔진 버전 17.2-R2 기본값
템플릿 프리 티어 과금 주의
설정 > DB 인스턴스 식별자 discodeit-db  
설정 > 자격증명설정 > 마스터 사용자 이름 postgres 기본값
설정 > 자격증명설정 > 자격 증명 관리 자체 관리 기본값
설정 > 자격증명설정 > 마스터 암호 임의의 값 따로 메모해두세요.
인스턴스 구성 > DB 인스턴스 클래스 db.t4g.micro 기본값
연결 > 퍼블릭 액세스 아니오 과금 주의
연결 > 추가구성 > 데이터베이스 포트 5432 기본값
모니터링 > 보존기간 7일 (프리티어) 과금 주의
모니터링 > 추가 모니터링 설정 모두 체크 해제 기본값, 과금 주의
추가 구성 > 백업 체크 해제 과금 주의
  • 이외 설정은 기본값을 유지하세요.
  • 과금이 발생할 수 있으니 다음 항목은 한번 더 확인해주세요.
    • 템플릿: 프리티어
    • 퍼블릭 액세스: 아니오
    • 모니터링 > 보존기간: 7일
    • 모니터링 > 추가 모니터링 설정: 모두 체크 해제
    • 추가 구성 > 백업: 비활성화
  • SSH 터널링을 통해 개발 환경에서 접근할 수 있도록 EC2를 구성하세요.
    • EC2 인스턴스를 생성하세요.
항목 비고
이름 및 태그 rds-ssh  
인스턴스 유형 t2.micro 기본값, 과금 주의
키 페어 새 키 페어 생성 .pem 파일 저장 위치를 기억하세요.
네트워크 설정 > 방화벽(보안그룹) 기존 보안 그룹 선택
  • 이외 설정은 기본값을 유지하세요.
  • 보안 그룹에서 인바운드 규칙을 편집하세요.
    • 유형: SSH
    • 소스: 내 IP
      • 작업 환경의 네트워크(와이파이 등)가 달라지면 계속 수정해주어야 할 수 있습니다.
  • DataGrip을 통해 연결 후 데이터베이스와 사용자, 테이블을 초기화하세요.
    • 데이터 소스 추가 시 SSH/SSL > Use SSH tunnel 설정을 활성화하세요. 이때 이전에 다운로드한 .pem 파일을 활용하세요.

    • 연결이 성공하면 데이터베이스와 사용자, 테이블을 초기화하세요.

      -- 1. 새 유저 'discodeit_user' 생성 (비밀번호는 원하는 값으로 설정)
      CREATE USER discodeit_user WITH PASSWORD 'discodeit1234';
      
      -- 2. postgres 계정은 AWS RDS 환경 특성상 완전한 super user가 아니므로, discodeit_user에 대한 권한을 추가로 부여해야함.
      GRANT discodeit_user TO postgres;
      
      -- 3. 'discodeit' 데이터베이스 생성 (소유자는 'discodeit_user')
      CREATE DATABASE discodeit OWNER discodeit_user;
      
      -- 4. schema.sql 실행하여 테이블 생성
    • 구성이 완료되면 rds-ssh 인스턴스는 완전히 삭제하여 과금에 유의하세요.

AWS ECR 구성

  • 이미지를 배포할 퍼블릭 레포지토리(discodeit)를 생성하세요.

    • 프라이빗 레포지토리는 용량 제한이 있으므로 퍼블릭 레포지토리로 생성합니다.
  • AWS CLI를 설치하세요.

  • aws configure 실행 후 앞서 생성한 discodeit IAM 사용자 정보를 입력하세요.

    • 엑세스 키
    • 시크릿 키
    • region: ap-northeast-2
    • output format: json
  • discodeit IAM 사용자가 ECR에 접근할 수 있도록 다음 권한을 부여하세요.

    • AmazonElasticContainerRegistryPublicFullAccess
  • Docker 클라이언트를 배포할 레지스트리에 대해 인증합니다.

    • AWS 콘솔을 통해 생성한 레포지토리 페이지로 이동 후 우측 상단 푸시 명령 보기를 클릭하면 관련 명령어를 확인할 수 있습니다.

      # 예시
      aws ecr-public get-login-password --region us-east-1 | docker login --username AWS --password-stdin public.ecr.aws/...
  • 멀티플랫폼을 지원하도록 애플리케이션 이미지를 빌드하고, discodeit 레포지토리에 push 하세요.

    • 태그명: latest1.2-M8
    • 멀티플랫폼: linux/amd64,linux/arm64
  • AWS 콘솔에서 푸시된 이미지를 확인하세요.

AWS ECS 구성

  • 배포 환경에서 컨테이너 실행 간 사용할 환경 변수를 정의하고, S3에 업로드하세요.

    • discodeit.env 파일을 만들어 다음의 내용을 작성하세요.

      # Spring Configuration
      SPRING_PROFILES_ACTIVE=prod
      
      # Application Configuration
      STORAGE_TYPE=s3
      AWS_S3_ACCESS_KEY=엑세스_키
      AWS_S3_SECRET_KEY=시크릿_키
      AWS_S3_REGION=ap-northeast-2
      AWS_S3_BUCKET=버킷_이름
      AWS_S3_PRESIGNED_URL_EXPIRATION=600
      
      # DataSource Configuration
      RDS_ENDPOINT=RDS_엔드포인트(포트 포함)
      SPRING_DATASOURCE_URL=jdbc:postgresql://${RDS_ENDPOINT}/discodeit
      SPRING_DATASOURCE_USERNAME=RDS_유저네임(DataGrip을 통해 생성했던 유저)
      SPRING_DATASOURCE_PASSWORD=RDS_비밀번호
      
      # JVM Configuration (프리티어 고려)
      JVM_OPTS="-Xmx384m -Xms256m -XX:MaxMetaspaceSize=64m -XX:+UseSerialGC"
    • 이 파일을 S3에 업로드하세요.

    # configs/ 폴더 안에 저장하기
    aws s3 cp discodeit.env s3://discodeit-binary-content-storage-kmh/configs/discodeit.env
    • 이 파일은 형상관리되지 않도록 주의하세요.
  • AWS ECS 콘솔에서 클러스터를 생성하세요.

항목 비고
클러스터 구성 > 클러스터 이름 discodeit-cluster  
인프라 > AWS Fargate(서버리스) 체크해제 과금 주의
인프라 > Amazon EC2 인스턴스 체크  
인프라 > EC2 인스턴스 유형 t2.micro 과금 주의
인프라 > 원하는 용량 최소 0, 최대 1 과금 주의
인프라 > SSH 키 페어 새 키 페어 생성 후 지정  
  • 이외 설정은 기본값을 유지하세요.
  • 태스크를 정의하세요.
항목 비고
태스크 정의 구성 > 태스크 정의 패밀리 discodeit-task  
인프라 요구 사항 > 시작 유형 AWS Fargate: 체크 해제, Amazon EC2 인스턴스: 체크  
인프라 요구 사항 > 네트워크 모드 bridge  
인프라 요구 사항 > 태스크 크기 CPU: 0.25 vCPU, 메모리: 0.5 GB  
컨테이너-1 > 컨테이너 세부 정보 이름: discodeit-app, 이미지 URI: 이전에 배포한 이미지  
컨테이너-1 > 포트 매핑 호스트 포트: 80, 컨테이너 포트: 80  
컨테이너-1 > 리소스 할당 제한 - 조건부 CPU: 0.25 vCPU, 메모리 하드 제한: 0.5 GB, 메모리 소프트 제한: 0.25 GB  
컨테이너-1 > 환경 변수 - 선택 사항 > 파일에서 추가 이전에 S3에 업로드한 discodeit.env 파일 지정  
  • 이외 설정은 기본값을 유지하세요.
  • 태스크 생성 후 태스크 실행 역할에 S3 관련 권한을 추가하세요.
    • 환경 변수 파일을 읽기위해 필요합니다.
  • discodeit 클러스터 상세 화면에서 서비스를 생성하세요.
항목 비고
배포 구성 > 태스크 정의 패밀리 discodeit-task  
배포 구성 > 서비스 이름 discodeit-service  
배포 구성 > 원하는 태스크 1 기본값
배포 구성 > 상태 검사 유예 기간 30초
  • 이외 설정은 기본값을 유지하세요.
  • 태스크의 EC2 보안 그룹의 인바운드 규칙을 설정하여 어디서든 접근할 수 있도록 하세요.
    • EC2 보안 그룹에서 인바운드 규칙을 편집하세요.
    • 규칙 유형으로 HTTP를 선택하세요.
    • 소스로 Anywhere-IPv4를 선택하여 모든 IP를 허용하세요.
  • 태스크 실행이 완료되면 해당 EC2의 퍼블릭 IP에 접속해보세요.

심화 요구사항

이미지 최적화하기

  • 멀티 스테이지(빌드런타임) 빌드를 활용해 이미지의 크기를 줄여보세요.
    • 태그명: local-slim
    • 이전에 빌드한 이미지(1.2-M8 또는 local)와 크기를 비교해보세요.
  • 이미지 레이어 캐시를 고려해 Dockerfile을 수정해보세요.

GitHub Actions를 활용한 CI/CD 파이프라인 구축

  • CI(지속적 통합)를 위한 워크플로우를 설정하세요.

    • .github/workflows/test.yml 파일을 생성하세요.
    • main 브랜치에 PR이 생성되면 실행되도록 설정하세요.
    • 테스트가 실행하는 Job을 정의하세요.
    • CodeCov를 통해 테스트 커버리지 뱃지를 README에 추가해보세요.
  • CD(지속적 배포)를 위한 워크플로우를 설정하세요.

    • .github/workflows/deploy.yml 파일을 생성하세요.
    •  release 브랜치에 코드가 푸시되면 실행되도록 설정하세요.
    • AWS 정보 설정
      • GitHub 레포지토리 설정을 통해 시크릿을 추가하세요.
        • AWS_ACCESS_KEY: IAM 사용자의 액세스 키
        • AWS_SECRET_KEY: IAM 사용자의 시크릿 키
      • GitHub 레포지토리 설정을 통해 변수를 추가하세요.
        • AWS_REGION: AWS 리전(ap-northeast-2)
        • ECR_REPOSITORY_URI: ECR 레포지토리 URI
        • ECS_CLUSTER: ECS 클러스터 이름(discodeit-cluster)
        • ECS_SERVICE: ECS 서비스 이름(discodeit-service)
        • ECS_TASK_DEFINITION: ECS 태스크 정의 이름(discodeit-task)
    • Docker 이미지 빌드 및 푸시
      • Docker 이미지를 빌드하고 푸시하는 Job을 정의하세요.
      • AWS CLI를 설정하는 Step을 추가하세요.
        • Pubilc ECR에 배포해야하므로 리전은 us-east-1으로 설정해야합니다.
      • ECR 로그인 Step을 추가하세요.
        • Public ECR에 로그인해야합니다.
      • Docker 이미지 빌드 및 푸시하는 과정을 Step으로 추가하세요.
        • 단, 빌드 시간 단축을 위해 멀티 플랫폼 옵션은 제외합니다.
        • GitHub Actions의 런타임 OS와 우리가 배포할 ECS는 모두 x86_64입니다.
      • 이미지 태그는 latest와 GitHub 커밋 해시를 사용하도록 설정하세요.
    • ECS 서비스 업데이트
      • ECS 서비스를 업데이트하는 Job을 정의하세요.
      • AWS CLI를 설정하는 Step을 추가하세요.
        • 우리의 ECS 클러스터에 접근해야하므로 리전은 AWS_REGION으로 설정해야합니다.
      • 태스크 정의를 업데이트하는 Step을 추가하세요.
        • 기존의 태스크 정의를 기반으로 새 이미지를 사용하도록 업데이트하세요.
      • 프리티어 리소스를 고려해 AWS CLI를 사용해 기존에 구동 중인 서비스를 중단하는 Step을 추가하세요.
        • aws ecs update-service --desired-count 옵션을 활용하세요.
      • 새로 등록한 태스크 정의를 사용하도록 ECS 서비스를 업데이트하는 Step을 추가하세요.
    • AWS 콘솔을 통해 새로 등록된 태스크 정의로 배포되었는지 확인하세요.

✅ 필수 포함 정보

.env 파일(AWS 키 제외)

discodeit.env 파일

# Spring Configuration
SPRING_PROFILES_ACTIVE=prod

# Application Configuration
STORAGE_TYPE=s3
AWS_S3_ACCESS_KEY=
AWS_S3_SECRET_KEY=
AWS_S3_REGION=ap-northeast-2
AWS_S3_BUCKET=discodeit-binary-content-storage-sjh
AWS_S3_PRESIGNED_URL_EXPIRATION=600

# DataSource Configuration
RDS_ENDPOINT=discodeit-db.c14eq4i2ao81.ap-northeast-2.rds.amazonaws.com:5432
SPRING_DATASOURCE_URL=jdbc:postgresql://${RDS_ENDPOINT}/discodeit
SPRING_DATASOURCE_USERNAME=
SPRING_DATASOURCE_PASSWORD=

# JVM Configuration (프리티어 고려)
# JVM_OPTS=-Xmx384m -Xms256m -XX:MaxMetaspaceSize=64m -XX:+UseSerialGC
# 메타스페이스 사이즈 부족으로 인한 OutOfMemoryError가 발생하는 문제를 해결하기 위해 수정
JVM_OPTS=-Xmx256m -Xms128m -XX:MaxMetaspaceSize=192m -XX:+UseSerialGC

.env 파일(docker-compose)

SPRING_PROFILES_ACTIVE=prod

POSTGRES_DB=discodeit
POSTGRES_USER=
POSTGRES_PASSWORD=

SPRING_DATASOURCE_URL=jdbc:postgresql://db:5432/discodeit
SPRING_DATASOURCE_USERNAME=
SPRING_DATASOURCE_PASSWORD=

STORAGE_TYPE=s3
STORAGE_LOCAL_ROOT_PATH=/data/binary-content

AWS_S3_ACCESS_KEY=
AWS_S3_SECRET_KEY=
AWS_S3_REGION=ap-northeast-2
AWS_S3_BUCKET=discodeit-binary-content-storage-sjh
AWS_S3_PRESIGNED_URL_EXPIRATION=600

RDS

AWS 콘솔 인스턴스 상세 페이지 스크린샷 이미지

RDS-AWS 콘솔 인스턴스 상세 페이지 스크린샷 이미지

SSH 터널링을 통해 연결한 DataGrip 스크린샷 이미지

<img width="492" height="280" alt="RDS-SSH 터널링을 통해 연결한 DataGrip 스크린샷 이미지" src="https://github.com/user-attachments/assets/2bfcc801-c1d8-458f-b651-c61efc75f21b" /

ECR

푸시된 이미지가 보이는 AWS 콘솔 페이지 스크린샷 이미지

ECR-푸시된 이미지가 보이는 AWS 콘솔 페이지 스크린샷 이미지

ECS

실행 중인 태스크 구성정보가 표시된 AWS 콘솔 페이지 스크린샷 이미지

ECS-실행 중인 태스크 구성정보가 표시된 AWS 콘솔 페이지 스크린샷 이미지

배포된 EC2 엔드포인트

VPC

보안 그룹의 인바운드 규칙을 확인할 수 있는 AWS 콘솔 페이지 스크린샷 이미지

VPC-보안 그룹의 인바운드 규칙을 확인할 수 있는 AWS 콘솔 페이지 스크린샷 이미지

IAM

사용자의 권한 정책이 표시된 AWS 콘솔 페이지 스크린샷 이미지

IAM-사용자의 권한 정책이 표시된 AWS 콘솔 페이지 스크린샷 이미지

@jh9dev jh9dev requested a review from byungwook-min April 14, 2026 01:30
Copy link
Copy Markdown
Collaborator

@byungwook-min byungwook-min left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

전체적으로 정말 잘 해내셨어요. 특히 Docker 이미지 최적화와 CI/CD 파이프라인 쪽 설계를 정말 잘해주신 것 같습니다. layertools까지 활용한 멀티스테이지 빌드, 의존성 캐시를 위한 복사 순서 조정, Public ECR 전용 us-east-1 분리와 ECS 자동 롤아웃, CodeCov 연동까지 각각이 배운 개념을 왜 그래야 하는지 이해하고 선택한 흔적이 곳곳에 보인 것 같습니다.

S3 전환도 대체로 완성도 높게 이루어졌어요. @ConditionalOnProperty로 로컬/S3 스토리지를 투명하게 스위칭하는 구조, PresignedUrl + 302 리다이렉트로 트래픽을 애플리케이션이 아닌 S3 쪽에 내보내는 설계, 그리고 S3BinaryContentStorageTest에서 presigner 모킹의 어려움을 protected 메서드 오버라이드로 우회한 테스트 전략까지 디자인 의도가 명확하게 읽히는 코드인 것 같습니다. 테스트 안정성 측면에서도 AWSS3TestAssumptions.assumeTrue로 조건부 실행되게 만든 것이 너무 좋습니다.

다만 한 가지, 스토리지 전환의 영향 반경을 한 번 더 생각해봤으면 좋을 것 같습니다. 현재 BasicBinaryContentService.create는 DB에 먼저 save 하고 그 다음에 S3에 put 하는 순서인데, S3 put이 실패했을 때 DB 레코드를 롤백하는 장치가 빠져 있어요. 로컬 스토리지에서는 같은 서버 내 동기 작업이라 큰 이슈가 아니었지만, S3로 가는 순간 이 구간은 분산 트랜잭션의 실패 지점이 됩니다. 스토리지 교체 자체는 잘 했는데, 교체 이후 달라지는 실패 모델에 대한 대응이 코드 레벨에서 같이 업데이트되진 않았어요. 이 부분을 한 번 짚어보시면 좋을 것 같습니다.

전체적으로 너무 잘 해주셨습니다. 고생 많으셨습니다. LGTM :)

Comment thread Dockerfile

EXPOSE 80

ENTRYPOINT ["sh", "-c", "java ${JVM_OPTS} -Dserver.port=${SERVER_PORT} org.springframework.boot.loader.launch.JarLauncher"] No newline at end of file
Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

sh -c 형태라 컨테이너가 받는 시그널(특히 SIGTERM)이 sh에서 멈추고 Java 프로세스까지 전달되지 않을 위험이 있습니다. ECS에서 그레이스풀 셧다운이 중요하다면 exec java …를 쓰거나 tini를 PID 1로 두는 방식이 안전합니다.

Comment thread Dockerfile
WORKDIR /app

ENV JVM_OPTS=""
ENV SERVER_PORT=80
Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

SERVER_PORT=80기본값이 하드코딩되어 있는데application-prod.yaml에서는 ${SERVER_PORT:80}`으로 되어있습니다. 한 군데(yaml 쪽)만 defaults를 가지게 하는 게 유지보수하기 편합니다.

Comment thread docker-compose.yml
Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

요구사항의 모든 항목(서비스 분리, .env 활용, 로컬 빌드, 볼륨 2종, schema.sql 자동 실행, depends_on, 포트 매핑)이 모두 충족되어 있어요. 구성 자체는 너무 깔끔하게 잘 해주신 것 같습니다 👍

Comment thread docker-compose.yml
Comment on lines +47 to +48
depends_on:
- db
Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

depends_on이 조건 없이 나열되어 있어서 컨테이너의 시작 시점까지만 기다립니다. PostgreSQL이 실제로 쿼리를 받을 준비가 되기 전에 Spring이 커넥션을 시도하면 첫 부팅에서 재시작 루프에 빠질 수 있습니다.

.github/workflows/test.yml에서도 healthcheck 패턴을 쓰고 계시니 docker-compose에도 일관되게 적용하시면 좋을 것 같습니다.

Comment thread .gitignore
/storage/
.logs/ No newline at end of file
.logs/
*.env
Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

리뷰용 .env.example을 함께 커밋하시면 좋을 것 같습니다. 다른 사람들이 어떤 값을 설정해야 하는지도 보기 쉽고, 로컬 환경에서도 참고할 수 있어 좋습니다. (민감값은 빈 문자열로)

Comment on lines +44 to +54
- name: Docker 이미지 빌드
run: |
docker build \
-t ${ECR_REPOSITORY_URI}:latest \
-t ${IMAGE_URI} \
.

- name: Docker 이미지 푸시
run: |
docker push ${ECR_REPOSITORY_URI}:latest
docker push ${IMAGE_URI}
Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

현재 로컬 Docker로 빌드 후 푸시하는 구조입니다. 캐시가 워크플로우마다 초기화돼서 매번 전체 빌드가 돌게 됩니다.

docker/build-push-action@v5 + cache-from: type=gha를 쓰면 GitHub Actions 캐시로 레이어를 재사용해서 배포 시간을 크게 줄일 수 있습니다.

--cluster ${ECS_CLUSTER} \
--service ${ECS_SERVICE} \
--desired-count 0 \
--deployment-configuration "minimumHealthyPercent=0" \
Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

이 값이 ECS의 롤링 배포 여유를 0으로 설정합니다. 프리티어 1태스크 제약 때문에 어쩔 수 없는 선택인데, 향후 여유가 생기면 minimumHealthyPercent=50, maximumPercent=200 조합으로 바꾸시면 무중단 배포가 가능해질 것 같습니다.

다만 maximumPercent=200으로 변경하면 배포 중 잠깐 2태스크가 동시에 기동됩니다. 인스턴스 여유 용량(EC2) 또는 추가 Fargate 비용이 감당 가능하다면 지금도 적용을 고려해볼 수 있습니다. (프리티어에서도 아마 가능)

Comment on lines +46 to +49
DB_URL: jdbc:postgresql://localhost:5432/discodeit
DB_USERNAME: discodeit_user
DB_PASSWORD: discodeit1234
run: ./gradlew test jacocoTestReport --no-daemon
Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

이 이름들이 실제 application.yaml에서 읽히는 환경변수 이름과 매칭되는지 확인이 필요합니다.

지금 상태로는 서비스 컨테이너는 떠 있지만 테스트는 H2로 돌고 있을 가능성이 높습니다. 한 번 로그를 확인해보시면 좋을 것 같습니다.

uses: codecov/codecov-action@v5
with:
files: build/reports/jacoco/test/jacocoTestReport.xml
fail_ci_if_error: true
Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

CodeCov 업로드 실패를 CI 실패로 연결한 건 좋습니다. 다만 CodeCov 서비스 장애 시에도 CI가 막히는 부작용이 있습니다.

Comment on lines +167 to +181
private static S3Client createS3Client(String accessKey, String secretKey, String region) {
StaticCredentialsProvider credentialsProvider = createCredentialsProvider(accessKey, secretKey);
return S3Client.builder()
.region(Region.of(region))
.credentialsProvider(credentialsProvider)
.build();
}

private static S3Presigner createS3Presigner(String accessKey, String secretKey, String region) {
StaticCredentialsProvider credentialsProvider = createCredentialsProvider(accessKey, secretKey);
return S3Presigner.builder()
.region(Region.of(region))
.credentialsProvider(credentialsProvider)
.build();
}
Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

@Autowired가 붙은 주 생성자에서 AwsBasicCredentials를 만들어 S3ClientS3Presigner를 2번 생성합니다.(각각 전용 credentialsProvider 생성).

작동엔 문제가 없지만 StaticCredentialsProvider를 한 번만 만들어 공유하는 게 조금 더 깔끔할 것 같습니다.

Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

제네릭이나 BiFunction<Region, AwsCredentialsProvider, T> 패턴으로 한 메서드로 묶을 수도 있을 것 같습니다. 지금 규모에선 과한 추상화지만 S3 외 다른 AWS 서비스가 추가되는 순간 정리해두는 게 좋을 것 같습니다.

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment

Labels

None yet

Projects

None yet

Development

Successfully merging this pull request may close these issues.

2 participants