[성주현] Sprint8#274
Conversation
byungwook-min
left a comment
There was a problem hiding this comment.
전체적으로 정말 잘 해내셨어요. 특히 Docker 이미지 최적화와 CI/CD 파이프라인 쪽 설계를 정말 잘해주신 것 같습니다. layertools까지 활용한 멀티스테이지 빌드, 의존성 캐시를 위한 복사 순서 조정, Public ECR 전용 us-east-1 분리와 ECS 자동 롤아웃, CodeCov 연동까지 각각이 배운 개념을 왜 그래야 하는지 이해하고 선택한 흔적이 곳곳에 보인 것 같습니다.
S3 전환도 대체로 완성도 높게 이루어졌어요. @ConditionalOnProperty로 로컬/S3 스토리지를 투명하게 스위칭하는 구조, PresignedUrl + 302 리다이렉트로 트래픽을 애플리케이션이 아닌 S3 쪽에 내보내는 설계, 그리고 S3BinaryContentStorageTest에서 presigner 모킹의 어려움을 protected 메서드 오버라이드로 우회한 테스트 전략까지 디자인 의도가 명확하게 읽히는 코드인 것 같습니다. 테스트 안정성 측면에서도 AWSS3Test를 Assumptions.assumeTrue로 조건부 실행되게 만든 것이 너무 좋습니다.
다만 한 가지, 스토리지 전환의 영향 반경을 한 번 더 생각해봤으면 좋을 것 같습니다. 현재 BasicBinaryContentService.create는 DB에 먼저 save 하고 그 다음에 S3에 put 하는 순서인데, S3 put이 실패했을 때 DB 레코드를 롤백하는 장치가 빠져 있어요. 로컬 스토리지에서는 같은 서버 내 동기 작업이라 큰 이슈가 아니었지만, S3로 가는 순간 이 구간은 분산 트랜잭션의 실패 지점이 됩니다. 스토리지 교체 자체는 잘 했는데, 교체 이후 달라지는 실패 모델에 대한 대응이 코드 레벨에서 같이 업데이트되진 않았어요. 이 부분을 한 번 짚어보시면 좋을 것 같습니다.
전체적으로 너무 잘 해주셨습니다. 고생 많으셨습니다. LGTM :)
|
|
||
| EXPOSE 80 | ||
|
|
||
| ENTRYPOINT ["sh", "-c", "java ${JVM_OPTS} -Dserver.port=${SERVER_PORT} org.springframework.boot.loader.launch.JarLauncher"] No newline at end of file |
There was a problem hiding this comment.
sh -c 형태라 컨테이너가 받는 시그널(특히 SIGTERM)이 sh에서 멈추고 Java 프로세스까지 전달되지 않을 위험이 있습니다. ECS에서 그레이스풀 셧다운이 중요하다면 exec java …를 쓰거나 tini를 PID 1로 두는 방식이 안전합니다.
| WORKDIR /app | ||
|
|
||
| ENV JVM_OPTS="" | ||
| ENV SERVER_PORT=80 |
There was a problem hiding this comment.
SERVER_PORT=80기본값이 하드코딩되어 있는데application-prod.yaml에서는 ${SERVER_PORT:80}`으로 되어있습니다. 한 군데(yaml 쪽)만 defaults를 가지게 하는 게 유지보수하기 편합니다.
There was a problem hiding this comment.
요구사항의 모든 항목(서비스 분리, .env 활용, 로컬 빌드, 볼륨 2종, schema.sql 자동 실행, depends_on, 포트 매핑)이 모두 충족되어 있어요. 구성 자체는 너무 깔끔하게 잘 해주신 것 같습니다 👍
| depends_on: | ||
| - db |
There was a problem hiding this comment.
depends_on이 조건 없이 나열되어 있어서 컨테이너의 시작 시점까지만 기다립니다. PostgreSQL이 실제로 쿼리를 받을 준비가 되기 전에 Spring이 커넥션을 시도하면 첫 부팅에서 재시작 루프에 빠질 수 있습니다.
.github/workflows/test.yml에서도 healthcheck 패턴을 쓰고 계시니 docker-compose에도 일관되게 적용하시면 좋을 것 같습니다.
| /storage/ | ||
| .logs/ No newline at end of file | ||
| .logs/ | ||
| *.env |
There was a problem hiding this comment.
리뷰용 .env.example을 함께 커밋하시면 좋을 것 같습니다. 다른 사람들이 어떤 값을 설정해야 하는지도 보기 쉽고, 로컬 환경에서도 참고할 수 있어 좋습니다. (민감값은 빈 문자열로)
| - name: Docker 이미지 빌드 | ||
| run: | | ||
| docker build \ | ||
| -t ${ECR_REPOSITORY_URI}:latest \ | ||
| -t ${IMAGE_URI} \ | ||
| . | ||
|
|
||
| - name: Docker 이미지 푸시 | ||
| run: | | ||
| docker push ${ECR_REPOSITORY_URI}:latest | ||
| docker push ${IMAGE_URI} |
There was a problem hiding this comment.
현재 로컬 Docker로 빌드 후 푸시하는 구조입니다. 캐시가 워크플로우마다 초기화돼서 매번 전체 빌드가 돌게 됩니다.
docker/build-push-action@v5 + cache-from: type=gha를 쓰면 GitHub Actions 캐시로 레이어를 재사용해서 배포 시간을 크게 줄일 수 있습니다.
| --cluster ${ECS_CLUSTER} \ | ||
| --service ${ECS_SERVICE} \ | ||
| --desired-count 0 \ | ||
| --deployment-configuration "minimumHealthyPercent=0" \ |
There was a problem hiding this comment.
이 값이 ECS의 롤링 배포 여유를 0으로 설정합니다. 프리티어 1태스크 제약 때문에 어쩔 수 없는 선택인데, 향후 여유가 생기면 minimumHealthyPercent=50, maximumPercent=200 조합으로 바꾸시면 무중단 배포가 가능해질 것 같습니다.
다만 maximumPercent=200으로 변경하면 배포 중 잠깐 2태스크가 동시에 기동됩니다. 인스턴스 여유 용량(EC2) 또는 추가 Fargate 비용이 감당 가능하다면 지금도 적용을 고려해볼 수 있습니다. (프리티어에서도 아마 가능)
| DB_URL: jdbc:postgresql://localhost:5432/discodeit | ||
| DB_USERNAME: discodeit_user | ||
| DB_PASSWORD: discodeit1234 | ||
| run: ./gradlew test jacocoTestReport --no-daemon |
There was a problem hiding this comment.
이 이름들이 실제 application.yaml에서 읽히는 환경변수 이름과 매칭되는지 확인이 필요합니다.
지금 상태로는 서비스 컨테이너는 떠 있지만 테스트는 H2로 돌고 있을 가능성이 높습니다. 한 번 로그를 확인해보시면 좋을 것 같습니다.
| uses: codecov/codecov-action@v5 | ||
| with: | ||
| files: build/reports/jacoco/test/jacocoTestReport.xml | ||
| fail_ci_if_error: true |
There was a problem hiding this comment.
CodeCov 업로드 실패를 CI 실패로 연결한 건 좋습니다. 다만 CodeCov 서비스 장애 시에도 CI가 막히는 부작용이 있습니다.
| private static S3Client createS3Client(String accessKey, String secretKey, String region) { | ||
| StaticCredentialsProvider credentialsProvider = createCredentialsProvider(accessKey, secretKey); | ||
| return S3Client.builder() | ||
| .region(Region.of(region)) | ||
| .credentialsProvider(credentialsProvider) | ||
| .build(); | ||
| } | ||
|
|
||
| private static S3Presigner createS3Presigner(String accessKey, String secretKey, String region) { | ||
| StaticCredentialsProvider credentialsProvider = createCredentialsProvider(accessKey, secretKey); | ||
| return S3Presigner.builder() | ||
| .region(Region.of(region)) | ||
| .credentialsProvider(credentialsProvider) | ||
| .build(); | ||
| } |
There was a problem hiding this comment.
@Autowired가 붙은 주 생성자에서 AwsBasicCredentials를 만들어 S3Client와 S3Presigner를 2번 생성합니다.(각각 전용 credentialsProvider 생성).
작동엔 문제가 없지만 StaticCredentialsProvider를 한 번만 만들어 공유하는 게 조금 더 깔끔할 것 같습니다.
There was a problem hiding this comment.
제네릭이나 BiFunction<Region, AwsCredentialsProvider, T> 패턴으로 한 메서드로 묶을 수도 있을 것 같습니다. 지금 규모에선 과한 추상화지만 S3 외 다른 AWS 서비스가 추가되는 순간 정리해두는 게 좋을 것 같습니다.
프로젝트 마일스톤
AWS S3)AWS ECS,RDS)GitHub Actions)베이스 코드
이전 미션에서 아직 달성하지 못한 요구사항이 있어 이 미션을 수행하기 어렵다면 베이스 코드를 참고해보세요.
주요 변경 사항
1. 원활한 실습 진행을 위해
Spring Boot Admin관련 코드는 삭제되었습니다.admin모듈IntelliJ Gradle툴 윈도우에서도 삭제해주세요.spring boot admin의존성 삭제2. 프로젝트 버전이 변경되었습니다.
v1.2-M8세부 사항
1.2:api-doc버전을 따릅니다.M8: 미션 8을 의미합니다.과금 안내사항
미션 진행 중 유의사항
이 미션은 AWS 프리티어 할당량 내에서 충분히 수행 가능하도록 설계되었습니다. 불필요한 비용이 발생하지 않도록 미션 요구사항을 사전에 꼼꼼히 확인해 주시기 바랍니다.
미션 종료 후 안내사항
멘토님들의 리뷰가 완료된 후에는 추후에 진행할 실습(미션, 중급 프로젝트 등)을 위해, 이번 미션에서 생성했던 모든 AWS 리소스(EC2, RDS, S3)를 반드시 삭제해 주세요. 리소스를 '중지'하는 것이 아닌 '삭제'해야 추가 비용이 발생하지 않습니다.
애플리케이션 컨테이너화
Dockerfile 작성
/app).dockerignore를 활용해 제외하세요.80포트를 노출하도록 설정하세요.PROJECT_NAME: discodeitPROJECT_VERSION: 1.2-M8JVM_OPTS: 기본값은 빈 문자열로 정의이미지 빌드 및 실행 테스트
local)를 지정하세요.prod프로필로 실행하세요.http://localhost:8081로 접속 가능하도록 포트를 매핑하세요.Docker Compose 구성
docker-compose.yml파일을 작성합니다..env파일을 활용하되,.env는 형상관리에서 제외하여 보안을 유지하세요.BinaryContentStorage데이터가 유지되도록 하세요.schema.sql이 자동으로 실행되도록 구성하세요.depends_on).-build플래그를 사용하여 서비스 시작 전에 이미지를 빌드하도록 합니다.BinaryContentStorage 고도화 (AWS S3)
AWS S3 버킷 구성
discodeit-binary-content-storage-(사용자 이니셜)형식으로 지정하세요.AWS S3 접근을 위한 IAM 구성
S3 버킷에 접근하기 위한 IAM 사용자(
discodeit)를 생성하세요.AmazonS3FullAccess권한을 할당하고, 사용자 생성을 완료하세요.생성된 사용자에 엑세스 키를 생성하세요.
발급받은 키를 포함해서 AWS 관련 정보는
.env파일에 추가합니다..env파일은 리뷰를 위해 PR에 별도로 첨부해주세요. 단, 엑세스 키와 시크릿 키는 제외하세요.AWS S3 테스트
AWS S3 SDK 의존성을 추가하세요.
implementation 'software.amazon.awssdk:s3:2.31.7'S3 API를 간단하게 테스트하세요.
com.sprint.mission.discodeit.stoarge.s3AWSS3TestProperties클래스를 활용해서.env에 정의한 AWS 정보를 로드하세요.AWS S3를 활용한
BinaryContentStroage고도화앞서 작성한 테스트 메소드를 참고해
S3BinaryContentStorage를 구현하세요.클래스 다이어그램
discodeit.storage.type값이s3인 경우에만 Bean으로 등록되어야 합니다.S3BinaryContentStorageTest를 함께 작성하면서 구현하세요.BinaryContentStorage설정을 유연하게 제어할 수 있도록application.yaml을 수정하세요..env파일에 작성된 값을 임포트하는 방식으로 설정하세요.download메소드는PresignedUrl을 활용해 리다이렉트하는 방식으로 구현하세요.AWS를 활용한 배포 (AWS RDS, ECR, ECS)
AWS RDS 구성
프리티어아니오7일모두 체크 해제비활성화SSH내 IP데이터 소스 추가 시
SSH/SSL > Use SSH tunnel설정을 활성화하세요. 이때 이전에 다운로드한.pem파일을 활용하세요.연결이 성공하면 데이터베이스와 사용자, 테이블을 초기화하세요.
구성이 완료되면
rds-ssh인스턴스는 완전히 삭제하여 과금에 유의하세요.AWS ECR 구성
이미지를 배포할 퍼블릭 레포지토리(
discodeit)를 생성하세요.AWS CLI를 설치하세요.
aws configure실행 후 앞서 생성한discodeitIAM 사용자 정보를 입력하세요.ap-northeast-2jsondiscodeitIAM 사용자가 ECR에 접근할 수 있도록 다음 권한을 부여하세요.AmazonElasticContainerRegistryPublicFullAccessDocker 클라이언트를 배포할 레지스트리에 대해 인증합니다.
AWS 콘솔을 통해 생성한 레포지토리 페이지로 이동 후 우측 상단
푸시 명령 보기를 클릭하면 관련 명령어를 확인할 수 있습니다.멀티플랫폼을 지원하도록 애플리케이션 이미지를 빌드하고,
discodeit레포지토리에 push 하세요.latest,1.2-M8linux/amd64,linux/arm64AWS 콘솔에서 푸시된 이미지를 확인하세요.
AWS ECS 구성
배포 환경에서 컨테이너 실행 간 사용할 환경 변수를 정의하고, S3에 업로드하세요.
discodeit.env파일을 만들어 다음의 내용을 작성하세요.이 파일을 S3에 업로드하세요.
# configs/ 폴더 안에 저장하기 aws s3 cp discodeit.env s3://discodeit-binary-content-storage-kmh/configs/discodeit.envAWS ECS 콘솔에서 클러스터를 생성하세요.
태스크 실행 역할에 S3 관련 권한을 추가하세요.discodeit클러스터 상세 화면에서 서비스를 생성하세요.HTTP를 선택하세요.Anywhere-IPv4를 선택하여 모든 IP를 허용하세요.심화 요구사항
이미지 최적화하기
빌드,런타임) 빌드를 활용해 이미지의 크기를 줄여보세요.local-slim1.2-M8또는local)와 크기를 비교해보세요.GitHub Actions를 활용한 CI/CD 파이프라인 구축
CI(지속적 통합)를 위한 워크플로우를 설정하세요.
.github/workflows/test.yml파일을 생성하세요.main브랜치에 PR이 생성되면 실행되도록 설정하세요.CD(지속적 배포)를 위한 워크플로우를 설정하세요.
.github/workflows/deploy.yml파일을 생성하세요.release브랜치에 코드가 푸시되면 실행되도록 설정하세요.AWS_ACCESS_KEY: IAM 사용자의 액세스 키AWS_SECRET_KEY: IAM 사용자의 시크릿 키AWS_REGION: AWS 리전(ap-northeast-2)ECR_REPOSITORY_URI: ECR 레포지토리 URIECS_CLUSTER: ECS 클러스터 이름(discodeit-cluster)ECS_SERVICE: ECS 서비스 이름(discodeit-service)ECS_TASK_DEFINITION: ECS 태스크 정의 이름(discodeit-task)us-east-1으로 설정해야합니다.x86_64입니다.latest와 GitHub 커밋 해시를 사용하도록 설정하세요.AWS_REGION으로 설정해야합니다.aws ecs update-service --desired-count옵션을 활용하세요.✅ 필수 포함 정보
.env 파일(AWS 키 제외)
discodeit.env 파일
.env 파일(docker-compose)
RDS
AWS 콘솔 인스턴스 상세 페이지 스크린샷 이미지
SSH 터널링을 통해 연결한 DataGrip 스크린샷 이미지
<img width="492" height="280" alt="RDS-SSH 터널링을 통해 연결한 DataGrip 스크린샷 이미지" src="https://github.com/user-attachments/assets/2bfcc801-c1d8-458f-b651-c61efc75f21b" /
ECR
푸시된 이미지가 보이는 AWS 콘솔 페이지 스크린샷 이미지
ECS
실행 중인 태스크 구성정보가 표시된 AWS 콘솔 페이지 스크린샷 이미지
배포된 EC2 엔드포인트
VPC
보안 그룹의 인바운드 규칙을 확인할 수 있는 AWS 콘솔 페이지 스크린샷 이미지
IAM
사용자의 권한 정책이 표시된 AWS 콘솔 페이지 스크린샷 이미지