Skip to content

[이규빈] Sprint8#252

Open
plzslp wants to merge 53 commits into
codeit-bootcamp-spring:이규빈from
plzslp:sprint8
Open

[이규빈] Sprint8#252
plzslp wants to merge 53 commits into
codeit-bootcamp-spring:이규빈from
plzslp:sprint8

Conversation

@plzslp
Copy link
Copy Markdown
Collaborator

@plzslp plzslp commented Apr 8, 2026

애플리케이션 컨테이너화

Dockerfile 작성

  • Amazon Corretto 17 이미지를 베이스 이미지로 사용하세요.
  • 작업 디렉토리를 설정하세요. (/app)
  • 프로젝트 파일을 컨테이너로 복사하세요. 단, 불필요한 파일은 .dockerignore를 활용해 제외하세요.
  • Gradle Wrapper를 사용하여 애플리케이션을 빌드하세요.
  • 80 포트를 노출하도록 설정하세요.
  • 프로젝트 정보를 환경 변수로 설정하세요.
    • 실행할 jar 파일의 이름을 추론하는데 활용됩니다.
    • PROJECT_NAME: discodeit
    • PROJECT_VERSION: 1.2-M8
  • JVM 옵션을 환경 변수로 설정하세요.
    • JVM_OPTS: 기본값은 빈 문자열로 정의
  • 애플리케이션 실행 명령어를 설정하세요. 이때 환경변수로 정의한 프로젝트 정보를 활용하세요.

이미지 빌드 및 실행 테스트

  • Docker 이미지를 빌드하고 태그(local)를 지정하세요.
  • 빌드된 이미지를 활용해서 컨테이너를 실행하고 애플리케이션을 테스트하세요.
    • prod 프로필로 실행하세요.
    • 데이터베이스는 로컬 환경에서 구동 중인 PostgreSQL 서버를 활용하세요.
    • http://localhost:8081로 접속 가능하도록 포트를 매핑하세요.

Docker Compose 구성

  • 개발 환경용 docker-compose.yml 파일을 작성합니다.
  • 애플리케이션과 PostgreSQL 서비스를 포함하세요.
  • 각 서비스에 필요한 모든 환경 변수를 설정하세요.
    • .env 파일을 활용하되, .env는 형상관리에서 제외하여 보안을 유지하세요.
  • 애플리케이션 서비스를 로컬 Dockerfile에서 빌드하도록 구성하세요.
  • 애플리케이션 볼륨을 구성하여 컨테이너가 재시작되어도 BinaryContentStorage 데이터가 유지되도록 하세요.
  • PostgreSQL 볼륨을 구성하여 컨테이너가 재시작되어도 데이터가 유지되도록 하세요.
  • PostgreSQL 서비스 실행 후 schema.sql이 자동으로 실행되도록 구성하세요.
  • 서비스 간 의존성을 설정하세요(depends_on).
  • 필요한 포트 매핑을 구성하세요.
  • Docker Compose를 사용하여 서비스를 시작하고 테스트하세요.
    • -build 플래그를 사용하여 서비스 시작 전에 이미지를 빌드하도록 합니다.

BinaryContentStorage 고도화 (AWS S3)

AWS S3 버킷 구성

  • AWS S3 버킷을 생성하세요.
    • 버킷 이름을 discodeit-binary-content-storage-(사용자 이니셜) 형식으로 지정하세요.
    • 퍼블릭 액세스 차단 설정을 활성화하세요(모든 퍼블릭 액세스 차단).
    • 버전 관리는 비활성화 상태로 두세요.

AWS S3 접근을 위한 IAM 구성

  • S3 버킷에 접근하기 위한 IAM 사용자(discodeit)를 생성하세요.

  • AmazonS3FullAccess 권한을 할당하고, 사용자 생성을 완료하세요.

  • 생성된 사용자에 엑세스 키를 생성하세요.

  • 발급받은 키를 포함해서 AWS 관련 정보는 .env 파일에 추가합니다.

    ...
    # AWS
    AWS_S3_ACCESS_KEY=**엑세스_키**
    AWS_S3_SECRET_KEY=**시크릿_키**
    AWS_S3_REGION=**ap-northeast-2**
    AWS_S3_BUCKET=**버킷_이름**
    
    • 작성한 .env 파일은 리뷰를 위해 PR에 별도로 첨부해주세요. 단, 엑세스 키와 시크릿 키는 제외하세요.

AWS S3 테스트

  • AWS S3 SDK 의존성을 추가하세요.

    implementation 'software.amazon.awssdk:s3:2.31.7'
  • S3 API를 간단하게 테스트하세요.

    • 패키지명: com.sprint.mission.discodeit.storage.s3
    • 클래스명: AWSS3Test
    • Properties 클래스를 활용해서 .env에 정의한 AWS 정보를 로드하세요.
    • 작업 별 테스트 메소드를 작성하세요.
      • 업로드
      • 다운로드
      • PresignedUrl 생성

AWS S3를 활용한 `BinaryContentStorage 고도화

  • 앞서 작성한 테스트 메소드를 참고해 S3BinaryContentStorage를 구현하세요.

    • 클래스 다이어그램
    evsb0sfio-image
  • discodeit.storage.type 값이 s3인 경우에만 Bean으로 등록되어야 합니다.

  • S3BinaryContentStorageTest를 함께 작성하면서 구현하세요.

  • BinaryContentStorage 설정을 유연하게 제어할 수 있도록 application.yaml을 수정하세요.

    discodeit:
      storage:
        type: local
        type: ${STORAGE_TYPE:local}  # local | s3 (기본값: local)
        local:
          root-path: .discodeit/storage
          root-path: ${STORAGE_LOCAL_ROOT_PATH:.discodeit/storage}
        s3:
          access-key: ${AWS_S3_ACCESS_KEY}
          secret-key: ${AWS_S3_SECRET_KEY}
          region: ${AWS_S3_REGION}
          bucket: ${AWS_S3_BUCKET}
          presigned-url-expiration: ${AWS_S3_PRESIGNED_URL_EXPIRATION:600} # (기본값: 10분)
    • AWS 관련 정보는 형상관리하면 안되므로 .env 파일에 작성된 값을 임포트하는 방식으로 설정하세요.
    • Docker Compose에서도 위 설정을 주입할 수 있도록 수정하세요.
  • download 메소드는 PresignedUrl을 활용해 리다이렉트하는 방식으로 구현하세요.

AWS를 활용한 배포 (AWS RDS, ECR, ECS)

AWS RDS 구성

  • AWS RDS PostgreSQL 인스턴스를 생성하세요.

    항목 비고
    데이터베이스 생성 방식 표준 생성
    엔진 옵션 > 엔진 유형 PostgreSQL
    엔진 옵션 > 엔진 버전 17.2-R2 기본값
    템플릿 프리 티어 과금 주의
    설정 > DB 인스턴스 식별자 discodeit-db
    설정 > 자격증명설정 > 마스터 사용자 이름 postgres 기본값
    설정 > 자격증명설정 > 자격 증명 관리 자체 관리 기본값
    설정 > 자격증명설정 > 마스터 암호 임의의 값 따로 메모해두세요.
    인스턴스 구성 > DB 인스턴스 클래스 db.t4g.micro 기본값
    연결 > 퍼블릭 액세스 아니오 과금 주의
    연결 > 추가구성 > 데이터베이스 포트 5432 기본값
    모니터링 > 보존기간 7일 (프리티어) 과금 주의
    모니터링 > 추가 모니터링 설정 모두 체크 해제 기본값, 과금 주의
    추가 구성 > 백업 체크 해제 과금 주의
    • 이외 설정은 기본값을 유지하세요.
  • 과금이 발생할 수 있으니 다음 항목은 한번 더 확인해주세요.

    • 템플릿: 프리티어
    • 퍼블릭 액세스: 아니오
    • 모니터링 > 보존기간: 7일
    • 모니터링 > 추가 모니터링 설정: 모두 체크 해제
    • 추가 구성 > 백업: 비활성화
  • SSH 터널링을 통해 개발 환경에서 접근할 수 있도록 EC2를 구성하세요.

    • EC2 인스턴스를 생성하세요.

      항목 비고
      이름 및 태그 rds-ssh
      인스턴스 유형 t2.micro 기본값, 과금 주의
      키 페어 새 키 페어 생성 .pem 파일 저장 위치를 기억하세요.
      네트워크 설정 > 방화벽(보안그룹) 기존 보안 그룹 선택
      • 이외 설정은 기본값을 유지하세요.
    • 보안 그룹에서 인바운드 규칙을 편집하세요.

      • 유형: SSH
      • 소스: 내 IP
        • 작업 환경의 네트워크(와이파이 등)가 달라지면 계속 수정해주어야 할 수 있습니다.
  • DataGrip을 통해 연결 후 데이터베이스와 사용자, 테이블을 초기화하세요.

    • 데이터 소스 추가 시 SSH/SSL > Use SSH tunnel 설정을 활성화하세요. 이때 이전에 다운로드한 .pem 파일을 활용하세요.

    • 연결이 성공하면 데이터베이스와 사용자, 테이블을 초기화하세요.

      -- 1. 새 유저 'discodeit_user' 생성 (비밀번호는 원하는 값으로 설정)
      CREATE USER discodeit_user WITH PASSWORD 'discodeit1234';
      
      -- 2. postgres 계정은 AWS RDS 환경 특성상 완전한 super user가 아니므로, discodeit_user에 대한 권한을 추가로 부여해야함.
      GRANT discodeit_user TO postgres;
      
      -- 3. 'discodeit' 데이터베이스 생성 (소유자는 'discodeit_user')
      CREATE DATABASE discodeit OWNER discodeit_user;
      
      -- 4. schema.sql 실행하여 테이블 생성
    • 구성이 완료되면 rds-ssh 인스턴스는 완전히 삭제하여 과금에 유의하세요.

AWS ECR 구성

  • 이미지를 배포할 퍼블릭 레포지토리(discodeit)를 생성하세요.

    • 프라이빗 레포지토리는 용량 제한이 있으므로 퍼블릭 레포지토리로 생성합니다.
  • AWS CLI를 설치하세요.

  • aws configure 실행 후 앞서 생성한 discodeit IAM 사용자 정보를 입력하세요.

    • 엑세스 키
    • 시크릿 키
    • region: ap-northeast-2
    • output format: json
  • discodeit IAM 사용자가 ECR에 접근할 수 있도록 다음 권한을 부여하세요.

    • AmazonElasticContainerRegistryPublicFullAccess
  • Docker 클라이언트를 배포할 레지스트리에 대해 인증합니다.

    • AWS 콘솔을 통해 생성한 레포지토리 페이지로 이동 후 우측 상단 푸시 명령 보기를 클릭하면 관련 명령어를 확인할 수 있습니다.

      # 예시
      aws ecr-public get-login-password --region us-east-1 | docker login --username AWS --password-stdin public.ecr.aws/...
  • 멀티플랫폼을 지원하도록 애플리케이션 이미지를 빌드하고, discodeit 레포지토리에 push 하세요.

    • 태그명: latest1.2-M8
    • 멀티플랫폼: linux/amd64,linux/arm64
  • AWS 콘솔에서 푸시된 이미지를 확인하세요.

AWS ECS 구성

  • 배포 환경에서 컨테이너 실행 간 사용할 환경 변수를 정의하고, S3에 업로드하세요.

    • discodeit.env 파일을 만들어 다음의 내용을 작성하세요.

      # Spring Configuration
      SPRING_PROFILES_ACTIVE=prod
      
      # Application Configuration
      STORAGE_TYPE=s3
      AWS_S3_ACCESS_KEY=엑세스_키
      AWS_S3_SECRET_KEY=시크릿_키
      AWS_S3_REGION=ap-northeast-2
      AWS_S3_BUCKET=버킷_이름
      AWS_S3_PRESIGNED_URL_EXPIRATION=600
      
      # DataSource Configuration
      RDS_ENDPOINT=RDS_엔드포인트(포트 포함)
      SPRING_DATASOURCE_URL=jdbc:postgresql://${RDS_ENDPOINT}/discodeit
      SPRING_DATASOURCE_USERNAME=RDS_유저네임(DataGrip을 통해 생성했던 유저)
      SPRING_DATASOURCE_PASSWORD=RDS_비밀번호
      
      # JVM Configuration (프리티어 고려)
      JVM_OPTS="-Xmx384m -Xms256m -XX:MaxMetaspaceSize=64m -XX:+UseSerialGC"
    • 이 파일을 S3에 업로드하세요.

    • 이 파일은 형상관리되지 않도록 주의하세요.

  • AWS ECS 콘솔에서 클러스터를 생성하세요.

    항목 비고
    클러스터 구성 > 클러스터 이름 discodeit-cluster
    인프라 > AWS Fargate(서버리스) 체크해제 과금 주의
    인프라 > Amazon EC2 인스턴스 체크
    인프라 > EC2 인스턴스 유형 t2.micro 과금 주의
    인프라 > 원하는 용량 최소 0, 최대 1 과금 주의
    인프라 > SSH 키 페어 새 키 페어 생성 후 지정
    • 이외 설정은 기본값을 유지하세요.
  • 태스크를 정의하세요.

    항목 비고
    태스크 정의 구성 > 태스크 정의 패밀리 discodeit-task
    인프라 요구 사항 > 시작 유형 AWS Fargate: 체크 해제, Amazon EC2 인스턴스: 체크
    인프라 요구 사항 > 네트워크 모드 bridge
    인프라 요구 사항 > 태스크 크기 CPU: 0.25 vCPU, 메모리: 0.5 GB
    컨테이너-1 > 컨테이너 세부 정보 이름: discodeit-app, 이미지 URI: 이전에 배포한 이미지
    컨테이너-1 > 포트 매핑 호스트 포트: 80, 컨테이너 포트: 80
    컨테이너-1 > 리소스 할당 제한 - 조건부 CPU: 0.25 vCPU, 메모리 하드 제한: 0.5 GB, 메모리 소프트 제한: 0.25 GB
    컨테이너-1 > 환경 변수 - 선택 사항 > 파일에서 추가 이전에 S3에 업로드한 discodeit.env 파일 지정
    • 이외 설정은 기본값을 유지하세요.
    • 태스크 생성 후 태스크 실행 역할에 S3 관련 권한을 추가하세요.
      • 환경 변수 파일을 읽기위해 필요합니다.
  • discodeit 클러스터 상세 화면에서 서비스를 생성하세요.

    항목 비고
    배포 구성 > 태스크 정의 패밀리 discodeit-task
    배포 구성 > 서비스 이름 discodeit-service
    배포 구성 > 원하는 태스크 1 기본값
    배포 구성 > 상태 검사 유예 기간 30초
    • 이외 설정은 기본값을 유지하세요.
  • 태스크의 EC2 보안 그룹의 인바운드 규칙을 설정하여 어디서든 접근할 수 있도록 하세요.

    • EC2 보안 그룹에서 인바운드 규칙을 편집하세요.
    • 규칙 유형으로 HTTP를 선택하세요.
    • 소스로 Anywhere-IPv4를 선택하여 모든 IP를 허용하세요.
  • 태스크 실행이 완료되면 해당 EC2의 퍼블릭 IP에 접속해보세요.

심화 요구사항

이미지 최적화하기

  • 멀티 스테이지(빌드런타임) 빌드를 활용해 이미지의 크기를 줄여보세요.
    • 태그명: local-slim
    • 이전에 빌드한 이미지(1.2-M8 또는 local)와 크기를 비교해보세요.
  • 이미지 레이어 캐시를 고려해 Dockerfile을 수정해보세요.

GitHub Actions를 활용한 CI/CD 파이프라인 구축

  • CI(지속적 통합)를 위한 워크플로우를 설정하세요.

    • .github/workflows/test.yml 파일을 생성하세요.
    • main 브랜치에 PR이 생성되면 실행되도록 설정하세요.
    • 테스트가 실행하는 Job을 정의하세요.
    • CodeCov 통해 테스트 커버리지 뱃지를 README에 추가해보세요.
    tb4cb7hos-image
  • CD(지속적 배포)를 위한 워크플로우를 설정하세요.

    •  .github/workflows/deploy.yml 파일을 생성하세요.
    •  release 브랜치에 코드가 푸시되면 실행되도록 설정하세요.
    • AWS 정보 설정
      • GitHub 레포지토리 설정을 통해 시크릿을 추가하세요.
        • AWS_ACCESS_KEY: IAM 사용자의 액세스 키
        • AWS_SECRET_KEY: IAM 사용자의 시크릿 키
      • GitHub 레포지토리 설정을 통해 변수를 추가하세요.
        • AWS_REGION: AWS 리전(ap-northeast-2)
        • ECR_REPOSITORY_URI: ECR 레포지토리 URI
        • ECS_CLUSTER: ECS 클러스터 이름(discodeit-cluster)
        • ECS_SERVICE: ECS 서비스 이름(discodeit-service)
        • ECS_TASK_DEFINITION: ECS 태스크 정의 이름(discodeit-task)
    • Docker 이미지 빌드 및 푸시
      • Docker 이미지를 빌드하고 푸시하는 Job을 정의하세요.
      • AWS CLI를 설정하는 Step을 추가하세요.
        • Pubilc ECR에 배포해야하므로 리전은 us-east-1으로 설정해야합니다.
      • ECR 로그인 Step을 추가하세요.
        • Public ECR에 로그인해야합니다.
      • Docker 이미지 빌드 및 푸시하는 과정을 Step으로 추가하세요.
        • 단, 빌드 시간 단축을 위해 멀티 플랫폼 옵션은 제외합니다.
        • GitHub Actions의 런타임 OS와 우리가 배포할 ECS는 모두 x86_64입니다.
      • 이미지 태그는 latest와 GitHub 커밋 해시를 사용하도록 설정하세요.
    • ECS 서비스 업데이트
      • ECS 서비스를 업데이트하는 Job을 정의하세요.
      • AWS CLI를 설정하는 Step을 추가하세요.
        • 우리의 ECS 클러스터에 접근해야하므로 리전은 AWS_REGION으로 설정해야합니다.
      • 태스크 정의를 업데이트하는 Step을 추가하세요.
        • 기존의 태스크 정의를 기반으로 새 이미지를 사용하도록 업데이트하세요.
      • 프리티어 리소스를 고려해 AWS CLI를 사용해 기존에 구동 중인 서비스를 중단하는 Step을 추가하세요.
        • aws ecs update-service --desired-count 옵션을 활용하세요.
      • 새로 등록한 태스크 정의를 사용하도록 ECS 서비스를 업데이트하는 Step을 추가하세요.
    • AWS 콘솔을 통해 새로 등록된 태스크 정의로 배포되었는지 확인하세요.

리뷰를 위해 PR에 포함해야할 정보

  • .env 파일 (AWS 키는 제외)

  • RDS

    • AWS 콘솔 인스턴스 상세 페이지 스크린샷 이미지

    • rds_aws_1
    • SSH 터널링을 통해 연결한 DataGrip 스크린샷 이미지 (생성한 테이블 목록이 보이도록 캡처해주세요.)

    • rds_datagrip_1
  • ECR

    • 요구사항은 Public ECR을 사용하라고 되어있지만 Private ECR을 사용해도 된다고 안내를 받아 Private ECR을 사용했습니다.
    • 푸시된 이미지가 보이는 AWS 콘솔 페이지 스크린샷 이미지
    • ecr_aws_1
  • ECS

    • 실행 중인 태스크 구성정보가 표시된 AWS 콘솔 페이지 스크린샷 이미지

    • ecs_aws_1
    • 배포된 EC2 엔드포인트

    • [리뷰 완료 후 삭제]

  • VPC

    • 보안 그룹의 인바운드 규칙을 확인할 수 있는 AWS 콘솔 페이지 스크린샷 이미지
    • vpc_aws_1
  • IAM

    • 사용자의 권한 정책이 표시된 AWS 콘솔 페이지 스크린샷 이미지
    • iam_aws_1
    • iam_role_aws_1

멘토에게

  • Apr 6, 2026 커밋부터 미션 8 진행 내용입니다.
  • 기존 이론 수업때 진행했던 방식을 참고하여 미션 자체는 완료했지만, 진행하면서 스스로 도커, VPC, 보안그룹이나 ECS에 대한 이해도가 낮다고 느꼈습니다. 복습을 진행하고 싶은데 완벽히 이해하고 넘어가야하는 AWS의 주요 개념들로는 어떤게 있는지 궁금합니다.

-모든 FileRepository 구현체에 ReentrantLock 적용

- SpringDoc OpenAPI 의존성 추가
- UserStatus 업데이트 로직 및 PATCH 메서드 수정

- UserController 엔드포인트 변경 및 RequestBody 적용

- ChannelDto.Response 필드명 수정 (lastMessageAt)
- ChannelController 및 Service의 채널 생성 로직 수정

- UserController의 생성, 수정 메서드 RequestPart 어노테이션 적용

- 제공된 정적 리소스 파일 추가
- MessageController, ReadStatusController, BinaryContentController 로직 수정

- 연관된 Service 및 Entity 비즈니스 로직 수정
- Update 요청 DTO 필드명 변경

- RequestParam 어노테이션에 키(value) 지정

- 프론트엔드 연동 및 API 일관성 확보를 위한 리팩토링
- ErrorResponse 및 BusinessLogicException 기반의 공통 예외 응답 규격 적용

- 서비스 계층 내 하드코딩된 예외를 커스텀 예외로 교체

- BasicChannelService 참여자 목록 동기화 누락 해결

- 미사용 Import 제거 및 코드 최적화 진행
- BasicChannelService 채널 전체 조회 시 lastMessageAt 필드 누락 문제 해결

- 공개 및 비공개 채널의 최근 메시지 시간(Instant) 매핑 로직 적용

- 프라이빗 메서드 추출(getParticipantIds, getLastMessageAt)을 통한 코드 가독성 개선
- 내부 클래스로 관리되던 DTO를 도메인별 개별 클래스로 추출

- 어노테이션을 통한 요청 데이터 유효성 검증 로직 적용

- DTO 클래스 분리에 따른 연관 Service 및 Controller 참조 로직 수정
- build.gradle: Spring Data JPA 및 MapStruct 의존성 추가

- application.yaml: 데이터베이스 연결 및 JPA/SQL 디버깅 로그 설정 추가

- schema.sql: 초기 테이블 생성을 위한 데이터베이스 스키마 정의 파일 추가
- BaseEntity 추상 클래스 생성 및 JPA Auditing 적용

- 엔티티 간 ID 참조 방식을 객체 참조 기반의 연관관계 매핑으로 개편

- ManyToOne, OneToMany 설정 및 영속성 전이(cascade), 고아 객체 제거 적용

- JpaRepository 기반 레포지토리 재작성 및 기존(JCF, File) 구현체 삭제
- BinaryContentStorage 인터페이스 설계 및 로컬 구현체 추가

- ConditionalOnProperty 기반 스토리지 자동 빈 등록 설정

- 파일 다운로드 API 구현 및 ResponseEntity 반환 타입 적용
- Pageable을 활용한 오프셋 방식 페이지네이션 로직 적용

- 공통 응답 규격 PageResponse DTO 도입 및 데이터 직렬화 최적화
- N+1 문제 해결 및 OSIV 비활성화에 따른 쿼리 효율성 개선

- Transactional 경계 설정 및 변경 감지(Dirty Checking) 기반 로직 리팩토링
- ReadStatus 엔티티 업데이트 로직 수정 및 요청 DTO 필드 추가

- Channel 엔티티 (name, description) Nullable 허용

- 파일 다운로드 Content-Disposition 헤더 추가 및 로그인 401 상태 코드 반영

- ErrorResponse 수정
- MessageRepository, BasicMessageService: 페이징 로직 수정
- LocalBinaryContentStorage: 디렉토리 위치 변경
- BaseUpdatableEntity: updateIfChanged 추가
- Channel, User, Message: 변경된 수정 로직 적용
- schema.sql: timestamp with time zone 적용
- frontend 폴더: 정적 리소스와 중복되어 삭제
- application-dev.yml: 개발 환경에 대한 프로필 추가
- application-prod.yml: 운영 환경에 대한 프로필 추가
- logback-spring.xml: 로그 파일 출력 및 롤링 설정
- User, Channel, Message, BinaryContent의 CUD 작업에 INFO 레벨 로깅 적용
- 목록 및 단건 조회(Read) 메서드에 DEBUG 레벨 로깅 일관성 있게 적용
- DiscodeitException 기반의 도메인별 예외 계층 구조(User, Channel 등) 구축
- ErrorResponse 규격에 필드별 상세 오류 정보(details) 및 클래스명(getSimpleName) 반영
- 모든 서비스 레이어에서 예외 발생 시 관련 식별자(ID, Username 등)를 details 맵에 포함하도록 개선
- Valid를 활용한 검증 로직 고도화
- GlobalExceptionHandler:
 - MethodArgumentNotValidException 처리 로직 추가
 - ConstraintViolationException 처리 로직 추가
- 프론트엔드 정적리소스 업데이트
- BinaryContentException을 상속받지 않던 예외들 수정
plzslp added 18 commits March 26, 2026 18:32
- Spring Boot Actuator 의존성 추가 및 엔드포인트 노출 설정
- application.yml에 앱 이름, 버전, 자바/스프링 버전 및 주요 설정 정보(info) 추가
- MessageController에서 첨부파일(attachments)이 null일 때 .size() 호출로 인한 NPE 발생 로직 수정
- UserService: create, update, delete 성공/실패 케이스 작성
- ChannelService: 공개/비공개 채널 생성 및 수정/삭제/조회 로직 검증
- MessageService: 첨부파일 포함 생성, 비공개 채널 권한 체크, 커서 기반 페이징 로직 검증
- 비공개 채널 생성 로직 수정
  - 존재하지 않는 참여자 ID가 포함된 경우 무시하지 않고 즉시 예외를 발생시키도록 변경
- 메시지 목록 조회(findAllByChannelId) 로직 개선
  - 조회 전 채널 존재 여부를 확인하는 방어 로직 추가 및 관련 실패 테스트 케이스 작성
- 애플리케이션 로깅 및 예외 처리 레벨 최적화
  - 컨트롤러와 서비스 계층 간의 중복된 로그 제거
- DTO 유효성 검증(Validation) 강화
  - UserCreateRequest: email 필드에 null 및 공백 방지를 위한 NotBlank 추가
  - PrivateChannelCreateRequest: 참가자 리스트 내부 UUID에 대한 NotNull 검증 추가
- MDCLoggingInterceptor:
  - 요청 진입 시 UUID, HTTP 메소드, URI 정보를 MDC에 저장
  - 응답 헤더에 'Discodeit-Request-ID' 추가
- WebMvcConfig: 애플리케이션의 모든 API 경로에 MDC 인터셉터 동작 등록
- logback-spring.xml: 출력 패턴 변경
- schema.sql: timestamp with time zone이 누락된 부분 수정
- Admin 서버 모듈 추가:
  - admin 모듈 구성 및 settings.gradle 등록
  - EnableAdminServer 적용 및 9090 포트 실행
- Discodeit:
  - build.gradle: spring-boot-admin-starter-client 의존성 추가
- DataJpaTest를 이용한 리포지토리 계층 슬라이스 테스트 구현
- WebMvcTest를 이용한 컨트롤러 슬라이스 테스트 구현
- JPA Auditing 설정을 JpaAuditingConfig로 분리
- - User, Channel, Message 주요 API 통합 테스트 작성
- 기존 테스트 코드 불필요한 import 제거
- Dockerfile 작성
- Docker Compose 구성 및 빌드 테스트 진행
- S3BinaryContentStorage: S3 버킷에 저장 및 다운로드 로직 구현
- AWSS3Test: 업로드와 Presigned URL 생성 테스트 로직 작성
@plzslp plzslp self-assigned this Apr 8, 2026
@plzslp plzslp requested a review from joonfluence April 8, 2026 08:24
@plzslp plzslp added the 매운맛🔥 뒤는 없습니다. 그냥 필터 없이 말해주세요. 책임은 제가 집니다. label Apr 8, 2026
Copy link
Copy Markdown
Collaborator

@joonfluence joonfluence left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

전체 요약

Docker 컨테이너화, AWS S3 스토리지 통합, RDS/ECR/ECS 기반 배포 파이프라인, GitHub Actions CI/CD를 구현한 PR입니다. 전반적인 구성은 잘 되어 있으나 ECR 타입 불일치 및 일부 코드 오류가 있습니다.

잘된 점 👍

  • MDCLoggingInterceptor로 모든 요청에 고유 request_id를 자동 부여하고 응답 헤더에도 노출한 점이 실무적으로 훌륭합니다.
  • docker-compose.yml에 PostgreSQL healthcheck를 구성하고 depends_on: condition: service_healthy로 앱 기동 순서를 보장한 점이 좋습니다.
  • Dockerfile 멀티 스테이지 빌드에서 의존성 레이어를 소스 코드보다 먼저 COPY하는 캐시 최적화 전략을 이해하고 적용한 점을 높이 평가합니다.

Comment thread .github/workflows/deploy.yml Outdated
- name: Configure AWS Credentials
uses: aws-actions/configure-aws-credentials@v2
with:
aws-access-key-id: ${{ secrets.AWS_S3_ACCESS_KEY }}
Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

[p2] AWS Secret 이름이 요구사항과 불일치합니다.

미션 요구사항에서 GitHub Secret 이름을 AWS_ACCESS_KEY, AWS_SECRET_KEY로 지정했는데, workflow는 AWS_S3_ACCESS_KEY, AWS_S3_SECRET_KEY를 참조하고 있습니다. 요구사항대로 Secret을 등록했다면 이 workflow는 실행 시 인증 실패가 발생합니다.

Suggested change
aws-access-key-id: ${{ secrets.AWS_S3_ACCESS_KEY }}
aws-access-key-id: ${{ secrets.AWS_ACCESS_KEY }}
aws-secret-access-key: ${{ secrets.AWS_SECRET_KEY }}

- name: ECR Login
run: |
aws ecr get-login-password --region ${{ vars.AWS_REGION }} \
| docker login --username AWS --password-stdin \
Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

[p2] Public ECR이 아닌 Private ECR 로그인 방식을 사용하고 있습니다.

PR 설명과 미션 요구사항에는 퍼블릭 ECR을 생성·사용한다고 명시되어 있는데, 실제 코드는 프라이빗 ECR 로그인 방식(aws ecr get-login-password + *.dkr.ecr.*.amazonaws.com)을 사용하고 있습니다.

ecs-task-def.json의 이미지 URI도 프라이빗 ECR 형식을 사용하고 있어, 실제로는 프라이빗 ECR로 전환한 것으로 보입니다. 의도한 것이라면 PR 설명을 업데이트하고, 미션 요구사항(Public ECR)을 따르려면 아래와 같이 수정이 필요합니다:

  • AWS Credentials 설정 시 aws-region: us-east-1으로 변경
  • 로그인 명령: aws ecr-public get-login-password --region us-east-1 | docker login --username AWS --password-stdin public.ecr.aws
  • 이미지 URI 형식: public.ecr.aws/<alias>/discodeit:$IMAGE_TAG

Copy link
Copy Markdown
Collaborator Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

요구사항은 Public ECR을 사용하라고 되어있지만 Private ECR을 사용해도 된다고 안내를 받아 Private ECR을 사용했습니다.
PR에도 내용 추가해두겠습니다.

Comment thread Dockerfile Outdated
# gradlew 실행 권한 부여
RUN chmod +x ./gradlew
# 의존성만 먼저 다운로드하여 캐시 활용 (코드 변경 없이 재사용 가능)
RUN ./gradlew --no-daemon --refresh-dependencies dependencies || true
Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

[p3] --refresh-dependencies 플래그가 레이어 캐시 효과를 무효화합니다.

이 단계를 소스 코드 COPY보다 앞에 배치한 목적은 build.gradle이 변경되지 않는 한 의존성 다운로드 레이어를 캐시하기 위함입니다. 그러나 --refresh-dependencies는 Gradle 캐시를 강제 무효화하여 매번 의존성을 재다운로드하므로 이 최적화가 완전히 무효화됩니다.

Suggested change
RUN ./gradlew --no-daemon --refresh-dependencies dependencies || true
RUN ./gradlew --no-daemon dependencies || true

Comment thread docker-compose.yml

on:
push:
branches: [ "release" ]
Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

[p4] 미션 요구사항에서 2개 Job으로 분리하도록 명시했습니다.

요구사항에서 "Docker 이미지 빌드 및 푸시 Job"과 "ECS 서비스 업데이트 Job"을 별도 Job으로 정의하도록 했는데, 현재는 build-and-push 단일 Job에 모든 Step이 포함되어 있습니다. 기능상 문제는 없지만, 두 Job으로 분리하고 needs: build-and-push로 의존성을 설정하면 요구사항을 충족하고 관심사 분리도 명확해집니다.

Copy link
Copy Markdown
Collaborator Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Job 분리는 추후 중급 프로젝트 이후 진행하도록 하겠습니다

Comment thread README.md
@@ -0,0 +1,3 @@
[![codecov](https://codecov.io/github/plzslp/10-sprint-mission/branch/sprint8/graph/badge.svg?token=W9V3DKV1KP)](https://codecov.io/github/plzslp/10-sprint-mission)
Copy link
Copy Markdown
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

[p5] codecov 뱃지 브랜치가 sprint8으로 고정되어 있습니다.

이 브랜치가 merge된 후에는 뱃지가 제대로 표시되지 않을 수 있습니다. main 브랜치로 변경하는 것을 권장합니다.

@plzslp plzslp requested a review from joonfluence April 22, 2026 12:39
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment

Labels

매운맛🔥 뒤는 없습니다. 그냥 필터 없이 말해주세요. 책임은 제가 집니다.

Projects

None yet

Development

Successfully merging this pull request may close these issues.

2 participants