# 좋았던 것(Liked) - 데이터 분석 / 수집을 시작 / 파이널 프로젝트 준비하는 것 # 배운 것(Learned) - 스타벅스 크롤링 1. requests 함수 - 데이터 수집: requests.post(url, data=payload, headers=header) post: web post 방식으로 주고 받을 시 크롤링하여 json 파일을 긁어 오는것 headrs: json 파일 해더 payload: json 파일 구조 - r = requests.post(url, data=payload, headers=header) / r.text [스트링구조] r.json_load() 긁어온 json 파일을 json 형식으로 읽기 2. python DataFrame > SQL Database Table로 만들기 - 준비사항 ※ 마리아 DB or MySQL 설치 후 데이터 베이스 생성 ※ pip install mysqlclient, sqlalchemy, pymysql을 설치 할 것 1) user = 'root' 2) password = 패스워드 3) host = 127.0.0.1 [localhost] # 루프백 주소 4) port = '3307' 5) database = '데이터베이스 이름' 6) engine = sqlalchemy.create_engine(f"mysql://{user}:{password}@{host}:{port}/{database}") - 데이터 전송 데이터프레임.to_sql(con=engine, name="테이블이름",if_exists = 'replace') # 부족했던 것(Lacked) - 포트폴리오 준비 # 바라는 것(Longed for) - 파이널 프로젝트 팀원 구하기
좋았던 것(Liked)
배운 것(Learned)
post: web post 방식으로 주고 받을 시 크롤링하여 json 파일을 긁어 오는것
headrs: json 파일 해더
payload: json 파일 구조
r.json_load() 긁어온 json 파일을 json 형식으로 읽기
※ 마리아 DB or MySQL 설치 후 데이터 베이스 생성
※ pip install mysqlclient, sqlalchemy, pymysql을 설치 할 것
데이터프레임.to_sql(con=engine, name="테이블이름",if_exists = 'replace')
부족했던 것(Lacked)
바라는 것(Longed for)