Database/BigQuery
BigQuery으로 저장된 데이터 Python 스크립트로 확인하기
dtstory
2022. 10. 19. 19:30
<빅 쿼리 데이터 조회>
# 모듈 로드
# 모듈 로드
import glob
from google.cloud import bigquery
from google.oauth2 import service_account
import db_dtypes
# 서비스 계정 key(json) 경로 지정
/my_path/serviceAccountKey 경로 내에 json key 파일을 위치시켜 둔다.
경로는 사용자가 원하는 곳에 두어도 무관하다.
key_path = glob.glob("/my_path/serviceAccountKey/*.json")[0]
# 데이터 조회 쿼리 실행 결과
query_job = client.query(sql)
# Credentials 객체 생성
credentials = service_account.Credentials.from_service_account_file(key_path)
# GCP 클라이언트 객체 생성
client = bigquery.Client(credentials = credentials,
project = credentials.project_id)
# 데이터 조회 쿼리
SELECT * FROM `[프로젝트명].[데이터셋명].[데이터]` 순서로 자신의 프로젝트명 및 데이터셋 명을 기입해준다.
sql = f"""
SELECT * FROM `my_prj.my_dataset.data1`
"""
# 데이터프레임 변환
df = query_job.to_dataframe()
df.head()
데이터 프레임형태로 저장이 되어 있는지 확인하고, 제대로 조회가 되었으면 완성된 것이다.
<전체 코드>
## Bigquery에 적재된 데이터 조회
import glob
from google.cloud import bigquery
from google.oauth2 import service_account
import db_dtypes
key_path = glob.glob("/my_path/serviceAccountKey/*.json")[0]
query_job = client.query(sql)
credentials = service_account.Credentials.from_service_account_file(key_path)
client = bigquery.Client(credentials = credentials,
project = credentials.project_id)
sql = f"""
SELECT * FROM `my_prj.my_dataset.data1`
"""
df = query_job.to_dataframe()
df.head()
728x90