참고: https://www.youtube.com/watch?v=VDqToPfbuok
이제 좀 실질적으로 필요한 실습을 진행해보자..(많이 사용할만 한걸로다가 😅)
- 버킷 생성
이름 알아서 고유하게 잘 설정한다.
이후에 로그 샘플 파일을 업로드 한다.
이와 같은 형태로 주욱 나열되어 있음(의미는 없음)
- Glue Crawler 생성
이름: Demo-Athena-log-crawler
Data store 추가(위에서 생성했던 버킷 경로로!)
IAM Role: 이름 적당히 해서 새로 생성 후 지정
Database는 새로 생성
실행 시키자!
로그 데이터 양에 따라 걸리는 시간이 달라질 것!
테이블을 확인해보면,
다음과 같이 로그 파일에 알맞는 스키마가 생성된 것을 확인할 수 있다.
- Athena로 쿼리
해당 버킷을 설정해주자.
테이블 미리보기를 누른 화면이다.. 아까 Glue에서 생성했던 테이블 결과를 확인할 수 있다.
원하는 쿼리로 실행해서 잘 이용하면 됨!!!
Athena 사용사례
- 여러 로그파일이 저장된 S3에서 필요한 데이터를 조회
- 정형화된 메타데이터 혹은 저장 데이터를 조회
- 이벤트 데이터에서 필요한 정보를 추출(A/B테스트) 등
❗ 지금은 로그 샘플 파일이라 적고 별거 없지만, 실제 프로젝트 로그의 경우 아주 많기 때문에 오류나 이런거 찾기에 좋을듯! ❗
'Cloud > AWS' 카테고리의 다른 글
[AWS] S3 트리거를 사용하여 Lambda 함수 호출 (1) | 2022.09.23 |
---|---|
[AWS] AWS Rekognition - Custom Labels (1) | 2022.09.23 |
[AWS] 데이터 전송 비용 (0) | 2022.09.21 |
[AWS] Route 53 실습 -1(외부 도메인을 Route53에 연결하기) (0) | 2022.09.20 |
[AWS] Route 53 서비스 개념 (0) | 2022.09.20 |