일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
- 코엑스맛집
- 용인맛집
- java
- 코딩
- Apache Kafka
- 여행
- 삼성역맛집
- 영어
- apache iceberg
- 프로그래머스
- 알고리즘
- Linux
- hadoop
- 코테
- Spark
- Trino
- bigdata engineering
- Kafka
- HIVE
- bigdata engineer
- 코딩테스트
- Data Engineer
- pyspark
- Data Engineering
- BigData
- 백준
- Iceberg
- 맛집
- 자바
- 개발
- Today
- Total
목록데이터 엔지니어링 정복/Airflow (3)
지구정복
먼저 airflow 가 사용하는 Python의 pip로 해당 패키지 설치# /airflow/.pyenv/versions/3.7.11/envs/venv/bin/pip3 install apache-airflow-providepypi repo로 설치가 안되면 수동설치해야한다. 그리고 아래와 같이 사용한다.from airflow import DAGfrom airflow.providers.apache.sqoop.operators.sqoop import SqoopOperatorfrom datetime import datetime default_args = { 'owner': 'airflow', 'start_date': datetime(2022, 1, 1),} with DAG( dag_id='sqoo..
airflow db upgrade error발생하면 airflow db upgrade 진행 만약 위 명령어 에러나면 아래 airflow python package 설치해준다./usr/airflow/.pyenv/versions/venv/bin/pip install sqlalchemy==1.4.49/usr/airflow/.pyenv/versions/venv/bin/pip install apache-airflow-providers-common-sql 그리고 다시 airflow db upgrade 진행

* 참고도서: 빅데이터를 지탱하는 기술 0. 사전환경 window10 위에 Oracle VirtualBox(5.2.44)의 CentOS 7에서 진행 내 OS 계정명과 디렉터리는 다음과 같다. [hadoop01@localhost ~]$ pwd /home/hadoop01 현재 VM위에 CentOS 7을 사용하고 있지만 이것저것 설치하고 꼬인 것들이 많아서 Docker이미지로 CentOS 컨테이너 만들고 그 안에서 Airflow를 설치해볼 예정이다. 또한 아래 블로거님의 글을 참고해서 진행했습니다. https://dydwnsekd.tistory.com/32 Airflow 2.0 설치하기(1) Airflow 2.0 설치하기 Airflow 2.0을 docker를 이용 centos에 설치해보도록 하자. 이 글에서는..