일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- pyspark
- 알고리즘
- 맛집
- 백준
- Kafka
- 코엑스맛집
- 여행
- 코엑스
- 개발
- Spark
- java
- 영어
- 코테
- HIVE
- bigdata engineer
- apache iceberg
- 코딩테스트
- Trino
- Apache Kafka
- 프로그래머스
- hadoop
- Iceberg
- bigdata engineering
- 자바
- 용인맛집
- 코딩
- 삼성역맛집
- BigData
- Data Engineering
- Data Engineer
- Today
- Total
목록데이터 엔지니어링 정복/NiFi (2)
지구정복

NiFi 1.15.2Spark 3.1.4Iceberg 1.3.1Hive 3.1.3 마지막 HDFS에 저장된 gzip.parquet 파일을 읽어서 Iceberg Table로 적재하는 PySpark Streaming을 실행한다. 미리 Iceberg Table은 생성되어야 있어야 하므로 PySpark로 만들어준다.#iceberg table 생성쿼리q="""CREATE TABLE iceberg_test_db.test_table_name ( data STRING, log_timestamp timestamp_ntz)USING icebergPARTITIONED BY (days(log_timestamp))TBLPROPERTIES ( 'read.parquet.vectorization.enabled..

업무간 사용하는 프로세서에 대해서 공부해보자 NiFi 1.15.2 사용중이다. ListenUDP설명:Listens for Datagram Packets on a given port. The default behavior produces a FlowFile per datagram, however for higher throughput the Max Batch Size property may be increased to specify the number of datagrams to batch together in a single FlowFile. This processor can be restricted to listening for datagrams from a specific remote host and..