From 0b4dd9fd5803bcb60e49a746b23f51fe57313190 Mon Sep 17 00:00:00 2001 From: Kun <1amb4a@gmail.com> Date: Wed, 6 Oct 2021 14:19:07 +0000 Subject: [PATCH] GitBook: [master] one page modified --- 02-processing/2.1/README.md | 8 ++------ 1 file changed, 2 insertions(+), 6 deletions(-) diff --git a/02-processing/2.1/README.md b/02-processing/2.1/README.md index ff63d69..13c1919 100644 --- a/02-processing/2.1/README.md +++ b/02-processing/2.1/README.md @@ -3,16 +3,12 @@ 데이터를 처리하기 위한 프레임워크는 다양합니다. 이 글에서는 데이터를 분산처리하기 위해 자주 쓰이는 두 가지 프레임워크에 대해 이야기 할 예정입니다. * [Apache Spark ](https://spark.apache.org/) -* [Apache Flink](https://flink.apache.org/) - - +* [Apache Flink](https://flink.apache.org/) Apache Spark 는 배치 처리를 위해 많이 활용됩니다. 경우에 따라 스트림 처리를 위해 사용되는 경우도 있습니다. 메타스토어로부터 데이터를 테이블 형태로 쉽게 읽어오고 가공하는 것이 가능하며, 사용자의 편의에 따라 다양한 API 수준을 지원합니다. * [Spark SQL](https://spark.apache.org/docs/latest/sql-programming-guide.html#sql) -* [Spark Dataframe / DataSet API](https://spark.apache.org/docs/latest/sql-programming-guide.html#datasets-and-dataframes) - - +* [Spark Dataframe / DataSet API](https://spark.apache.org/docs/latest/sql-programming-guide.html#datasets-and-dataframes) Spark 를 활용하면, 도메인 로직을 모듈로 만들고 배치 및 스트림에서 애플리케이션 \(이하 Application\) 에서 동일한 로직을 사용할 수 있습니다. 예를 들어