본문 바로가기

빅데이터/Kafka

[confluent]Kafka에 대한 상식 퀴즈 14개

confluent에서 kafka에 관련된 지식 퀴즈 14개를 아래와 같이 public에 공개하였다. 간단하지만 핵심적인 kafka 질문들을 모아놓아서 재밌어서 각 질문들에 대해 정리해보고자 한다.

 

quiz site : https://www.surveymonkey.com/r/FundamentalsSelfAssess

 

각 문제에 대한 정답은 정답 : 뒤를 드래그 하면 보인다.

1. Kafka에서 record가 실리는 곳은?

(1) Category

(2) Subject

(3) Topic

(4) Table

 

정답 : (3) Topic

 

2. Kafka에서 각 데이터(record)들이 파티션 내부에서 유니크하게 구분되는 값은?

(1) Primary Key

(2) Offset

(3) Identifier

(4) Timestamp

 

정답 : (2) Offset

 

3. Kafka topic에 대한 설명중 맞는 것은?

(1) 단 1개의 Producer만 topic에 데이터를 보낼 수 있다

(2) 단 1개의 Consumer만 topic의 데이터를 구독(subscribe)할 수 있다

(3) 복수의 Consumer는 topic의 데이터를 구독(subscribe)할 수 있다

(4) Consumer는 topic의 어느 지점에든 데이터를 삽입할 수 있다

 

정답 : (3) 복수의 Consumer는 topic의 데이터를 구독(subscribe)할 수 있다

 

4. Kafka 데이터(record)에 대한 생명 주기에 대한 올바른 설명은?

(1) 데이터가 소비(consumed)되면, 다른 Consumer들은 해당 데이터를 조회할 수 없다

(2) 데이터는 정의된 retention period 동안 지속해서 존재한다

(3) 재처리를 방지하기 위해 Consumer는 데이터처리 후 삭제한다

(4) Consumer는 삭제하기 위해 interval topic으로 데이터를 이동시킨다

 

정답 : (2) 데이터는 정의된 retention period 동안 지속해서 존재한다

 

5. Zookeeper에 저장하는 kafka데이터 종류를 모두 고르시오.

(1) Record headers

(2) Consumer logic

(3) Access Control Lists

(4) Cluster metadata

(5) Broker SSL certificates

 

정답 : (3) Access Control Lists + (4) Cluster metadata

 

6. Kafka 데이터 처리를 위해 data obejct를 byte array로 바꾸는 과정을 부르는 이름은?

(1) Serialization

(2) Encryption

(3) Externalization

(4) Canonicalization

 

정답 : (1) Serialization

 

7. Kafka cluster 장애시 Topic을 자동으로 복구하게 하는 셋팅은?

(1) Compression type

(2) Segment index bytes

(3) partition count

(4) Replication factor

 

정답 : (4) Replication factor

 

8. Kafka Producer 기본셋팅일때, 토픽에 데이터 넣을때 어떤 기준으로 파티션에 넣는가?

(1) Record key

(2) Record value

(3) Header key

(4) Record Timestamp

 

정답 : (1) Record key

 

9. Kafka topic 데이터를 Elasticsearch에 넣을때 코드없이 가능한 scalable하고 reliable한 솔루션은 무엇인가?

(1) Producer API

(2) Consumer API

(3) Kafka Streams

(4) Kafka Connect

 

정답 : (4) Kafka Connect

 

10. 아래 그림중 Consumer Group으로 불가한 설정은?

(1) 3개 Partition + 2개 Consumer(2개 모두 consume)

(2) 3개 Partition + 3개 Consumer(3개 모두 consume)

(3) 3개 Partition + 4개 Consumer(4개 모두 consume)

(4) 3개 Partition + 4개 Consumer(3개 consume)

 

정답 : (3) 3개 Partition + 4개 Consumer(4개 모두 consume)

 

11. replication factor가 1보다 클때 partition의 상태에 대해 옳은것은?

(1) Producer는 어느 replica에든 쓸수(write) 있다

(2) Consumer는 어느 replica든 읽을 수(read) 있다

(3) Producer는 leader에만 쓸수 있고 consumer는 어느 replica에서든 읽을 수 있다

(4) Producer, consumer 둘다 오직 leader partition만 쓰고 읽을 수 있다

 

정답 : (4) Producer, consumer 둘다 오직 leader partition만 쓰고 읽을 수 있다

 

12. Kafka에서 데이터를 암호화하여 전송할 수 있는 방식을 모두 고르시오

(1) SSL

(2) 전송전 암호화(in Producer), 전송 받은 후 복호화(in Consumer) 

(3) PLAINTEXT

(4) SASL

(5) SSH

 

정답 : (1) SSL + (2) 전송전 암호화(in Producer), 전송 받은 후 복호화(in Consumer) 

13.  Consumer c1은 막 message m1을 읽었다. Consumer c2가 m1을 읽고싶을때 아래 설명중 맞는것은? (단, C1과 C2는 다른 consumer group이다)

(1) m1이 consume되고나면 더 이상 cluster에는 남아있지않으므로 c2는 데이터를 읽지 못한다

(2) c2는 c1이 한것처럼 m1을 읽을 수 있다

(3) c1이 m1을 읽었고 m1은 offset 뒤에 있으므로 읽을 수 있다

(4) 1, 2, 3 모두 안된다

 

정답 : (2) c2는 c1이 한것처럼 m1을 읽을 수 있다

14. Kafka에 Producer가 데이터를 썻을 때(write) 아래 설명중 맞는것은?

(1) Producer에 의해 데이터는 변환될 수 있다

(2) 오직 데이터를 보낸 Producer만 데이터를 변환할 수 있다

(3) 오직 metadata만 변환 가능하다

(4) 데이터변환은 불가하다

 

정답 : (4) 데이터변환은 불가하다

 


아쉽게 1개 틀렸다(12번)


태그