<style>.lazy{display:none}</style>Тест по основам Apache Kafka

Тест по основам Apache Kafka

1 / 15

Как связать Apache Kafka с внешними источниками данных?

Верно!

Не верно!

Компонент Connect обеспечивает потоковую интеграцию этой платформы с внешними хранилищами данных, включая реляционные СУБД и NoSQL, а также облачные объектные хранилища, например, Amazon S3, Google BigQuery и пр. Наличие расширенного RESTful API позволяет дополнить модуль Connect собственными коннекторами с возможностями их настройки и управления.


Не верно!

Компонент Connect обеспечивает потоковую интеграцию этой платформы с внешними хранилищами данных, включая реляционные СУБД и NoSQL, а также облачные объектные хранилища, например, Amazon S3, Google BigQuery и пр. Наличие расширенного RESTful API позволяет дополнить модуль Connect собственными коннекторами с возможностями их настройки и управления.


Не верно!

Компонент Connect обеспечивает потоковую интеграцию этой платформы с внешними хранилищами данных, включая реляционные СУБД и NoSQL, а также облачные объектные хранилища, например, Amazon S3, Google BigQuery и пр. Наличие расширенного RESTful API позволяет дополнить модуль Connect собственными коннекторами с возможностями их настройки и управления.


Может ли Apache Kafka работать без службы Zookeeper?

Верно!

Не верно!

Apache Kafka использует ZooKeeper для хранения метаданных о разделах своих топиков и брокерах, а также для выбора брокера в качестве контроллера Kafka. ZooKeeper информирует каждого брокера Kafka о текущем состоянии кластера, чтобы обновление данных у каждого клиента этой распределенной платформы потоковой обработки событий (издателя или подписчика) произошло автоматически при подключении к какому-либо брокеру. Можно сказать, что ZooKeeper нужен для обеспечения надежной согласованности состояния Kafka-кластера, его конфигурации и обнаружения одноранговых узлов.

Однако, несогласованность состояний в ZooKeeper и в приложениях потоковой обработки событий из-за разной скорости смещения в топиках Kafka, отказе или несинхронной перезагрузки серверов этих Big Data систем привела к появлению альтернатив. Например, Consul от компании HashiCorp, Atomix или Self-Managed Metadata Quorum — внутренний механизм самой Apache Kafka, когда метаданные хранятся в ней, а не во внешней системе.


Не верно!

Apache Kafka использует ZooKeeper для хранения метаданных о разделах своих топиков и брокерах, а также для выбора брокера в качестве контроллера Kafka. ZooKeeper информирует каждого брокера Kafka о текущем состоянии кластера, чтобы обновление данных у каждого клиента этой распределенной платформы потоковой обработки событий (издателя или подписчика) произошло автоматически при подключении к какому-либо брокеру. Можно сказать, что ZooKeeper нужен для обеспечения надежной согласованности состояния Kafka-кластера, его конфигурации и обнаружения одноранговых узлов.

Однако, несогласованность состояний в ZooKeeper и в приложениях потоковой обработки событий из-за разной скорости смещения в топиках Kafka, отказе или несинхронной перезагрузки серверов этих Big Data систем привела к появлению альтернатив. Например, Consul от компании HashiCorp, Atomix или Self-Managed Metadata Quorum — внутренний механизм самой Apache Kafka, когда метаданные хранятся в ней, а не во внешней системе.


Не верно!

Apache Kafka использует ZooKeeper для хранения метаданных о разделах своих топиков и брокерах, а также для выбора брокера в качестве контроллера Kafka. ZooKeeper информирует каждого брокера Kafka о текущем состоянии кластера, чтобы обновление данных у каждого клиента этой распределенной платформы потоковой обработки событий (издателя или подписчика) произошло автоматически при подключении к какому-либо брокеру. Можно сказать, что ZooKeeper нужен для обеспечения надежной согласованности состояния Kafka-кластера, его конфигурации и обнаружения одноранговых узлов.

Однако, несогласованность состояний в ZooKeeper и в приложениях потоковой обработки событий из-за разной скорости смещения в топиках Kafka, отказе или несинхронной перезагрузки серверов этих Big Data систем привела к появлению альтернатив. Например, Consul от компании HashiCorp, Atomix или Self-Managed Metadata Quorum — внутренний механизм самой Apache Kafka, когда метаданные хранятся в ней, а не во внешней системе.


Можно создавать Kafka-приложения на Python?

Не верно!

Да, универсальность Kafka позволяет писать приложения на любом языке программирования. Для использования Python в Kafka существует несколько готовых средств:

  • Kafka-Python – библиотека с открытым исходным кодом от сообщества разработчиков
  • PyKafka — API-интерфейс Python от Parse.ly, компании-разработчика систем веб-аналитики и оптимизации контента для онлайн-издателей
  • Confluent Python Kafka – клиент Python для Kafka от корпорации Confluent, которая занимается разработкой и коммерциализацией этой стриминговой платформы.

Верно!

Не верно!

Да, универсальность Kafka позволяет писать приложения на любом языке программирования. Для использования Python в Kafka существует несколько готовых средств:

  • Kafka-Python – библиотека с открытым исходным кодом от сообщества разработчиков
  • PyKafka — API-интерфейс Python от Parse.ly, компании-разработчика систем веб-аналитики и оптимизации контента для онлайн-издателей
  • Confluent Python Kafka – клиент Python для Kafka от корпорации Confluent, которая занимается разработкой и коммерциализацией этой стриминговой платформы.

Не верно!

Да, универсальность Kafka позволяет писать приложения на любом языке программирования. Для использования Python в Kafka существует несколько готовых средств:

  • Kafka-Python – библиотека с открытым исходным кодом от сообщества разработчиков
  • PyKafka — API-интерфейс Python от Parse.ly, компании-разработчика систем веб-аналитики и оптимизации контента для онлайн-издателей
  • Confluent Python Kafka – клиент Python для Kafka от корпорации Confluent, которая занимается разработкой и коммерциализацией этой стриминговой платформы.

Где Apache Kafka хранит данные?

Верно!

Не верно!

При том, что Apache Kafka может хранить данные вечно, надежно и с высокой доступностью, обеспечивая гарантии ACID-транзакций, она не заменяет, а дополняет другие хранилища данных (СУБД, DWH, Data Lake или Delta Lake), выступая в качестве платформы потоковой передачи событий для обмена сообщениями, хранения, обработки и интеграции в масштабе в реальном времени с нулевым временем простоя и нулевой потерей данных.

Она работает по принципу «издатель-подписчик», когда кластерные серверы (брокеры) принимают данные из источников (производителей, producer) и передают их потребителям (consumer). Отправляя сообщение в кластер Kafka, producer указывает, в какой топик (topic) его записать. Топик – это набор сообщений, которые реплицируются и упорядочиваются по смещению (offset) – возрастающему значению, которое присваивается каждому сообщению, добавляемому в топик. Это смещение позволяет повторно считывать данные, а также дает потребителям возможность выбирать собственный темп для получения сообщений из топика.


Не верно!

При том, что Apache Kafka может хранить данные вечно, надежно и с высокой доступностью, обеспечивая гарантии ACID-транзакций, она не заменяет, а дополняет другие хранилища данных (СУБД, DWH, Data Lake или Delta Lake), выступая в качестве платформы потоковой передачи событий для обмена сообщениями, хранения, обработки и интеграции в масштабе в реальном времени с нулевым временем простоя и нулевой потерей данных.

Она работает по принципу «издатель-подписчик», когда кластерные серверы (брокеры) принимают данные из источников (производителей, producer) и передают их потребителям (consumer). Отправляя сообщение в кластер Kafka, producer указывает, в какой топик (topic) его записать. Топик – это набор сообщений, которые реплицируются и упорядочиваются по смещению (offset) – возрастающему значению, которое присваивается каждому сообщению, добавляемому в топик. Это смещение позволяет повторно считывать данные, а также дает потребителям возможность выбирать собственный темп для получения сообщений из топика.


Не верно!

При том, что Apache Kafka может хранить данные вечно, надежно и с высокой доступностью, обеспечивая гарантии ACID-транзакций, она не заменяет, а дополняет другие хранилища данных (СУБД, DWH, Data Lake или Delta Lake), выступая в качестве платформы потоковой передачи событий для обмена сообщениями, хранения, обработки и интеграции в масштабе в реальном времени с нулевым временем простоя и нулевой потерей данных.

Она работает по принципу «издатель-подписчик», когда кластерные серверы (брокеры) принимают данные из источников (производителей, producer) и передают их потребителям (consumer). Отправляя сообщение в кластер Kafka, producer указывает, в какой топик (topic) его записать. Топик – это набор сообщений, которые реплицируются и упорядочиваются по смещению (offset) – возрастающему значению, которое присваивается каждому сообщению, добавляемому в топик. Это смещение позволяет повторно считывать данные, а также дает потребителям возможность выбирать собственный темп для получения сообщений из топика.


С какими форматами данных может работать Apache Kafka?

Не верно!

Реестр схем данных (Schema Registry) Apache Kafka позволяет работать с различными структурами и форматами представления информации.


Верно!

Не верно!

Реестр схем данных (Schema Registry) Apache Kafka позволяет работать с различными структурами и форматами представления информации.


Не верно!

Реестр схем данных (Schema Registry) Apache Kafka позволяет работать с различными структурами и форматами представления информации.


Можно ли на базе Apache Kafka создавать stateful-приложения в микросервисной архитектуре?

Не верно!

Концепция потоковой обработки событий, реализованная в Apache Kafka, отлично подходит для создания приложений с сохранением состояния микросервисов (stateful) без использования отдельной базы данных. Здесь сама платформа выступает в качестве распределенного хранилища данных о состоянии интегрируемых приложений (микросервисов).


Не верно!

Концепция потоковой обработки событий, реализованная в Apache Kafka, отлично подходит для создания приложений с сохранением состояния микросервисов (stateful) без использования отдельной базы данных. Здесь сама платформа выступает в качестве распределенного хранилища данных о состоянии интегрируемых приложений (микросервисов).


Не верно!

Концепция потоковой обработки событий, реализованная в Apache Kafka, отлично подходит для создания приложений с сохранением состояния микросервисов (stateful) без использования отдельной базы данных. Здесь сама платформа выступает в качестве распределенного хранилища данных о состоянии интегрируемых приложений (микросервисов).


Верно!

В какой компании были разработаны первые версии Apache Kafka?

Верно!

Компания LinkedIn разработала Apache Kafka в 2011 году, дальнейшая разработка идет под эгидой фонда Apache Software Foundation.


Не верно!

Компания LinkedIn разработала Apache Kafka в 2011 году, дальнейшая разработка идет под эгидой фонда Apache Software Foundation.


Не верно!

Компания LinkedIn разработала Apache Kafka в 2011 году, дальнейшая разработка идет под эгидой фонда Apache Software Foundation.


Не верно!

Компания LinkedIn разработала Apache Kafka в 2011 году, дальнейшая разработка идет под эгидой фонда Apache Software Foundation.


Как связано творчество Франца Кафки с Apache Kafka?

Не верно!

Верно!

Не верно!

Apache Kafka — это открытое ПО (Open Source)?

Верно!

Не верно!

Open Source Software или программное обеспечение с открытым исходным кодом — это доступное для изменений и просмотра ПО. Исходный код можно использовать, чтобы создавать свои модификации софта, а также свободно распространять и даже продавать их. Вы можете скачать и использовать Kafka бесплатно.


Не верно!

Open Source Software или программное обеспечение с открытым исходным кодом — это доступное для изменений и просмотра ПО. Исходный код можно использовать, чтобы создавать свои модификации софта, а также свободно распространять и даже продавать их. Вы можете скачать и использовать Kafka бесплатно.


Kafka предназначена для:

Не верно!

Во-первых, Кафку используют для того, чтобы грамотно организовать работу приложений с микросервисной архитектурой. ПО помогает микросервисам быстро обмениваться информацией между друг другом. Во-вторых, Кафка необходима там, где в один момент времени приходит множество запросов от пользователей — ПО хранит их и не дает потеряться где-то на середине пути.


Не верно!

Во-первых, Кафку используют для того, чтобы грамотно организовать работу приложений с микросервисной архитектурой. ПО помогает микросервисам быстро обмениваться информацией между друг другом. Во-вторых, Кафка необходима там, где в один момент времени приходит множество запросов от пользователей — ПО хранит их и не дает потеряться где-то на середине пути.


Верно!

Какими свойствами обладает Apache Kafka?

Верно!

Не верно!

Кафка использует разные серверы, чтобы хранить и пересылать сообщения, благодаря чему данные сохранятся даже в том случае, если несколько машин выйдут из строя. Если у вас растет объем поступающих данных, то для наращивания мощности Kafka потребуется ввести дополнительные серверы, при этом всю программу останавливать не надо.


Не верно!

Кафка использует разные серверы, чтобы хранить и пересылать сообщения, благодаря чему данные сохранятся даже в том случае, если несколько машин выйдут из строя. Если у вас растет объем поступающих данных, то для наращивания мощности Kafka потребуется ввести дополнительные серверы, при этом всю программу останавливать не надо.


Зачем Kafka продюсер?

Не верно!

Продюсер является гарантом безопасности Kafka: благодаря ему можно генерировать и рассылать массивы записей с большой степенью надежности.


Верно!

Продюсер является гарантом безопасности Kafka: благодаря ему можно генерировать и рассылать массивы записей с большой степенью надежности.


Не верно!

Продюсер является гарантом безопасности Kafka: благодаря ему можно генерировать и рассылать массивы записей с большой степенью надежности.


Какое из полей отсутствует в структуре данных сообщения Кафки?

Не верно!

Не верно!

Не верно!

Не верно!

Верно!

Что является основным инструментом масштабирования в Кафке?

Не верно!

Верно!

Не верно!

Допустим, у нас есть топик, состоящий из 4 партиций. Сколько активных консьюмеров в одной группе может быть у такого топика?

Не верно!

Не верно!

Верно!

Далее
0 из 15

Поздравляем с прохождением теста! А теперь предлагаем почитать статьи по тестированию на нашем сайте!

Интересно, хочу попробовать