Bài Tập, Đề Thi Trắc Nghiệm Online – Môn Dữ Liệu Lớn (Bigdata) – Đề 05

0

Bạn đã sẵn sàng chưa? 45 phút làm bài bắt đầu!!!

Bạn đã hết giờ làm bài! Xem kết quả các câu hỏi đã làm nhé!!!


Môn Dữ Liệu Lớn (Bigdata)

Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata) - Đề 05

Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata) - Đề 05 bao gồm nhiều câu hỏi hay, bám sát chương trình. Cùng làm bài tập trắc nghiệm ngay.

Câu 1: Trong bối cảnh Dữ liệu lớn, thuật ngữ "Variety" (tính đa dạng) đề cập đến khía cạnh nào sau đây?

  • A. Tốc độ tạo ra và xử lý dữ liệu.
  • B. Sự đa dạng của các loại và định dạng dữ liệu (có cấu trúc, bán cấu trúc, phi cấu trúc).
  • C. Khối lượng dữ liệu khổng lồ cần được quản lý.
  • D. Độ tin cậy và tính xác thực của dữ liệu.

Câu 2: Một công ty thương mại điện tử muốn phân tích hành vi duyệt web, lịch sử mua hàng và tương tác trên mạng xã hội của khách hàng để cá nhân hóa trải nghiệm mua sắm. Loại hình phân tích Dữ liệu lớn nào phù hợp nhất cho mục tiêu này?

  • A. Phân tích mô tả (Descriptive analytics) để thống kê doanh số.
  • B. Phân tích chẩn đoán (Diagnostic analytics) để tìm hiểu nguyên nhân giảm doanh số.
  • C. Phân tích dự đoán (Predictive analytics) để dự đoán hành vi và sở thích khách hàng.
  • D. Phân tích quy định (Prescriptive analytics) để đề xuất các hành động tối ưu dựa trên dữ liệu.

Câu 3: Hệ thống tệp phân tán Hadoop (HDFS) được thiết kế chủ yếu để giải quyết thách thức nào của Dữ liệu lớn?

  • A. Lưu trữ và quản lý hiệu quả lượng dữ liệu cực lớn trên nhiều máy tính.
  • B. Đảm bảo tính nhất quán dữ liệu mạnh mẽ (strong consistency) cho các giao dịch.
  • C. Cung cấp khả năng truy cập dữ liệu thời gian thực với độ trễ thấp.
  • D. Hỗ trợ các truy vấn SQL phức tạp trên dữ liệu phi cấu trúc.

Câu 4: Trong kiến trúc HDFS, thành phần NameNode đóng vai trò chính nào?

  • A. Lưu trữ các khối dữ liệu thực tế.
  • B. Quản lý metadata (siêu dữ liệu) của hệ thống tệp và không gian tên.
  • C. Thực hiện các phép tính toán trên dữ liệu.
  • D. Đảm bảo tính toàn vẹn dữ liệu bằng cách kiểm tra checksum.

Câu 5: Điều gì KHÔNG phải là ưu điểm của việc sử dụng NoSQL so với cơ sở dữ liệu quan hệ truyền thống trong xử lý Dữ liệu lớn?

  • A. Khả năng mở rộng linh hoạt theo chiều ngang (horizontal scaling).
  • B. Hiệu suất cao với dữ liệu phi cấu trúc và bán cấu trúc.
  • C. Mô hình dữ liệu linh hoạt, không ràng buộc bởi lược đồ cứng nhắc.
  • D. Hỗ trợ ACID transactions (tính nguyên tử, nhất quán, cô lập, bền vững) mạnh mẽ như RDBMS.

Câu 6: Công nghệ xử lý Dữ liệu lớn nào sau đây thường được sử dụng để phân tích dữ liệu theo thời gian thực hoặc gần thời gian thực (real-time/near real-time analytics)?

  • A. Hadoop MapReduce
  • B. Apache Hive
  • C. Apache Kafka
  • D. HDFS

Câu 7: Một tập đoàn viễn thông muốn phát hiện gian lận trong các giao dịch thanh toán của khách hàng. Họ có lượng lớn dữ liệu nhật ký giao dịch cần được phân tích nhanh chóng. Phương pháp tiếp cận Dữ liệu lớn nào sẽ hiệu quả nhất?

  • A. Sử dụng MapReduce để phân tích batch dữ liệu nhật ký hàng ngày.
  • B. Xây dựng hệ thống phân tích luồng dữ liệu (stream processing) để phát hiện gian lận gần như tức thì.
  • C. Lưu trữ toàn bộ dữ liệu vào cơ sở dữ liệu quan hệ và chạy truy vấn SQL phức tạp.
  • D. Thực hiện phân tích thủ công mẫu dữ liệu nhỏ để tìm ra quy luật gian lận.

Câu 8: Trong mô hình lập trình MapReduce, giai đoạn "Reduce" có chức năng chính là gì?

  • A. Chia nhỏ dữ liệu đầu vào thành các phần nhỏ hơn.
  • B. Ánh xạ (map) dữ liệu đầu vào thành các cặp key-value.
  • C. Tổng hợp và xử lý các giá trị (values) có cùng khóa (key) để tạo ra kết quả cuối cùng.
  • D. Lưu trữ dữ liệu trung gian vào HDFS.

Câu 9: Điều gì là thách thức lớn nhất khi xử lý dữ liệu "Velocity" (tốc độ) trong bối cảnh Dữ liệu lớn?

  • A. Xử lý và phân tích dữ liệu nhanh chóng khi nó được tạo ra để đưa ra quyết định kịp thời.
  • B. Quản lý sự đa dạng của các loại dữ liệu khác nhau.
  • C. Đảm bảo độ tin cậy và chính xác của dữ liệu.
  • D. Lưu trữ và quản lý khối lượng dữ liệu khổng lồ.

Câu 10: Công cụ nào sau đây thường được sử dụng để thực hiện các truy vấn SQL trên dữ liệu lưu trữ trong Hadoop HDFS?

  • A. Apache Kafka
  • B. Apache Hive
  • C. Apache HBase
  • D. Apache Flume

Câu 11: Trong ngữ cảnh Dữ liệu lớn, "Data Lake" (hồ dữ liệu) khác biệt so với "Data Warehouse" (kho dữ liệu) chủ yếu ở điểm nào?

  • A. Data Warehouse lưu trữ dữ liệu phi cấu trúc, còn Data Lake lưu trữ dữ liệu có cấu trúc.
  • B. Data Warehouse phù hợp cho phân tích thời gian thực, còn Data Lake cho phân tích batch.
  • C. Data Lake lưu trữ dữ liệu thô ở định dạng gốc, còn Data Warehouse lưu trữ dữ liệu đã được xử lý và chuẩn hóa.
  • D. Data Lake chỉ có thể được truy cập bởi các nhà khoa học dữ liệu, còn Data Warehouse dành cho người dùng doanh nghiệp.

Câu 12: Kỹ thuật "Data Sampling" (lấy mẫu dữ liệu) được sử dụng trong Dữ liệu lớn nhằm mục đích chính gì?

  • A. Tăng cường tính bảo mật của dữ liệu.
  • B. Giảm khối lượng dữ liệu cần xử lý để tăng tốc độ phân tích và xây dựng mô hình.
  • C. Chuẩn hóa định dạng dữ liệu khác nhau.
  • D. Cải thiện chất lượng và độ chính xác của dữ liệu.

Câu 13: Công nghệ nào sau đây cung cấp khả năng xử lý dữ liệu "in-memory" (trong bộ nhớ) và thường được sử dụng để tăng tốc độ xử lý so với MapReduce truyền thống?

  • A. Hadoop YARN
  • B. Apache Hive
  • C. Apache HBase
  • D. Apache Spark

Câu 14: Một bệnh viện muốn phân tích dữ liệu bệnh sử, kết quả xét nghiệm và thông tin di truyền của bệnh nhân để dự đoán nguy cơ mắc bệnh tim mạch và cá nhân hóa phác đồ điều trị. Ứng dụng này thuộc lĩnh vực nào của Dữ liệu lớn?

  • A. Marketing và bán lẻ
  • B. Tài chính ngân hàng
  • C. Y tế và chăm sóc sức khỏe
  • D. Sản xuất và công nghiệp

Câu 15: Khái niệm "Data Governance" (quản trị dữ liệu) trong Dữ liệu lớn bao gồm những hoạt động chính nào?

  • A. Chỉ tập trung vào việc lưu trữ và quản lý khối lượng dữ liệu lớn.
  • B. Đảm bảo chất lượng, bảo mật, tuân thủ quy định và quản lý vòng đời dữ liệu.
  • C. Chủ yếu liên quan đến việc lựa chọn công nghệ và công cụ xử lý dữ liệu.
  • D. Chỉ áp dụng cho dữ liệu có cấu trúc trong Data Warehouse.

Câu 16: Trong bối cảnh bảo mật Dữ liệu lớn, kỹ thuật "Data Masking" (che giấu dữ liệu) được sử dụng để làm gì?

  • A. Mã hóa toàn bộ cơ sở dữ liệu Dữ liệu lớn.
  • B. Phát hiện và ngăn chặn các cuộc tấn công mạng vào hệ thống Dữ liệu lớn.
  • C. Sao lưu và phục hồi dữ liệu Dữ liệu lớn khi có sự cố.
  • D. Thay thế dữ liệu nhạy cảm bằng các giá trị giả mạo nhưng vẫn giữ được định dạng và tính nhất quán để phân tích và phát triển.

Câu 17: Điều gì KHÔNG phải là một trong "5Vs" thường được dùng để mô tả Dữ liệu lớn?

  • A. Volume (Khối lượng)
  • B. Velocity (Tốc độ)
  • C. Volatility (Tính biến động)
  • D. Variety (Đa dạng)

Câu 18: Kiến trúc Lambda (Lambda Architecture) trong Dữ liệu lớn kết hợp phương pháp xử lý nào?

  • A. Kết hợp xử lý batch (lô) và stream (luồng) dữ liệu.
  • B. Chỉ sử dụng xử lý batch cho dữ liệu lịch sử.
  • C. Chỉ sử dụng xử lý stream cho dữ liệu thời gian thực.
  • D. Loại bỏ hoàn toàn xử lý batch để tập trung vào thời gian thực.

Câu 19: Trong Apache Spark, khái niệm "RDD" (Resilient Distributed Dataset) đại diện cho điều gì?

  • A. Một loại cơ sở dữ liệu NoSQL phân tán.
  • B. Một tập dữ liệu phân tán, bất biến và có khả năng chịu lỗi.
  • C. Một công cụ lập lịch công việc trong Spark.
  • D. Một giao diện truy vấn SQL trong Spark.

Câu 20: Ưu điểm chính của việc sử dụng điện toán đám mây (cloud computing) cho các dự án Dữ liệu lớn là gì?

  • A. Chi phí thấp hơn so với cơ sở hạ tầng tại chỗ (on-premise) trong mọi trường hợp.
  • B. Bảo mật dữ liệu cao hơn so với tự quản lý cơ sở hạ tầng.
  • C. Tính linh hoạt và khả năng mở rộng tài nguyên theo nhu cầu sử dụng.
  • D. Tốc độ xử lý dữ liệu nhanh hơn so với cơ sở hạ tầng truyền thống.

Câu 21: Công cụ nào sau đây thường được sử dụng để thu thập (ingest) dữ liệu nhật ký (log data) từ nhiều nguồn khác nhau vào Hadoop?

  • A. Apache Flume
  • B. Apache Hive
  • C. Apache HBase
  • D. Apache Spark Streaming

Câu 22: Trong ngữ cảnh Dữ liệu lớn, "Data Wrangling" (chuẩn bị dữ liệu) đề cập đến quá trình nào?

  • A. Phân tích và trực quan hóa dữ liệu để tìm ra insights.
  • B. Làm sạch, chuyển đổi và định hình dữ liệu thô để sẵn sàng cho phân tích.
  • C. Xây dựng mô hình máy học trên dữ liệu lớn.
  • D. Quản lý và bảo mật dữ liệu Dữ liệu lớn.

Câu 23: Loại hình cơ sở dữ liệu NoSQL nào phù hợp nhất để lưu trữ dữ liệu dạng đồ thị (graph data), ví dụ như mạng xã hội hoặc quan hệ giữa các thực thể?

  • A. Cơ sở dữ liệu dạng key-value (Key-value database)
  • B. Cơ sở dữ liệu dạng document (Document database)
  • C. Cơ sở dữ liệu đồ thị (Graph database)
  • D. Cơ sở dữ liệu dạng cột (Column-family database)

Câu 24: Thách thức "Veracity" (tính xác thực) của Dữ liệu lớn liên quan đến vấn đề nào?

  • A. Khối lượng dữ liệu tăng theo cấp số nhân.
  • B. Tốc độ dữ liệu được tạo ra và cần xử lý rất nhanh.
  • C. Sự đa dạng của các loại và định dạng dữ liệu.
  • D. Độ tin cậy, độ chính xác và sự không chắc chắn của dữ liệu.

Câu 25: Trong Apache Kafka, khái niệm "Topic" (chủ đề) dùng để làm gì?

  • A. Đại diện cho một máy chủ Kafka.
  • B. Phân loại và tổ chức các luồng dữ liệu (streams of data).
  • C. Đơn vị lưu trữ dữ liệu trong Kafka.
  • D. Cơ chế bảo mật trong Kafka.

Câu 26: Phương pháp "A/B testing" thường được ứng dụng trong lĩnh vực Dữ liệu lớn nào?

  • A. Phân tích nhật ký hệ thống (system log analysis).
  • B. Phát hiện gian lận tài chính (fraud detection).
  • C. Tối ưu hóa trải nghiệm người dùng và marketing (user experience optimization and marketing).
  • D. Dự báo thời tiết (weather forecasting).

Câu 27: Điều gì KHÔNG phải là lợi ích của việc trực quan hóa dữ liệu (data visualization) trong phân tích Dữ liệu lớn?

  • A. Giúp nhận diện các mẫu và xu hướng dữ liệu một cách trực quan.
  • B. Truyền đạt thông tin và insights từ dữ liệu đến người khác dễ dàng hơn.
  • C. Hỗ trợ khám phá dữ liệu và đặt câu hỏi phù hợp.
  • D. Tăng tốc độ xử lý dữ liệu và tính toán phức tạp.

Câu 28: Trong kiến trúc Kappa (Kappa Architecture), phương pháp xử lý dữ liệu chính là gì?

  • A. Kết hợp xử lý batch và stream dữ liệu.
  • B. Chỉ sử dụng xử lý stream dữ liệu.
  • C. Chỉ sử dụng xử lý batch dữ liệu.
  • D. Không sử dụng phương pháp xử lý dữ liệu cụ thể nào.

Câu 29: Yếu tố "Value" (giá trị) trong "5Vs" của Dữ liệu lớn nhấn mạnh điều gì?

  • A. Khả năng tạo ra giá trị kinh doanh và lợi ích từ việc phân tích dữ liệu.
  • B. Khối lượng dữ liệu cần được lưu trữ.
  • C. Tốc độ xử lý dữ liệu.
  • D. Sự đa dạng của các nguồn dữ liệu.

Câu 30: Một công ty muốn xây dựng một hệ thống khuyến nghị sản phẩm (recommendation system) cho khách hàng dựa trên lịch sử mua hàng và hành vi duyệt web. Công nghệ Dữ liệu lớn nào phù hợp để xây dựng và triển khai hệ thống này?

  • A. Hadoop MapReduce để xử lý batch dữ liệu lịch sử mua hàng.
  • B. Apache Hive để truy vấn và phân tích dữ liệu hành vi duyệt web.
  • C. Apache Flume để thu thập dữ liệu nhật ký từ website.
  • D. Kết hợp Apache Spark (cho xử lý và machine learning) và Apache Kafka (cho dữ liệu real-time) để xây dựng hệ thống khuyến nghị linh hoạt.

1 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 5

Câu 1: Trong bối cảnh Dữ liệu lớn, thuật ngữ 'Variety' (tính đa dạng) đề cập đến khía cạnh nào sau đây?

2 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 5

Câu 2: Một công ty thương mại điện tử muốn phân tích hành vi duyệt web, lịch sử mua hàng và tương tác trên mạng xã hội của khách hàng để cá nhân hóa trải nghiệm mua sắm. Loại hình phân tích Dữ liệu lớn nào phù hợp nhất cho mục tiêu này?

3 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 5

Câu 3: Hệ thống tệp phân tán Hadoop (HDFS) được thiết kế chủ yếu để giải quyết thách thức nào của Dữ liệu lớn?

4 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 5

Câu 4: Trong kiến trúc HDFS, thành phần NameNode đóng vai trò chính nào?

5 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 5

Câu 5: Điều gì KHÔNG phải là ưu điểm của việc sử dụng NoSQL so với cơ sở dữ liệu quan hệ truyền thống trong xử lý Dữ liệu lớn?

6 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 5

Câu 6: Công nghệ xử lý Dữ liệu lớn nào sau đây thường được sử dụng để phân tích dữ liệu theo thời gian thực hoặc gần thời gian thực (real-time/near real-time analytics)?

7 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 5

Câu 7: Một tập đoàn viễn thông muốn phát hiện gian lận trong các giao dịch thanh toán của khách hàng. Họ có lượng lớn dữ liệu nhật ký giao dịch cần được phân tích nhanh chóng. Phương pháp tiếp cận Dữ liệu lớn nào sẽ hiệu quả nhất?

8 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 5

Câu 8: Trong mô hình lập trình MapReduce, giai đoạn 'Reduce' có chức năng chính là gì?

9 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 5

Câu 9: Điều gì là thách thức lớn nhất khi xử lý dữ liệu 'Velocity' (tốc độ) trong bối cảnh Dữ liệu lớn?

10 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 5

Câu 10: Công cụ nào sau đây thường được sử dụng để thực hiện các truy vấn SQL trên dữ liệu lưu trữ trong Hadoop HDFS?

11 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 5

Câu 11: Trong ngữ cảnh Dữ liệu lớn, 'Data Lake' (hồ dữ liệu) khác biệt so với 'Data Warehouse' (kho dữ liệu) chủ yếu ở điểm nào?

12 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 5

Câu 12: Kỹ thuật 'Data Sampling' (lấy mẫu dữ liệu) được sử dụng trong Dữ liệu lớn nhằm mục đích chính gì?

13 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 5

Câu 13: Công nghệ nào sau đây cung cấp khả năng xử lý dữ liệu 'in-memory' (trong bộ nhớ) và thường được sử dụng để tăng tốc độ xử lý so với MapReduce truyền thống?

14 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 5

Câu 14: Một bệnh viện muốn phân tích dữ liệu bệnh sử, kết quả xét nghiệm và thông tin di truyền của bệnh nhân để dự đoán nguy cơ mắc bệnh tim mạch và cá nhân hóa phác đồ điều trị. Ứng dụng này thuộc lĩnh vực nào của Dữ liệu lớn?

15 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 5

Câu 15: Khái niệm 'Data Governance' (quản trị dữ liệu) trong Dữ liệu lớn bao gồm những hoạt động chính nào?

16 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 5

Câu 16: Trong bối cảnh bảo mật Dữ liệu lớn, kỹ thuật 'Data Masking' (che giấu dữ liệu) được sử dụng để làm gì?

17 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 5

Câu 17: Điều gì KHÔNG phải là một trong '5Vs' thường được dùng để mô tả Dữ liệu lớn?

18 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 5

Câu 18: Kiến trúc Lambda (Lambda Architecture) trong Dữ liệu lớn kết hợp phương pháp xử lý nào?

19 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 5

Câu 19: Trong Apache Spark, khái niệm 'RDD' (Resilient Distributed Dataset) đại diện cho điều gì?

20 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 5

Câu 20: Ưu điểm chính của việc sử dụng điện toán đám mây (cloud computing) cho các dự án Dữ liệu lớn là gì?

21 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 5

Câu 21: Công cụ nào sau đây thường được sử dụng để thu thập (ingest) dữ liệu nhật ký (log data) từ nhiều nguồn khác nhau vào Hadoop?

22 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 5

Câu 22: Trong ngữ cảnh Dữ liệu lớn, 'Data Wrangling' (chuẩn bị dữ liệu) đề cập đến quá trình nào?

23 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 5

Câu 23: Loại hình cơ sở dữ liệu NoSQL nào phù hợp nhất để lưu trữ dữ liệu dạng đồ thị (graph data), ví dụ như mạng xã hội hoặc quan hệ giữa các thực thể?

24 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 5

Câu 24: Thách thức 'Veracity' (tính xác thực) của Dữ liệu lớn liên quan đến vấn đề nào?

25 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 5

Câu 25: Trong Apache Kafka, khái niệm 'Topic' (chủ đề) dùng để làm gì?

26 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 5

Câu 26: Phương pháp 'A/B testing' thường được ứng dụng trong lĩnh vực Dữ liệu lớn nào?

27 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 5

Câu 27: Điều gì KHÔNG phải là lợi ích của việc trực quan hóa dữ liệu (data visualization) trong phân tích Dữ liệu lớn?

28 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 5

Câu 28: Trong kiến trúc Kappa (Kappa Architecture), phương pháp xử lý dữ liệu chính là gì?

29 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 5

Câu 29: Yếu tố 'Value' (giá trị) trong '5Vs' của Dữ liệu lớn nhấn mạnh điều gì?

30 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 5

Câu 30: Một công ty muốn xây dựng một hệ thống khuyến nghị sản phẩm (recommendation system) cho khách hàng dựa trên lịch sử mua hàng và hành vi duyệt web. Công nghệ Dữ liệu lớn nào phù hợp để xây dựng và triển khai hệ thống này?

Xem kết quả