Bài Tập, Đề Thi Trắc Nghiệm Online – Môn Dữ Liệu Lớn (Bigdata) – Đề 01

0

Bạn đã sẵn sàng chưa? 45 phút làm bài bắt đầu!!!

Bạn đã hết giờ làm bài! Xem kết quả các câu hỏi đã làm nhé!!!


Môn Dữ Liệu Lớn (Bigdata)

Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata) - Đề 01

Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata) - Đề 01 bao gồm nhiều câu hỏi hay, bám sát chương trình. Cùng làm bài tập trắc nghiệm ngay.

Câu 1: Trong kiến trúc Hadoop HDFS, thành phần nào chịu trách nhiệm quản lý không gian tên hệ thống tệp và điều phối truy cập của client vào các tệp, đồng thời lưu trữ metadata?

  • A. NameNode
  • B. DataNode
  • C. Secondary NameNode
  • D. ResourceManager

Câu 2: Điều gì xảy ra khi một DataNode trong cụm Hadoop bị lỗi và không khả dụng?

  • A. Hệ thống sẽ ngừng hoạt động cho đến khi DataNode được khôi phục.
  • B. NameNode phát hiện lỗi và khởi tạo quá trình sao chép lại các khối dữ liệu từ các DataNode khác để duy trì số lượng bản sao cần thiết.
  • C. Dữ liệu trên DataNode bị lỗi sẽ mất vĩnh viễn.
  • D. Quản trị viên hệ thống phải can thiệp thủ công để chuyển dữ liệu sang DataNode khác.

Câu 3: Giả sử bạn có một tệp 200MB và kích thước khối (block size) trong HDFS được cấu hình là 64MB. Tệp này sẽ được chia thành bao nhiêu khối và kích thước của khối cuối cùng là bao nhiêu?

  • A. 3 khối, mỗi khối 64MB
  • B. 3 khối, khối cuối cùng 8MB
  • C. 4 khối, khối cuối cùng 8MB
  • D. 4 khối, mỗi khối 50MB

Câu 4: Mục đích chính của việc sử dụng YARN (Yet Another Resource Negotiator) trong Hadoop là gì?

  • A. Lưu trữ dữ liệu phân tán trên nhiều máy chủ.
  • B. Quản lý tài nguyên cụm và lập lịch thực thi các ứng dụng phân tán (ví dụ: MapReduce, Spark).
  • C. Cung cấp giao diện dòng lệnh để tương tác với hệ thống tệp HDFS.
  • D. Giám sát sức khỏe của các DataNode trong cụm.

Câu 5: Trong mô hình lập trình MapReduce, giai đoạn "Map" có vai trò gì?

  • A. Đọc dữ liệu đầu vào, xử lý từng bản ghi để tạo ra các cặp key-value trung gian.
  • B. Tổng hợp và giảm các giá trị có cùng key từ đầu ra của giai đoạn Map.
  • C. Phân phối công việc đến các node trong cụm Hadoop.
  • D. Quản lý lỗi và đảm bảo tính toàn vẹn dữ liệu trong quá trình xử lý.

Câu 6: "Big Data" thường được mô tả bằng 5Vs. V nào đề cập đến sự đa dạng của các loại dữ liệu (ví dụ: văn bản, hình ảnh, video, dữ liệu cảm biến) mà tổ chức phải xử lý?

  • A. Volume (Khối lượng)
  • B. Velocity (Tốc độ)
  • C. Variety (Đa dạng)
  • D. Veracity (Tính xác thực)

Câu 7: Công nghệ NoSQL thường được ưa chuộng hơn so với cơ sở dữ liệu quan hệ (RDBMS) trong bối cảnh Big Data vì lý do chính nào?

  • A. NoSQL đảm bảo tính toàn vẹn ACID tốt hơn RDBMS.
  • B. NoSQL có chi phí triển khai và vận hành thấp hơn RDBMS trong mọi trường hợp.
  • C. NoSQL hỗ trợ ngôn ngữ truy vấn SQL mạnh mẽ hơn RDBMS.
  • D. NoSQL có khả năng mở rộng ngang (horizontally scalable) tốt hơn và phù hợp hơn với dữ liệu phi cấu trúc hoặc bán cấu trúc.

Câu 8: Data Warehouse và Data Lake khác nhau chủ yếu ở điểm nào?

  • A. Data Warehouse lưu trữ dữ liệu lịch sử, còn Data Lake lưu trữ dữ liệu thời gian thực.
  • B. Data Warehouse lưu trữ dữ liệu đã được cấu trúc và xử lý cho mục đích phân tích cụ thể, còn Data Lake lưu trữ dữ liệu thô ở nhiều định dạng khác nhau để sử dụng linh hoạt hơn.
  • C. Data Warehouse sử dụng công nghệ NoSQL, còn Data Lake sử dụng cơ sở dữ liệu quan hệ.
  • D. Data Warehouse chỉ dành cho doanh nghiệp lớn, còn Data Lake phù hợp cho doanh nghiệp nhỏ.

Câu 9: Trong bối cảnh Big Data, "machine learning" thường được sử dụng để giải quyết loại bài toán nào?

  • A. Đảm bảo tính toàn vẹn và bảo mật dữ liệu.
  • B. Truy vấn và báo cáo dữ liệu nhanh chóng.
  • C. Phân tích dữ liệu quy mô lớn để phát hiện mẫu, dự đoán xu hướng và đưa ra quyết định thông minh.
  • D. Lưu trữ và quản lý dữ liệu hiệu quả.

Câu 10: Apache Spark khác biệt so với Hadoop MapReduce chủ yếu ở điểm nào trong xử lý dữ liệu?

  • A. Spark có khả năng xử lý dữ liệu in-memory, giúp tăng tốc độ xử lý so với MapReduce vốn chủ yếu dựa vào disk I/O.
  • B. MapReduce hỗ trợ nhiều ngôn ngữ lập trình hơn Spark.
  • C. Spark chỉ phù hợp với dữ liệu có cấu trúc, còn MapReduce có thể xử lý mọi loại dữ liệu.
  • D. MapReduce có khả năng mở rộng tốt hơn Spark trong cụm lớn.

Câu 11: Một công ty thương mại điện tử muốn phân tích hành vi duyệt web của khách hàng để cá nhân hóa gợi ý sản phẩm theo thời gian thực. Công nghệ Big Data nào phù hợp nhất để xử lý luồng dữ liệu này?

  • A. Hadoop MapReduce
  • B. Data Warehouse truyền thống
  • C. HDFS
  • D. Apache Kafka hoặc Apache Flink

Câu 12: Để truy vấn dữ liệu được lưu trữ trong Hadoop Data Lake, ngôn ngữ truy vấn phổ biến nào thường được sử dụng?

  • A. Java
  • B. SQL-like languages (ví dụ: HiveQL, Spark SQL)
  • C. Python
  • D. C++

Câu 13: Trong một dự án Big Data, bước nào sau đây thường diễn ra đầu tiên trong quy trình ETL (Extract, Transform, Load)?

  • A. Extract (Trích xuất dữ liệu từ các nguồn khác nhau)
  • B. Transform (Biến đổi và làm sạch dữ liệu)
  • C. Load (Tải dữ liệu vào hệ thống đích)
  • D. Validate (Xác thực dữ liệu)

Câu 14: "Data governance" trong Big Data bao gồm các hoạt động chính nào?

  • A. Chỉ tập trung vào bảo mật dữ liệu.
  • B. Chỉ tập trung vào hiệu suất truy vấn dữ liệu.
  • C. Thiết lập các chính sách, quy trình và tiêu chuẩn để quản lý chất lượng, bảo mật, tính khả dụng và tuân thủ của dữ liệu.
  • D. Chỉ tập trung vào lưu trữ dữ liệu hiệu quả.

Câu 15: Để xử lý dữ liệu dạng đồ thị (graph data) quy mô lớn, cơ sở dữ liệu NoSQL nào thường được sử dụng?

  • A. MongoDB (Document Database)
  • B. Cassandra (Column-family Database)
  • C. Redis (Key-value Store)
  • D. Neo4j (Graph Database)

Câu 16: "Data serialization" là quá trình chuyển đổi cấu trúc dữ liệu hoặc đối tượng thành định dạng có thể được lưu trữ hoặc truyền tải. Trong Hadoop, định dạng serialization hiệu quả và phổ biến nào thường được sử dụng?

  • A. XML
  • B. Avro hoặc Protocol Buffers
  • C. JSON
  • D. CSV

Câu 17: Một công ty viễn thông muốn dự đoán khả năng khách hàng rời mạng (churn rate) dựa trên lịch sử cuộc gọi, thông tin thuê bao và tương tác mạng xã hội. Kỹ thuật phân tích Big Data nào phù hợp nhất?

  • A. Data visualization
  • B. Real-time monitoring
  • C. Predictive modeling và machine learning
  • D. Data aggregation

Câu 18: "Schema-on-read" là đặc điểm của loại hệ thống lưu trữ dữ liệu nào?

  • A. Data Lake
  • B. Data Warehouse
  • C. Cơ sở dữ liệu quan hệ (RDBMS)
  • D. Hệ thống giao dịch trực tuyến (OLTP)

Câu 19: Trong kiến trúc Hadoop, thành phần nào chịu trách nhiệm theo dõi trạng thái của các job MapReduce và điều phối các task đến các NodeManager?

  • A. NameNode
  • B. DataNode
  • C. ResourceManager
  • D. NodeManager

Câu 20: Để đảm bảo tính bảo mật cho dữ liệu Big Data, các biện pháp nào thường được áp dụng?

  • A. Chỉ sử dụng phần cứng mạnh mẽ.
  • B. Mã hóa dữ liệu, kiểm soát truy cập, xác thực người dùng, và giám sát (audit logging).
  • C. Giảm số lượng bản sao dữ liệu.
  • D. Công khai dữ liệu cho tất cả người dùng để tăng tính minh bạch.

Câu 21: "Data lineage" (dòng dõi dữ liệu) là gì và tại sao nó quan trọng trong Big Data?

  • A. Phương pháp mã hóa dữ liệu tiên tiến.
  • B. Kỹ thuật nén dữ liệu để giảm dung lượng lưu trữ.
  • C. Quy trình sao lưu và phục hồi dữ liệu sau sự cố.
  • D. Theo dõi nguồn gốc, biến đổi và đường đi của dữ liệu từ nguồn đến đích, giúp hiểu rõ quy trình xử lý và đảm bảo chất lượng dữ liệu.

Câu 22: Cloud computing đóng vai trò như thế nào trong sự phát triển và ứng dụng của Big Data?

  • A. Cung cấp hạ tầng linh hoạt, khả năng mở rộng dễ dàng và chi phí hiệu quả cho việc lưu trữ, xử lý và phân tích Big Data.
  • B. Hạn chế khả năng mở rộng của Big Data do giới hạn tài nguyên đám mây.
  • C. Làm tăng chi phí đầu tư ban đầu cho các dự án Big Data.
  • D. Không ảnh hưởng đáng kể đến Big Data.

Câu 23: "Data wrangling" (vật lộn dữ liệu) là giai đoạn nào trong quy trình phân tích dữ liệu Big Data?

  • A. Giai đoạn trực quan hóa dữ liệu.
  • B. Giai đoạn chuẩn bị và làm sạch dữ liệu, bao gồm chuyển đổi định dạng, xử lý dữ liệu thiếu và dữ liệu nhiễu.
  • C. Giai đoạn xây dựng mô hình machine learning.
  • D. Giai đoạn triển khai ứng dụng phân tích dữ liệu.

Câu 24: Để tối ưu hóa hiệu suất truy vấn trong hệ thống Big Data, kỹ thuật "data partitioning" (phân vùng dữ liệu) được sử dụng như thế nào?

  • A. Tăng cường bảo mật dữ liệu bằng cách chia nhỏ dữ liệu thành nhiều phần.
  • B. Giảm dung lượng lưu trữ dữ liệu bằng cách loại bỏ dữ liệu trùng lặp.
  • C. Chia dữ liệu thành các phần nhỏ hơn và phân tán trên nhiều node để cho phép truy vấn song song và giảm thời gian truy vấn.
  • D. Đơn giản hóa cấu trúc dữ liệu để dễ dàng quản lý.

Câu 25: "Kappa architecture" và "Lambda architecture" là các mẫu kiến trúc phổ biến trong Big Data. Kiến trúc Lambda nổi bật với khả năng nào?

  • A. Chỉ xử lý dữ liệu theo thời gian thực (real-time).
  • B. Chỉ xử lý dữ liệu theo lô (batch processing).
  • C. Tập trung vào tính nhất quán dữ liệu mạnh mẽ.
  • D. Kết hợp cả xử lý dữ liệu theo lô (batch) để đảm bảo độ chính xác và xử lý dữ liệu theo thời gian thực (stream) để đáp ứng độ trễ thấp.

Câu 26: Trong ngữ cảnh Big Data, "data sampling" (lấy mẫu dữ liệu) được sử dụng khi nào và vì sao?

  • A. Để tăng độ chính xác của phân tích dữ liệu.
  • B. Khi tập dữ liệu quá lớn để xử lý toàn bộ một cách hiệu quả về thời gian và tài nguyên, cần lấy mẫu đại diện để phân tích.
  • C. Để mã hóa dữ liệu trước khi phân tích.
  • D. Để chuẩn hóa định dạng dữ liệu.

Câu 27: "Containerization" (ví dụ: Docker, Kubernetes) mang lại lợi ích gì cho việc triển khai và quản lý các ứng dụng Big Data?

  • A. Giảm chi phí lưu trữ dữ liệu.
  • B. Tăng tốc độ xử lý dữ liệu.
  • C. Đóng gói ứng dụng và môi trường phụ thuộc, giúp triển khai nhất quán, dễ dàng mở rộng và quản lý ứng dụng trên các môi trường khác nhau.
  • D. Cải thiện bảo mật dữ liệu.

Câu 28: "Data lakehouse" là một kiến trúc mới nổi, kết hợp ưu điểm của Data Lake và Data Warehouse. Ưu điểm chính của Data Lakehouse so với Data Lake truyền thống là gì?

  • A. Khả năng xử lý dữ liệu thời gian thực nhanh hơn.
  • B. Dung lượng lưu trữ lớn hơn.
  • C. Chi phí triển khai thấp hơn.
  • D. Bổ sung các tính năng quản trị dữ liệu, độ tin cậy và hiệu suất truy vấn được tối ưu hóa, tương tự như Data Warehouse, nhưng vẫn giữ được sự linh hoạt của Data Lake.

Câu 29: "Feature engineering" (kỹ thuật đặc trưng) là một bước quan trọng trong machine learning với Big Data. Nó bao gồm các hoạt động nào?

  • A. Lựa chọn thuật toán machine learning phù hợp.
  • B. Chọn lọc, biến đổi và tạo ra các đặc trưng (features) phù hợp từ dữ liệu thô để cải thiện hiệu suất của mô hình machine learning.
  • C. Đánh giá và lựa chọn mô hình machine learning tốt nhất.
  • D. Triển khai mô hình machine learning vào sản xuất.

Câu 30: Trong bối cảnh IoT (Internet of Things), Big Data đóng vai trò quan trọng như thế nào?

  • A. Giảm số lượng thiết bị IoT cần thiết.
  • B. Thay thế hoàn toàn cơ sở hạ tầng mạng IoT.
  • C. Xử lý, lưu trữ và phân tích lượng lớn dữ liệu được tạo ra từ các thiết bị IoT để trích xuất thông tin giá trị và hỗ trợ ra quyết định.
  • D. Đơn giản hóa việc quản lý thiết bị IoT.

1 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 1

Câu 1: Trong kiến trúc Hadoop HDFS, thành phần nào chịu trách nhiệm quản lý không gian tên hệ thống tệp và điều phối truy cập của client vào các tệp, đồng thời lưu trữ metadata?

2 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 1

Câu 2: Điều gì xảy ra khi một DataNode trong cụm Hadoop bị lỗi và không khả dụng?

3 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 1

Câu 3: Giả sử bạn có một tệp 200MB và kích thước khối (block size) trong HDFS được cấu hình là 64MB. Tệp này sẽ được chia thành bao nhiêu khối và kích thước của khối cuối cùng là bao nhiêu?

4 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 1

Câu 4: Mục đích chính của việc sử dụng YARN (Yet Another Resource Negotiator) trong Hadoop là gì?

5 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 1

Câu 5: Trong mô hình lập trình MapReduce, giai đoạn 'Map' có vai trò gì?

6 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 1

Câu 6: 'Big Data' thường được mô tả bằng 5Vs. V nào đề cập đến sự đa dạng của các loại dữ liệu (ví dụ: văn bản, hình ảnh, video, dữ liệu cảm biến) mà tổ chức phải xử lý?

7 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 1

Câu 7: Công nghệ NoSQL thường được ưa chuộng hơn so với cơ sở dữ liệu quan hệ (RDBMS) trong bối cảnh Big Data vì lý do chính nào?

8 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 1

Câu 8: Data Warehouse và Data Lake khác nhau chủ yếu ở điểm nào?

9 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 1

Câu 9: Trong bối cảnh Big Data, 'machine learning' thường được sử dụng để giải quyết loại bài toán nào?

10 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 1

Câu 10: Apache Spark khác biệt so với Hadoop MapReduce chủ yếu ở điểm nào trong xử lý dữ liệu?

11 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 1

Câu 11: Một công ty thương mại điện tử muốn phân tích hành vi duyệt web của khách hàng để cá nhân hóa gợi ý sản phẩm theo thời gian thực. Công nghệ Big Data nào phù hợp nhất để xử lý luồng dữ liệu này?

12 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 1

Câu 12: Để truy vấn dữ liệu được lưu trữ trong Hadoop Data Lake, ngôn ngữ truy vấn phổ biến nào thường được sử dụng?

13 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 1

Câu 13: Trong một dự án Big Data, bước nào sau đây thường diễn ra đầu tiên trong quy trình ETL (Extract, Transform, Load)?

14 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 1

Câu 14: 'Data governance' trong Big Data bao gồm các hoạt động chính nào?

15 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 1

Câu 15: Để xử lý dữ liệu dạng đồ thị (graph data) quy mô lớn, cơ sở dữ liệu NoSQL nào thường được sử dụng?

16 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 1

Câu 16: 'Data serialization' là quá trình chuyển đổi cấu trúc dữ liệu hoặc đối tượng thành định dạng có thể được lưu trữ hoặc truyền tải. Trong Hadoop, định dạng serialization hiệu quả và phổ biến nào thường được sử dụng?

17 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 1

Câu 17: Một công ty viễn thông muốn dự đoán khả năng khách hàng rời mạng (churn rate) dựa trên lịch sử cuộc gọi, thông tin thuê bao và tương tác mạng xã hội. Kỹ thuật phân tích Big Data nào phù hợp nhất?

18 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 1

Câu 18: 'Schema-on-read' là đặc điểm của loại hệ thống lưu trữ dữ liệu nào?

19 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 1

Câu 19: Trong kiến trúc Hadoop, thành phần nào chịu trách nhiệm theo dõi trạng thái của các job MapReduce và điều phối các task đến các NodeManager?

20 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 1

Câu 20: Để đảm bảo tính bảo mật cho dữ liệu Big Data, các biện pháp nào thường được áp dụng?

21 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 1

Câu 21: 'Data lineage' (dòng dõi dữ liệu) là gì và tại sao nó quan trọng trong Big Data?

22 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 1

Câu 22: Cloud computing đóng vai trò như thế nào trong sự phát triển và ứng dụng của Big Data?

23 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 1

Câu 23: 'Data wrangling' (vật lộn dữ liệu) là giai đoạn nào trong quy trình phân tích dữ liệu Big Data?

24 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 1

Câu 24: Để tối ưu hóa hiệu suất truy vấn trong hệ thống Big Data, kỹ thuật 'data partitioning' (phân vùng dữ liệu) được sử dụng như thế nào?

25 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 1

Câu 25: 'Kappa architecture' và 'Lambda architecture' là các mẫu kiến trúc phổ biến trong Big Data. Kiến trúc Lambda nổi bật với khả năng nào?

26 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 1

Câu 26: Trong ngữ cảnh Big Data, 'data sampling' (lấy mẫu dữ liệu) được sử dụng khi nào và vì sao?

27 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 1

Câu 27: 'Containerization' (ví dụ: Docker, Kubernetes) mang lại lợi ích gì cho việc triển khai và quản lý các ứng dụng Big Data?

28 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 1

Câu 28: 'Data lakehouse' là một kiến trúc mới nổi, kết hợp ưu điểm của Data Lake và Data Warehouse. Ưu điểm chính của Data Lakehouse so với Data Lake truyền thống là gì?

29 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 1

Câu 29: 'Feature engineering' (kỹ thuật đ??c trưng) là một bước quan trọng trong machine learning với Big Data. Nó bao gồm các hoạt động nào?

30 / 30

Category: Bài Tập, Đề Thi Trắc Nghiệm Online - Môn Dữ Liệu Lớn (Bigdata)

Tags: Bộ đề 1

Câu 30: Trong bối cảnh IoT (Internet of Things), Big Data đóng vai trò quan trọng như thế nào?

Xem kết quả