Sáng ngày 28/6, khoá học Big Data diễn ra với sự có mặt của hơn 20 học viên từ các đơn vị thành viên của FPT. Hầu hết các thành viên đều có kinh nghiệm trong lập trình phần mềm, đang làm về Big Data hoặc IoT và những cán bộ có niềm yêu thích, mong muốn làm việc trong lĩnh vực này.
Phát biểu tại buổi khai giảng, anh Nguyễn Ngọc Minh, Phó GĐ Công nghệ FPT, nhận định tầm quan trọng của Big Data trong thời kỳ kỷ nguyên số. Anh cho biết: “Phân tích dữ liệu có thể giúp các doanh nghiệp thích nghi, tạo ra nội dung website thu hút nhiều khách hàng hơn, có được cái nhìn sâu sắc vào hành vi mua hàng. Dữ liệu càng nhiều thì càng tốt cho công ty”. Big Data sẽ trở thành một phần của bài toán đó.
Khoá học giúp người đam mê về công nghệ hiểu và có nhiều sáng tạo trong nghành nghề Big Data. |
Giảng viên của khóa học là anh Trần Thanh Hải, Thạc sĩ, Nghiên cứu sinh Tiến sĩ ngành Khoa học máy tính tại Đại học Illinois ở Chicago. Hiện tại, anh là Data Engineer (Kỹ sư dữ liệu) của Ban Công nghệ FPT.
Giảng dạy trong buổi học đầu tiên, anh Hải cho hay: "Big Data là một khái niệm, không phải một công nghệ. Thực tế, các nhà phát triển sẽ ứng dụng công nghệ như AI, Machine Learning… để quản lý và khai thác lượng dữ liệu khổng lồ". Anh định nghĩa Big Data bằng khái niệm cơ bản nhất với 4 với đặc trưng: Volume (độ lớn); Velocity (tốc độ); Variety (đa dạng); Veracity (tính xác thực).
Kỹ sư dữ liệu FPT nhận định, Big Data là một nguồn tài nguyên khổng lồ, nhưng để sử dụng nó trong các dự án thực tế lại là vấn đề lớn đối với các nhà phát triển. "Dữ liệu có mặt ở khắp mọi nơi giống như nguồn nước, nếu biết khai thác đúng cách, đây sẽ trở thành nguồn tài nguyên quý giá cho đơn vị sở hữu. Ngược lại, nếu chỉ biết giữ khư khư, không chia sẻ, khai thác không hợp lý, điều đáng tiếc nhất có thể xảy ra là nguồn nước của bạn sẽ biến thành bùn", anh nói.
Một trong những kiến thức đề cập nhiều trong buổi học đầu tiên liên quan đến Hadoop - một trong những công nghệ liên quan chặt chẽ nhất với Big Data. Dự án Apache Hadoop phát triển phần mềm mã nguồn mở cho máy tính có khả năng mở rộng và phân tán. Thư viện phần mềm Hadoop là một khuôn mẫu cho phép xử lý phân tán các bộ dữ liệu lớn trên các nhóm máy tính sử dụng các mô hình lập trình đơn giản. Nó được thiết kế để mở rộng từ một máy chủ duy nhất sang hàng ngàn máy khác, mỗi máy cung cấp tính toán và lưu trữ cục bộ.
Sau buổi khai giảng, học viên sẽ tiếp tục có buổi học vào thứ 6, thú 7 hàng tuần, tại Tầng 14, Toà nhà FPT (17 Duy Tân) do anh Nguyễn Việt Cường - Chuyên gia Công nghệ Tập đoàn giảng dạy. Khoá học dự kiến sẽ có 12 buổi với nhiều nội dung khác nhau, nhằm mang đến sự bổ ích nhất cho CBNV. Chương trình đào tạo do ban Công nghệ FPT phối hợp Trường Đào tạo Cán bộ (FCU) tổ chức.
Big Data là một thuật ngữ cho việc xử lý một tập hợp dữ liệu rất lớn và phức tạp mà các ứng dụng xử lý dữ liệu truyền thống không xử lý được. Dữ liệu lớn bao gồm các thách thức như phân tích, thu thập, giám sát dữ liệu, tìm kiếm, chia sẻ, lưu trữ, truyền nhận, trực quan, truy vấn và tính riêng tư.
Thuật ngữ này thường chỉ đơn giản đề cập đến việc việc sử dụng các phân tích dự báo, phân tích hành vi người dùng, hoặc một số phương pháp phân tích dữ liệu tiên tiến khác trích xuất giá trị từ dữ liệu mà ít khi đề cập đến kích thước của bộ dữ liệu.
Hà Trần
Ý kiến
()