News Giới thiệu Siêu máy tính trên Đám mây – Cloud-native Supercomputing

Thảo luận trong 'Tin công nghệ' bắt đầu bởi minhduongpro, 5/12/22.

  1. minhduongpro PageRank 2 Member

    Tham gia ngày:
    21/7/17
    Đại học Cambridge Vương quốc Anh cùng với hệ thống NVIDIA DGX SuperPOD hướng đến thế hệ tiếp theo của đám mây HPC hiệu quả, an toàn.

    Cloud-native Supercomputing (Siêu máy tính được thiết kế cho đám mây từ gốc) là điều quan trọng tiếp theo trong lĩnh vực siêu máy tính và nó đã xuất hiện ở đây ngày hôm nay, sẵn sàng giải quyết các workload HPC và AI khó khăn nhất.

    Đại học Cambridge đang xây dựng một siêu máy tính thiết kế cho đám mây ở Vương quốc Anh. Hai nhóm nhà nghiên cứu ở Mỹ đang phát triển riêng biệt các yếu tố phần mềm quan trọng cho Cloud-native Supercomputing này.

    Phòng thí nghiệm Quốc gia Los Alamos, là một phần của sự hợp tác liên tục với UCF Consortium, đang giúp cung cấp các khả năng đẩy nhanh các thuật toán dữ liệu. Đại học Bang Ohio đang cập nhật phần mềm Message Passing Interface để tăng cường các mô phỏng khoa học.

    NVIDIA đang cung cấp Cloud-native Supercomputing cho người dùng trên toàn thế giới dưới dạng DGX SuperPOD mới nhất của mình. Nó đóng gói các thành phần chính như bộ xử lý dữ liệu NVIDIA BlueField-2 (DPU) hiện đang được sản xuất.

    Vậy, Cloud-native Supercomputing là gì?

    Giống như món ăn của Reese bọc bơ đậu phộng trong sô cô la, Cloud-native Supercomputing kết hợp những gì tốt nhất của hai thế giới.

    Cloud-native Supercomputing kết hợp sức mạnh của điện toán hiệu suất cao với tính bảo mật và dễ sử dụng của các dịch vụ điện toán đám mây.

    Nói cách khác, Cloud-native Supercomputing cung cấp một đám mây HPC với một hệ thống mạnh mẽ như siêu máy tính TOP500 mà nhiều người dùng có thể chia sẻ một cách an toàn mà không làm giảm hiệu suất của các ứng dụng của họ.

    >>> Xem thêm: máy chủ Dell r350



    Cloud-native Supercomputing có thể làm gì?

    Đầu tiên, họ cho phép nhiều người dùng chia sẻ một siêu máy tính trong khi đảm bảo các workload của mỗi người dùng vẫn an toàn và riêng tư. Đó là một khả năng được gọi là “cách ly nhiều người thuê” (multi-tenant isolation) có sẵn trong các dịch vụ điện toán đám mây thương mại hiện nay. Nhưng nó thường không được tìm thấy trong các hệ thống HPC được sử dụng cho các workload kỹ thuật và khoa học, nơi hiệu suất thô là ưu tiên hàng đầu và các dịch vụ bảo mật khi hoạt động bị chậm lại.

    Thứ hai, Cloud-native Supercomputing sử dụng các DPU để xử lý các tác vụ như lưu trữ, bảo mật để cách ly đối tượng thuê và quản lý hệ thống. Điều này giúp CPU giảm tải để tập trung vào các tác vụ xử lý, tối đa hóa hiệu suất tổng thể của hệ thống.

    Kết quả là một siêu máy tính cho phép các dịch vụ đám mây nguyên bản mà không bị giảm hiệu suất. Trong tương lai, các DPU có thể xử lý các tác vụ giảm tải bổ sung, do đó các hệ thống duy trì hiệu suất cao nhất khi chạy các workload cho HPC và AI.

    Cloud-native Supercomputing hoạt động như thế nào?

    Về cơ bản, các siêu máy tính ngày nay kết hợp hai loại bộ não – CPU và bộ tăng tốc, điển hình là GPU.

    Bộ tăng tốc đóng gói hàng nghìn lõi xử lý để tăng tốc các hoạt động song song ở trung tâm của nhiều workload AI và HPC. CPU được xây dựng cho các phần của thuật toán yêu cầu xử lý nối tiếp nhanh. Nhưng theo thời gian, chúng đã trở thành gánh nặng với các lớp tác vụ dẫn truyền ngày càng tăng, cần thiết để quản lý các hệ thống ngày càng lớn và phức tạp.

    Cloud-native Supercomputing bao gồm bộ não thứ ba để xây dựng các hệ thống nhanh hơn, hiệu quả hơn. Chúng được thêm các DPU giúp giảm tải về bảo mật, truyền thông, lưu trữ và các công việc khác mà hệ thống hiện đại cần quản lý.

    >>> Xem thêm: CPU E5-2603



    Làn đường di chuyển cho siêu máy tính

    Trong các siêu máy tính truyền thống, một công việc tính toán đôi khi phải đợi trong khi CPU xử lý một tác vụ truyền dẫn. Đó là một vấn đề quen thuộc mà chúng tạo ra cái gọi là “sự ồn ào của hệ thống”.

    Trong Cloud-native Supercomputing, xử lý và truyền dẫn diễn ra song song. Nó giống như việc mở một làn đường thứ ba trên đường cao tốc để giúp mọi phương tiện lưu thông thuận lợi hơn.

    Các thử nghiệm ban đầu cho thấy các Cloud-native Supercomputing có thể thực hiện các công việc HPC nhanh hơn 1,4 lần so với các máy tính truyền thống, theo công việc tại phòng thí nghiệm MVAPICH tại Bang Ohio, một chuyên gia về truyền dẫn của HPC. Phòng thí nghiệm cũng cho thấy các Cloud-native Supercomputing đạt được sự chồng chéo 100% của các hoạt động xử lý và truyền dẫn, cao hơn 99% so với các hệ thống HPC hiện có.

    Công ty cổ phần thương mại Máy Chủ Hà Nội

    - Trụ sở Hà Nội: Tầng 1,2,4 - Tòa nhà PmaxLand số 32 ngõ 133 Thái Hà - Q. Đống Đa

    Hotline mua hàng Hà Nội: 0979 83 84 84 Điện thoai: 024 6296 6644

    - CN Hồ Chí Minh: Lầu 1- Tòa nhà 666/46/29 Đường 3/2- Phường 14 - Quận 10

    Hotline mua hàng Hồ Chí Minh: 0945 92 96 96 Điện thoai: 028 2244 9399

    - Email: hotro@maychuhanoi.vn

    - website: Máy chủ Hà Nội

    - facebook: Log in to Facebook
     
    #1

Chia sẻ trang này