News HPC: Chiến đấu với đại dịch từ bên trong phòng máy chủ!

Thảo luận trong 'Tin công nghệ' bắt đầu bởi minhduongpro, 18/11/21.

  1. minhduongpro PageRank 2 Member

    Tham gia ngày:
    21/7/17
    Điện toán hiệu năng cao (HPC) có thể cho phép con người hiểu nhân loại xung quanh họ, từ hoạt động của nguyên tử đến bí quyết thiên hà đang giãn ra sao. Dù rằng HPC thường được nhắc đến sở hữu cụm từ “siêu máy tính”, môi trường thiên nhiên HPC ngày nay được tạo ra bằng cách dùng hàng nghìn tới hàng trăm máy chủ cá biệt, đc links bằng kết nối mạng vận tốc cao & độ trễ phải chăng. Để tận dụng lợi thế của hàng ngàn bộ phận xử trí (hay cores) vận động đồng thời cùng lúc, những phần mềm buộc phải được thiết kế & tiến hành để hoạt động tuy nhiên tuy nhiên, share công dụng trung gian theo nhu yếu. Ví dụ: một ứng dụng dự đoán thời tiết sẽ chia bầu khí quyển của thế giới thành hàng nghìn ô 3 chiều và mô phỏng vật lý cơ của gió, những khối nước, áp suất khí quyển & hiện tượng khác trong ô đó. Tiếp nối, mỗi tế bào phải thông tin cho hàng xã của chúng kết quả của mô phỏng trước đấy. Càng rộng rãi sức mạnh xử trí có sẵn, mỗi ô thậm chí bé hơn, với những định lượng vật lý cơ đúng chuẩn hơn.

    cho tới gần đây, các thuật toán HPC đã chạy bên trên những CPU của Intel & AMD. Theo khoảng thời gian, những CPU này vươn lên là mau hơn & kết hợp nhiều lõi hơn. Tuy nhiên, một bộ bức tốc mới, đc nổi trội hóa cao đang đc phối hợp với các hệ thống HPC. Một GPU (bộ xử lý đồ họa) đã cho phép tăng hiệu suất của những phần mềm chi tiết hơn một bậc. GPU thậm chí đc đưa ra trong hầu như những hệ thống HPC Top500 bên trên nhân loại. Hàng ngàn ứng dụng đã đc cập nhập để tận dụng lợi thế của hàng trăm lõi GPU đồng thời, cho ra tác dụng vươn tầm.

    HPC đang đc kết hợp vào công đoạn thao tác làm việc của khách hàng, thay vì một hạ tầng máy tính trọn vẹn đơn nhất. Một hệ thống HPC xoàng sẽ bao hàm nhiều CPU, một con số đáng chú ý GPU, ổ đĩa thể rắn (SSD), mạng vận tốc cao và tổng thể hệ sinh thái ứng dụng. Một hệ thống HPC kết quả sẽ sở hữu sự cân bằng và điều độ giữa CPU, GPU, bộ nhớ lưu trữ vận tốc cao và hệ thống lưu trữ, toàn bộ đều chuyển động cùng nhau. Sự cân bằng và điều độ này siêu mật thiết, vì khoáng sản đắt tiền nhất trong khối hệ thống HPC là CPU & GPU. Một hệ thống được thiết kế với tốt sẽ có thể cung cấp ác ôn liệu đến CPU rất là nhanh chóng và ko lúc nào “bỏ đói” CPU trong việc thực chất.

    >>> Xem thêm: mua server dell r940



    những trường ĐH & phòng phân tích trên toàn thị trường quốc tế liên tục chi tiêu và sinh ra những khối hệ thống HPC trẻ trung và tràn trề sức khỏe để giải quyết & hiểu đc những thách thức phức tạp nhất mà con người phải đối mặt ngày nay. Những bên này đang trải qua giai đoạn nở rộ sở hữu lượng ác ôn liệu vĩ đại liên tù tì được tạo ra, sẵn sàng cho các phân tích công nghệ. Những nghành được âu yếm rộng rãi sử dụng hệ thống HPC bao gồm nghiệc cứu vãn sinh học (bio-informatics), vũ trụ học, sinh học, nghiên cứu khí hậu, mô phỏng cơ học và dịch vụ kinh tế.

    đại học Ghent – Biến 7 giờ thí điểm AI xuống còn 40 phút

    IDLab là một phòng thí nghiệm phân tích tại ĐH Ghent & ĐH Antwerp. Ý nghĩ đó của bọn họ là mở rộng các nghành nghề nghiên cứu của mình để bao hàm AI Robotics, IoT và khai thác Ác liệu. Để thực hiện điều đó, IDLab định vị rằng cần phải có các máy chủ mới. Họ phải có tác dụng chứa một trong những GPU trong vỏ sever để đảm bảo hiệu suất cao nhất. Những thử nghiệm ban sơ chỉ ra những phần mềm hiện hữu thậm chí chạy mau hơn kíp 10 lần khi sử dụng GPU so với thực thi qua CPU thuần túy. Nhanh hơn chất nhận được những nhà nghiên cứu và phân tích phát triển những thuật toán AI xuất sắc hơn và nhận được công dụng nhanh hơn khi nào hết.

    giữa những nhu yếu của dòng sản phẩm chủ mới là thời gian làm việc chạy nhiều quá trình bên trên cộng một sever mà dường như không ảnh hưởng tới hiệu suất của các ứng dụng khác. Cần phải có một sever mạnh có chức năng cách xử trí, bộ nhớ lưu trữ & kết phù hợp với GPU để có thể chấp nhận được điều ấy. Thách thức là tăng hiệu suất lên 10 lần để theo kịp với nhu cầu hiện nay. IDLab đã tìm các sever GPU mạnh bạo, có thiết kế quan trọng để xử trí các ứng dụng AI thế hệ tiếp theo sau. Các máy chủ này chứa hai bo mạch NVIDIA HGX-2, thậm chí chứa tám bo mạch GPU trong một máy chủ phù hợp với sức mạnh CPU thích hợp.

    Để chạy những thuật toán dựa trên AI, các nhà phân tích phải hoàn thành những các bước khác biệt mau hơn để có thể triển khai lặp lại những thuật toán này 1 cách ngay bây giờ. Cách khắc phục máy chủ được tậu đã giúp chúng ta cắt hạn chế những thí điểm từ sắp 7 giờ xuống còn 40 phút quan trọng Dường như vẫn nhận đc công dụng có chất lượng cao.

    >>> Xem thêm: mua máy chủ dell r740



    hướng đến và quan sát và theo dõi COVID-19 tại đại học Goethe Frankfurt

    Một trường hợp khác phải một sever hiệu suất cao để nổi trội hóa những quy trình nghiên cứu là tại ĐH Goethe Frankfurt. Trung tâm siêu máy vi tính đc nghe đến trên toàn cầu vì đã cho phép rộng rãi nhà nghiên cứu lạm dụng Một trong những hệ thống nhanh nhất ở châu âu. Các kiến trúc sư của hệ thống mới này đã định vị rằng chọn lựa tối ưu cho những máy chủ mới mẻ này sẽ rất cần phải phối hợp một số trong những GPU, ko kể CPU với con số lõi cao. Thiết kế mật thiết của dòng sản phẩm chủ được yêu cầu là 1 đường truyền giao tiếp siêu thời gian nhanh giữa CPU và GPU, sử dụng bus PCI Gen 4. Đại học Goethe đã tìm máy chủ dựa theo bộ xử trí AMD EPYC và GPU Radeon Instinct MI50 cho khối hệ thống HPC mới mẻ này. Sự kết hợp này cho phép một lượng lớn hung liệu đc luân chuyển đến và đi từ GPU từ CPU rất là nhanh sở hữu tốc độ lên tới 64 GB / giây. Sau khoản thời gian các GPU đã xong nghĩa vụ của chúng, công dụng mà thậm chí kịp thời đc gửi tái lại CPU. Những nhà phân tích của đại học Goethe đã và đang lạm dụng hệ thống mới mẻ này để theo dõi và quan sát đại dịch COVID-19 bên trên toàn cầu, trong số các sáng kiến nghiên cứu khác. Việc hiểu cách COVID-19 Viral trong tổng dân số, cho phép những nhà chức vụ tìm thấy những cơ chế và kế hoạch cử chỉ để chuẩn bị cho những thử thách gần giống, tiềm tàng sau đây.

    Mô phỏng động lực học phân tử tại Phòng thí nghiệm nước nhà Lawrence Livermore

    Tại Hoa Kỳ, Phòng thí nghiệm giang sơn Lawrence Livermore (LLNL) cách đây không lâu đã lan rộng ra hệ thống HPC mô hình lớn lên hơn 11 Petaflops. Hệ thống này nhằm mục tiêu đc lạm dụng để đưa ra những phương pháp chữa bệnh khác biệt & vắc-xin cho COVID-19. Nó cũng sẽ có thể chấp nhận được tận dụng cân nặng quá trình đo lường và tính toán trong genomics và các ngành khoa học khác. Hệ thống Corona, chọn cái tên cho nhật thực toàn phần vào năm 2017, cách đây không lâu đã được vật dụng một số lượng to những sever, chứa cả CPU AMD EPYC & GPU Radeon Instinct. Ví dụ, kinh nghiệm xử lý bổ sung sẽ chất nhận được những nhà phân tích cách xử trí tốt hơn các mô phỏng động lực học phân tử chuyên sâu về mặt đo lường và tính toán. Đây là các điều quan trọng để biết, cụ thể, kết cấu & mọi chức năng của virus. Cuối cùng, này là trung tâm để đưa ra phương pháp chữa bệnh cho COVID-19. Mô phỏng động lực học phân tử đã có thiết kế để tận dụng lợi thế của GPU, làm tăng hiệu suất của chúng một cách đáng kể.

    Phá vỡ các bức tường về tài năng xử lý

    HPC trong các tổ chức phân tích & học thuật cho phép đa dạng nhà nghiên cứu tập trung vào khoa học mới mà tránh bị trì hoãn bởi các máy chủ cũ & lỗi thời. GPU ngày càng đc quan tâm để hạn chế khoảng thời gian chấm dứt nhiều tác vụ, được cho phép các thuật toán mới đc khởi phát & lặp lại. Những hệ thống HPC khỏe mạnh đang đc sử dụng để tìm hiểu một loạt các vấn đề khoa học mà trước phía trên không thể tiếp cận được do thời gian làm việc cách xử lý giảm bớt.

    >>> Xem thêm: mua server dell r740xd
     
    #1

Chia sẻ trang này