Đo hiệu suất của thời lượng làm việc thương mại

Một phần của tài liệu Kiến trúc máy tính tiên tiến (Trang 172 - 177)

CÁC KIẾN TRÚC ĐA XỬ LÝ

4.3. Các kiến trúc chia sẻ bộ nhớ

4.3.2. Các kiến trúc chia sẻ bộ nhớ phân tán

4.3.2.2. Đo hiệu suất của thời lượng làm việc thương mại

Chúng ta bắt đầu bằng cách nhìn tổng thể việc CPU thực hiện các tiêu chuẩn này trên hệ thống 4 bộ xử lý, như được thảo luận trên trang trước, tiêu chuẩn này bao gồm thời gian thực của I/O mà bị bỏ qua trong thời gian đo của CPU. Chúng ta nhóm 6 truy vấn DSS là 1 tiêu chuẩn duy nhất, báo cáo diễn biến làm việc trung bình. Chỉ số CPI có hiệu quả rất khác nhau cho các tiêu chuẩn này, từ một CPI 1,3

cho việc tìm kiếm Web AltaVista, tới chuẩn trung bình CPI là 1,6 cho thời lượng làm việc DSS, đến 7,0 cho thời lượng làm việc của OLTP. Hình 4.6 trình bày thời gian thực hiện bị gián đoạn thành những lệnh thực hiện, bộ nhớ cache và bộ nhớ truy cập hệ thống thời gian. Mặc dù hiệu suất thời lượng làm việc của DSS và Alta Vista hợp lý, hiệu suất thời lượng làm việc của OLTP kém của hệ thống phân cấp bộ nhớ.

Hình 4.6: Thời gian thực hiện lệnh bị thất bại của 3 chương trình (OLTP, DSS và Alta Vista) trong thời lượng làm việc thương mại. Những số DSS là tỉ lệ trung bình trên 6 truy vấn khác nhau. CPI khác nhau từ mức thấp 1,3 cho AltaVista, đến 1,6 cho các truy vấn DSS, đến 7,0 cho OLTP. (Các truy vấn DSS hiển thị một loạt các chỉ số CPI là 1,3-1,9).

Kể từ khi thời lượng làm việc OLTP yêu cầu nhiều nhất từ hệ thống bộ nhớ với số lượng lớn L3 bị bỏ sót, chúng ta tập trung kiểm tra tác động của kích thước bộ nhớ cache L3, số bộ xử lý và khối kích thước trên chuẩn OLTP. Hình 4.7 cho thấy hiệu quả của tăng kích thước bộ nhớ cache, sử dụng hai cách thiết lập cache liên kết, làm giảm số lượng lớn các cuộc xung đột không đúng. Thời gian thực hiện cải tiến như việc phát triển bộ nhớ cache L3 do sự giảm L3 không đúng. Đáng ngạc nhiên, gần như tất cả sự tăng thêm sẽ xảy ra từ 1-2 MB, với sự tăng thêm ít hơn, dù thực tế là cache nhớ vẫn còn một nguyên nhân gây ra tổn thất hiệu suất đáng kể với 2 MB và 4 MB cache. Tại sao lại xảy ra điều đó?

Hình 4.7: Việc thực hiện mối quan hệ của thời lượng công việc OLTP như kích thước của bộ nhớ cache L3, được thiết lập như là kết hợp hai chiều, phát triển từ 1 MB đến 8 MB. Thời gian nghỉ còn phát triển như kích thước bộ nhớ cache là tăng, giảm một số hiệu suất thực hiện. Sự tăng này xảy ra bởi vì, với ít bộ nhớ hệ thống khác, cần nhiều máy chủ hơn để dàn trải thời gian chờ của I/O. Thời lượng làm việc có thể được điều chỉnh lại để tăng thời gian tính toán/giao tiếp cho cân bằng, giữ thời gian nghỉ trong khi kiểm tra.

Để hiểu rõ hơn câu trả lời cho câu hỏi này, chúng ta cần xác định những yếu tố góp phần vào tỉ lệ cache nhớ L3 và làm thế nào chúng thay đổi như tăng bộ nhớ cache L3. Hình 4.8 trình bày dữ liệu này, hiển thị số chu kỳ bộ nhớ truy cập đóng góp theo mỗi lệnh từ 5 nguồn. Hai nguồn lớn nhất của chu kỳ truy cập bộ nhớ L3 với 1 MB L3 là lệnh và khả năng/xung đột bỏ qua. Với một L3 lớn hơn hai nguồn thu nhỏ được đóng góp nhỏ. Không may, các phân chia giả bắt buộc và phân chia nhớ thực không bị ảnh hưởng bởi một L3 lớn hơn. Như vậy, tại 4 MB và 8 MB, sự phân chia nhớ thực sinh ra các hàm nhớ, việc thiếu sự thay đổi trong việc phân chia nhớ thực dẫn đến cắt giảm hạn chế trong tỉ lệ tổng thể nhớ khi tăng kích thước bộ nhớ cache L3 quá 2 MB.

Tăng kích thước bộ nhớ cache loại bỏ hầu hết các bộ đơn xử lý nhỡ (miss), trong khi không đề cập tới bộ đa xử lý nhỡ. Làm thế nào để tăng số lượng bộ xử lý

có ảnh hưởng đến các loại nhỡ? Hình 4.9 cho thấy dữ liệu này giả định một cấu hình cơ bản 2 MB, hai cách thiết lập bộ nhớ cache L3 kết hợp. Như chúng ta mong đợi, sự gia tăng trong tỉ lệ chia sẻ tốc độ nhỡ thực, mà không bù bằng cách giảm bộ đơn xử lý nhỡ, dẫn đến sự gia tăng tổng thể trong chu kỳ truy cập bộ nhớ mỗi lệnh.

Hình 4.8: Sự đóng góp gây ra sự thay đổi chu kỳ truy cập bộ nhớ khi kích thước bộ nhớ cache được tăng lên. Bộ nhớ cache L3 là mô phỏng như thiết lập kết hợp 2 phương thức.

Câu hỏi cuối cùng chúng ta xem xét là liệu ngày càng tăng kích thước khối, cái mà nên giảm lệnh trong giới hạn, làm giảm công suất/tỉ lệ nhỡ xung đột và tỉ lệ chia sẻ nhỡ thực là có ích cho thời lượng làm việc. Hình 4.10 cho thấy dung lượng nhỡ cho 1.000 lệnh như kích thước khối được tăng từ 32 tới 256. Tăng kích thước khối từ 32 tới 256 ảnh hưởng tới bốn trong số các thành phần tỉ lệ nhỡ:

• Việc chia sẻ nhỡ thực giảm tỉ lệ hơn một trong 2 yếu tố, chứng tỏ rằng có một số vùng trong các mô hình chia sẻ đúng.

• Tỉ lệ nhỡ bắt buộc giảm đáng kể như ta trông chờ.

• Xung đột/công suất nhỡ chứng tỏ sự giảm nhỏ, chứng tỏ rằng vùng không gian không cao trong bộ đơn xử lý nhỡ xảy ra với cache L3 lớn hơn 2 MB.

Việc chia sẻ tỉ lệ nhỡ sai mặc dù trong giới hạn tuyệt đối nhỏ gần như gấp đôi.

Hình 4.9: Đóng góp vào chu kỳ truy cập bộ nhớ sẽ tăng lên khi số lượng bộ xử lý tăng chủ yếu là do chia sẻ thực tăng lên.

Hình 4.10: Số lượng nhỡ cho 1.000 lệnh giảm dần khi kích thước khối của bộ nhớ cache L3 tăng lên, trường hợp tốt đối với kích thước khối L3 ít nhất là 128 byte.

Các bộ nhớ cache L3 là 2 MB, thiết lập 2 cách kết hợp.

Sự thiếu này ảnh hưởng đáng kể tới tỉ lệ các lệnh bỏ lỡ là việc khởi động. Nếu có một bộ nhớ cache lệnh thì chỉ với diễn biến này, chúng ta sẽ kết luận rằng vùng không gian là rất nghèo. Trong trường hợp một bộ nhớ cache L2 hỗn hợp, ngoài các hiệu ứng khác như lệnh các cuộc xung đột dữ liệu cũng có thể đóng góp vào bộ nhớ cache lệnh tỉ lệ cao bỏ lỡ cho các khối lớn hơn. Các tài liệu nghiên cứu khác có vùng không gian thấp trong dòng lệnh của cơ sở dữ liệu lớn và thời lượng công việc OLTP, trong đó có nhiều khối cơ bản và công cụ đặc biệt sắp xếp dãy mã. Tuy nhiên, việc tăng kích thước khối của bộ nhớ cache thứ cấp đến 128 hoặc có thể 256 byte dường như thích hợp.

Một phần của tài liệu Kiến trúc máy tính tiên tiến (Trang 172 - 177)

Tải bản đầy đủ (PDF)

(260 trang)