Tại sao AI lại tiêu thụ nhiều điện như vậy?



Chúng tôi là công ty Công nghệ Terus, Công ty thiết kế website uy tín tại Hồ Chí Minh và cung cấp các dịch vụ liên quan đến digital. Terus đem tới các dịch vụ: Thiết kế websitedịch vụ quảng cáo Facebook Adsdịch vụ chạy quảng cáo Google Adsdịch vụ SEO tổng thể,...

Khi ChatGPT tạo nên làn sóng mới về trí tuệ nhân tạo (AI), vấn đề cơ bản về mức tiêu thụ năng lượng tiếp tục thu hút sự chú ý.

Vào ngày 10 tháng 4 năm nay, Rene Haas , CEO của gã khổng lồ chip Arm, đã công khai tuyên bố rằng các mô hình AI lớn như ChatGPT đòi hỏi sức mạnh tính toán đáng kể. Người ta ước tính rằng đến năm 2030, các trung tâm dữ liệu AI sẽ tiêu thụ 20% đến 25% nhu cầu điện ở Hoa Kỳ, tăng đáng kể so với mức 4% hiện nay.

Dữ liệu công khai cho thấy ChatGPT hiện đang xử lý hơn 200 triệu yêu cầu mỗi ngày, tiêu thụ tới 500.000 kilowatt-giờ điện mỗi ngày. Điều này tương đương với hóa đơn tiền điện hàng năm là 200 triệu RMB chỉ riêng cho ChatGPT.

Điều này có nghĩa là mức tiêu thụ điện hàng ngày của ChatGPT cao hơn 17.000 lần so với mức tiêu thụ điện trung bình của một hộ gia đình. (Giá điện thương mại tại Hoa Kỳ hiện vào khoảng 0,147 đô la một kilowatt-giờ, tương đương 1,06 nhân dân tệ hoặc 530.000 nhân dân tệ mỗi ngày)

Theo Alex de Vries, giám đốc một công ty tư vấn của Hà Lan, ngành công nghiệp AI dự kiến sẽ tiêu thụ từ 850 tỷ đến 1.340 tỷ kilowatt giờ điện mỗi năm vào năm 2027, tương đương với tổng lượng điện tiêu thụ hàng năm của một quốc gia châu Âu như Thụy Điển hoặc Hà Lan.

Musk dự đoán tình trạng thiếu điện có thể xảy ra sớm nhất vào năm 2025: "Năm tới, bạn sẽ thấy, chúng ta sẽ không có đủ điện để chạy tất cả các con chip".

Giám đốc điều hành của OpenAI, Sam Altman , cũng dự đoán một cuộc khủng hoảng năng lượng trong ngành AI, cho rằng sự phát triển công nghệ AI trong tương lai sẽ phụ thuộc rất nhiều vào năng lượng và con người sẽ cần nhiều sản phẩm lưu trữ năng lượng và quang điện hơn.

Tất cả những điều này chỉ ra rằng AI đang trên bờ vực gây ra một “cuộc chiến năng lượng” toàn cầu mới.

AI gặp phải tình trạng tắc nghẽn năng lượng

Trong 500 ngày qua, ChatGPT đã tạo nên làn sóng nhu cầu về các mô hình AI lớn và sức mạnh tính toán trên toàn cầu.

Những gã khổng lồ công nghệ toàn cầu như Microsoft, Google, Meta và OpenAI đang nỗ lực mua lại chip AI, thậm chí còn tự sản xuất chip, với tổng quy mô vượt quá hàng chục nghìn tỷ đô la.

Về bản chất, AI phụ thuộc rất nhiều vào công nghệ máy tính và xử lý thông tin, do đó đòi hỏi một số lượng lớn chip GPU cũng như các nguồn tài nguyên cơ bản như điện, thủy điện, năng lượng gió và tài trợ.

Ngay từ năm 1961, nhà vật lý Rolf Landauer, làm việc tại IBM, đã công bố một bài báo đề xuất cái mà sau này được gọi là “Nguyên lý Landauer”.

Lý thuyết này cho rằng khi thông tin được lưu trữ trong máy tính trải qua những thay đổi không thể đảo ngược, nó sẽ tỏa ra một lượng nhiệt nhỏ ra môi trường xung quanh, lượng nhiệt tỏa ra tùy thuộc vào nhiệt độ của máy tính tại thời điểm đó – nhiệt độ càng cao, nhiệt tỏa ra càng nhiều.

Nguyên lý Landauer liên kết thông tin và năng lượng, cụ thể là với định luật thứ hai của nhiệt động lực học. Bởi vì các hoạt động xử lý thông tin không thể đảo ngược về mặt logic dẫn đến sự hủy diệt thông tin, điều này dẫn đến sự gia tăng entropy trong thế giới vật lý, do đó tiêu thụ năng lượng.

Kể từ khi được đề xuất, nguyên lý này đã phải đối mặt với sự hoài nghi đáng kể. Tuy nhiên, trong khoảng một thập kỷ trở lại đây, “Nguyên lý Landauer” đã được xác minh bằng thực nghiệm.

Năm 2012, một nghiên cứu được công bố trên tạp chí Nature đã đo lần đầu tiên lượng nhiệt nhỏ được giải phóng khi một "bit" dữ liệu bị xóa. Các thí nghiệm độc lập sau đó cũng đã xác nhận "Nguyên lý Landauer".

Các dịch vụ tại Terus Technology:

Thiết kế website

Thiết kế website bán hàng

Dịch vụ SEO website

Dịch vụ chạy quảng cáo Facebook Ads

Dịch vụ chạy quảng cáo Google Ads