Sự tiến hóa của mô hình đào tạo AI: Từ kiểm soát tập trung đến Phi tập trung hợp tác

Sự tiến hóa của phương thức đào tạo AI: Cuộc cách mạng công nghệ từ kiểm soát tập trung đến Phi tập trung hợp tác

Trong toàn bộ chuỗi giá trị của AI, việc huấn luyện mô hình là giai đoạn tiêu tốn tài nguyên nhiều nhất và có rào cản kỹ thuật cao nhất, trực tiếp quyết định giới hạn khả năng của mô hình và hiệu quả ứng dụng thực tế. So với giai đoạn suy diễn nhẹ nhàng, quá trình huấn luyện cần đầu tư sức mạnh tính toán lớn liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ từ các thuật toán tối ưu cường độ cao, thực sự là "ngành công nghiệp nặng" trong việc xây dựng hệ thống AI. Từ góc độ mô hình kiến trúc, phương pháp huấn luyện có thể được chia thành bốn loại: huấn luyện tập trung, huấn luyện phân tán, học liên bang và huấn luyện Phi tập trung mà bài viết này sẽ tập trung thảo luận.

AI đào tạo mô hình tiến hóa: từ kiểm soát tập trung đến cách mạng công nghệ hợp tác Phi tập trung

Đào tạo tập trung là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một tổ chức đơn lẻ trong một cụm hiệu suất cao tại địa phương, hoàn thành toàn bộ quy trình đào tạo, từ phần cứng, phần mềm nền tảng, hệ thống lập lịch cụm, cho đến tất cả các thành phần của khung đào tạo đều được điều phối bởi một hệ thống kiểm soát thống nhất. Kiến trúc phối hợp sâu sắc này cho phép chia sẻ bộ nhớ, đồng bộ hóa độ dốc và cơ chế chịu lỗi đạt hiệu suất tối ưu, rất phù hợp cho việc đào tạo các mô hình quy mô lớn như GPT, Gemini, với lợi thế hiệu suất cao và tài nguyên có thể kiểm soát, nhưng đồng thời cũng tồn tại các vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.

Huấn luyện phân tán là phương pháp chính trong việc huấn luyện mô hình lớn hiện nay, với cốt lõi là phân tách nhiệm vụ huấn luyện mô hình và phân phối chúng cho nhiều máy tính phối hợp thực hiện, nhằm vượt qua giới hạn tính toán và lưu trữ của một máy. Mặc dù về mặt vật lý có đặc điểm "phân tán", nhưng tổng thể vẫn được kiểm soát, điều phối và đồng bộ bởi các tổ chức tập trung, thường hoạt động trong môi trường mạng LAN tốc độ cao, thông qua công nghệ bus liên kết NVLink tốc độ cao, do nút chính đồng bộ hóa các nhiệm vụ con. Các phương pháp chính bao gồm:

  • Dữ liệu song song: Mỗi nút huấn luyện các tham số dữ liệu khác nhau chia sẻ, cần khớp trọng số mô hình.
  • Phân tán mô hình: Triển khai các phần khác nhau của mô hình trên các nút khác nhau, đạt được khả năng mở rộng mạnh mẽ;
  • Đường ống song song: Thực hiện tuần tự theo từng giai đoạn, tăng cường thông lượng;
  • Phân tán tensor: Chia nhỏ tính toán ma trận một cách tinh vi, nâng cao độ phân giải song song.

Đào tạo phân tán là sự kết hợp của "kiểm soát tập trung + thực hiện phân tán", tương tự như một ông chủ chỉ huy từ xa nhiều nhân viên "văn phòng" hợp tác hoàn thành nhiệm vụ. Hiện tại, gần như tất cả các mô hình lớn chính đều hoàn thành việc đào tạo theo cách này.

Sự tiến hóa của phương thức huấn luyện AI: Cuộc cách mạng công nghệ từ kiểm soát tập trung đến hợp tác Phi tập trung

Phi tập trung đào tạo đại diện cho một con đường tương lai với tính mở và khả năng chống kiểm duyệt cao hơn. Đặc điểm cốt lõi của nó là: nhiều nút không tin cậy lẫn nhau (có thể là máy tính gia đình, GPU đám mây hoặc thiết bị biên) hợp tác thực hiện nhiệm vụ đào tạo mà không có điều phối viên trung tâm, thường thông qua giao thức để điều phối việc phân phát và hợp tác nhiệm vụ, và nhờ vào cơ chế khuyến khích mã hóa để đảm bảo tính trung thực của đóng góp. Các thách thức chính mà mô hình này phải đối mặt bao gồm:

  • Khó khăn trong việc phân tách và đồng bộ hóa thiết bị: Khó khăn cao trong việc phối hợp thiết bị khác nhau, hiệu quả phân tách nhiệm vụ thấp;
  • Nút thắt hiệu suất truyền thông: Giao tiếp mạng không ổn định, nút thắt đồng bộ độ dốc rõ ràng;
  • Thiếu thực thi đáng tin cậy: Thiếu môi trường thực thi đáng tin cậy, khó xác minh xem các nút có thực sự tham gia tính toán hay không;
  • Thiếu sự phối hợp thống nhất: Không có bộ điều phối trung ương, việc phân phát nhiệm vụ và cơ chế hoàn tác bất thường phức tạp.

Phi tập trung đào tạo có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để phối hợp đào tạo mô hình, nhưng "đào tạo phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an toàn mật mã, cơ chế kinh tế, xác minh mô hình và nhiều khía cạnh khác, nhưng khả năng "hợp tác hiệu quả + khuyến khích trung thực + kết quả chính xác" vẫn đang ở giai đoạn khám phá nguyên mẫu ban đầu.

Học liên bang như một hình thức chuyển tiếp giữa phân tán và Phi tập trung, nhấn mạnh việc giữ dữ liệu tại địa phương và tập hợp các tham số mô hình, phù hợp với các tình huống chú trọng đến tuân thủ quyền riêng tư (như y tế, tài chính). Học liên bang có cấu trúc kỹ thuật của đào tạo phân tán và khả năng hợp tác cục bộ, đồng thời có lợi thế phân tán dữ liệu của đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào các bên phối hợp đáng tin cậy và không có đặc tính hoàn toàn mở và chống kiểm duyệt. Có thể coi đây là một giải pháp "Phi tập trung có kiểm soát" trong các tình huống tuân thủ quyền riêng tư, với các nhiệm vụ đào tạo, cấu trúc tin cậy và cơ chế giao tiếp đều tương đối nhẹ nhàng, thích hợp hơn để làm kiến trúc triển khai chuyển tiếp trong ngành công nghiệp.

Phi tập trung đào tạo của ranh giới, cơ hội và con đường thực tế

Xét từ góc độ mô hình đào tạo, đào tạo Phi tập trung không phù hợp với tất cả các loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, nhu cầu tài nguyên rất cao hoặc độ khó trong hợp tác, nó tự nhiên không thích hợp để hoàn thành hiệu quả giữa các nút dị thể, không tin cậy. Ví dụ, đào tạo mô hình lớn thường phụ thuộc vào bộ nhớ video cao, độ trễ thấp và băng thông cao, khó có thể phân chia và đồng bộ hiệu quả trong mạng mở; các nhiệm vụ có quyền riêng tư dữ liệu và hạn chế chủ quyền mạnh (như y tế, tài chính, dữ liệu nhạy cảm) bị ràng buộc bởi các quy định pháp lý và các ràng buộc đạo đức, không thể chia sẻ công khai; trong khi các nhiệm vụ thiếu nền tảng động lực hợp tác (như mô hình đóng nguồn của doanh nghiệp hoặc đào tạo nguyên mẫu nội bộ) lại thiếu động lực tham gia bên ngoài. Những ranh giới này tạo thành những hạn chế thực tế của đào tạo Phi tập trung hiện tại.

Nhưng điều này không có nghĩa là đào tạo phi tập trung là một giả thuyết sai lầm. Thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ dàng song song và có thể khuyến khích, đào tạo phi tập trung thể hiện rõ ràng triển vọng ứng dụng. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, các nhiệm vụ đào tạo sau liên kết hành vi (như RLHF, DPO), nhiệm vụ đào tạo và gán nhãn dữ liệu crowdsourcing, đào tạo mô hình cơ bản nhỏ có thể kiểm soát tài nguyên, cũng như các kịch bản đào tạo hợp tác có sự tham gia của thiết bị biên. Những nhiệm vụ này thường có tính song song cao, độ liên kết thấp và khả năng chịu đựng sức mạnh tính toán không đồng nhất, rất thích hợp để thực hiện đào tạo hợp tác thông qua mạng P2P, giao thức Swarm, bộ tối ưu hóa phân tán và các phương pháp khác.

Sự tiến hóa của mô hình đào tạo AI: Cách mạng công nghệ từ kiểm soát tập trung đến hợp tác Phi tập trung

Phi tập trung đào tạo các dự án kinh điển phân tích

Hiện tại, trong lĩnh vực đào tạo phi tập trung và học liên bang, các dự án blockchain tiêu biểu chủ yếu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Xét về tính đổi mới công nghệ và độ khó trong việc thực hiện kỹ thuật, Prime Intellect, Nous Research và Pluralis.ai đã đưa ra nhiều khám phá nguyên bản trong thiết kế hệ thống và thuật toán, đại diện cho hướng nghiên cứu lý thuyết tiên tiến hiện nay; trong khi đó, con đường thực hiện của Gensyn và Flock.io tương đối rõ ràng, đã có thể nhìn thấy sự tiến bộ ban đầu trong việc hiện thực hóa. Bài viết này sẽ lần lượt phân tích các công nghệ cốt lõi và kiến trúc kỹ thuật của năm dự án này, đồng thời khám phá sự khác biệt và mối quan hệ bổ sung của chúng trong hệ thống đào tạo AI phi tập trung.

Prime Intellect: Người tiên phong trong mạng lưới hợp tác học tăng cường có thể xác minh được đường đi đào tạo

Prime Intellect cam kết xây dựng một mạng lưới đào tạo AI không cần tin cậy, cho phép bất kỳ ai cũng có thể tham gia đào tạo và nhận được phần thưởng đáng tin cậy cho những đóng góp tính toán của mình. Prime Intellect hy vọng thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, xây dựng một hệ thống đào tạo AI Phi tập trung có tính khả thi, mở và đầy đủ cơ chế khuyến khích.

Prime Intellect đã phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là mô hình học tăng cường lớn đầu tiên trên thế giới được huấn luyện thông qua sự hợp tác của các nút Phi tập trung bất đồng bộ và không cần tin tưởng, với quy mô tham số đạt 32B. Mô hình INTELLECT-2 được hoàn thành thông qua sự hợp tác huấn luyện của hơn 100 nút GPU không đồng nhất trải rộng trên ba châu lục, sử dụng kiến trúc hoàn toàn bất đồng bộ, thời gian huấn luyện vượt quá 400 giờ, cho thấy tính khả thi và ổn định của mạng lưới hợp tác bất đồng bộ. Mô hình này không chỉ là một bước đột phá về hiệu suất, mà còn là lần đầu tiên hệ thống hóa khái niệm "huấn luyện là đồng thuận" mà Prime Intellect đã đề xuất. INTELLECT-2 tích hợp các mô-đun giao thức cốt lõi như PRIME-RL (cấu trúc huấn luyện bất đồng bộ), TOPLOC (xác thực hành vi huấn luyện) và SHARDCAST (tổng hợp trọng số bất đồng bộ), đánh dấu lần đầu tiên mạng lưới huấn luyện Phi tập trung đạt được tính mở, xác thực và vòng kín khuyến khích kinh tế trong quá trình huấn luyện.

Về hiệu suất, INTELLECT-2 được đào tạo dựa trên QwQ-32B và đã thực hiện đào tạo RL chuyên biệt về mã và toán học, đứng ở vị trí tiên phong của các mô hình RL tinh chỉnh mã nguồn mở hiện tại. Mặc dù chưa vượt qua các mô hình đóng như GPT-4 hay Gemini, nhưng ý nghĩa thực sự của nó nằm ở chỗ: đây là mô hình phi tập trung đầu tiên trên thế giới có quy trình đào tạo hoàn chỉnh có thể tái hiện, xác minh và kiểm toán. Prime Intellect không chỉ mở mã nguồn của mô hình mà còn quan trọng hơn là mở mã nguồn của chính quy trình đào tạo - dữ liệu đào tạo, lộ trình cập nhật chiến lược, quy trình xác minh và logic tổng hợp đều minh bạch và có thể kiểm tra, xây dựng một nguyên mẫu mạng lưới đào tạo phi tập trung mà mọi người có thể tham gia, hợp tác đáng tin cậy và chia sẻ lợi ích.

AI huấn luyện mô hình tiến hóa: từ kiểm soát tập trung đến cách mạng công nghệ hợp tác Phi tập trung

Prime Intellect đã hoàn thành vòng gọi vốn hạt giống trị giá 15 triệu USD vào tháng 2 năm 2025, do Founders Fund dẫn đầu, cùng với sự tham gia của nhiều lãnh đạo trong ngành như Menlo Ventures, Andrej Karpathy, Clem Delangue, Dylan Patel, Balaji Srinivasan, Emad Mostaque, Sandeep Nailwal. Trước đó, dự án đã hoàn thành vòng gọi vốn đầu tiên trị giá 5,5 triệu USD vào tháng 4 năm 2024, do CoinFund và Distributed Global đồng dẫn đầu, với sự tham gia của các tổ chức như Compound VC, Collab + Currency, Protocol Labs. Đến nay, tổng số vốn huy động của Prime Intellect đã vượt quá 20 triệu USD.

Người đồng sáng lập của Prime Intellect là Vincent Weisser và Johannes Hagemann, các thành viên trong nhóm có nền tảng trải dài từ lĩnh vực AI đến Web3, các thành viên cốt lõi đến từ Meta AI, Google Research, OpenAI, Flashbots, Stability AI và quỹ Ethereum, sở hữu khả năng thiết kế kiến trúc hệ thống và triển khai kỹ thuật phân tán sâu sắc, là một trong số ít đội ngũ thực thi thành công việc huấn luyện mô hình lớn phi tập trung thực sự.

Pluralis:Nhà khám phá mô hình đồng bộ và nén cấu trúc trong đào tạo hợp tác

Pluralis là một dự án Web3 AI tập trung vào "mạng lưới huấn luyện hợp tác đáng tin cậy", với mục tiêu cốt lõi là thúc đẩy một quy trình huấn luyện mô hình phi tập trung, tham gia mở và có cơ chế khuyến khích lâu dài. Khác với các con đường huấn luyện tập trung hoặc khép kín hiện nay, Pluralis đưa ra một khái niệm hoàn toàn mới mang tên Protocol Learning (học theo giao thức): "tiêu chuẩn hóa" quá trình huấn luyện mô hình, thông qua cơ chế hợp tác có thể xác minh và lập bản đồ quyền sở hữu mô hình, xây dựng một hệ thống huấn luyện mở với vòng khuyến khích nội sinh.

Protocol Learning do Pluralis đưa ra bao gồm ba trụ cột chính:

  • Mô hình không thể rút tiền (Mô hình không thể vật chất hóa): Mô hình được phân phối dưới dạng mảnh giữa nhiều nút, bất kỳ nút đơn lẻ nào cũng không thể khôi phục trọng số hoàn chỉnh và giữ kín nguồn. Thiết kế này khiến mô hình tự nhiên trở thành "tài sản trong giao thức", có thể thực hiện kiểm soát chứng nhận truy cập, bảo vệ rò rỉ và gắn kết lợi nhuận.
  • Huấn luyện song song mô hình dựa trên internet (Model-parallel Training over Internet):Thông qua cơ chế song song mô hình Pipeline không đồng bộ (kiến trúc SWARM), các nút khác nhau chỉ nắm giữ một phần trọng số, hợp tác hoàn thành huấn luyện hoặc suy diễn thông qua mạng băng thông thấp.
  • Phân phối quyền sở hữu theo mô hình đóng góp (Quyền sở hữu một phần cho các động lực): Tất cả các nút tham gia nhận được quyền sở hữu một phần của mô hình dựa trên đóng góp đào tạo của họ, từ đó hưởng lợi từ việc phân chia lợi nhuận trong tương lai và quyền quản trị giao thức.

Pluralis rõ ràng xác định "mô hình bất đồng bộ song song" là hướng đi cốt lõi, nhấn mạnh những lợi thế của nó so với song song dữ liệu như sau:

  • Hỗ trợ mạng băng thông thấp và nút không đồng nhất;
  • Thiết bị khác nhau được hỗ trợ, cho phép GPU tiêu dùng tham gia;
  • Tự nhiên có khả năng điều chỉnh lịch trình linh hoạt, hỗ trợ các nút thường xuyên lên/xuống.
  • Ba điểm đột phá chính là nén cấu trúc + cập nhật bất đồng bộ + tính không thể trích xuất trọng số.

Hiện tại, dựa trên sáu tài liệu blog kỹ thuật được công bố trên trang web chính thức, cấu trúc logic được tích hợp thành ba dòng chính sau đây:

  • Triết học và tầm nhìn: 《A Third Path: Protocol Learning》《Why Decentralized Training Matters》
  • Chi tiết cơ chế kỹ thuật: 《SWARM Parallel》《Beyond Top-K》《Asynchronous Updates》
  • Khám phá đổi mới hệ thống:《Unmaterializable Models》《Partial Ownership Protocols》

Hiện tại Pluralis chưa ra mắt sản phẩm, mạng thử nghiệm hay mã nguồn mở, lý do là vì con đường công nghệ mà họ lựa chọn rất thách thức: cần phải giải quyết các vấn đề hệ thống cấp độ như kiến trúc hệ thống cơ sở, giao thức truyền thông, trọng số không thể xuất khẩu, thì mới có thể đóng gói dịch vụ sản phẩm.

Vào tháng 6 năm 2025, trong bài báo mới được công bố bởi Pluralis Research, khung đào tạo Phi tập trung của họ đã được chuyển từ việc tiền huấn luyện mô hình.

Xem bản gốc
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Phần thưởng
  • 6
  • Chia sẻ
Bình luận
0/400
BlockchainBardvip
· 07-12 06:26
划算力卡 Phi tập trung đi thôi!
Xem bản gốcTrả lời0
HorizonHuntervip
· 07-10 05:51
Dựa vào cái này phức tạp quá đi... Ai chịu nổi chứ.
Xem bản gốcTrả lời0
MidnightSnapHuntervip
· 07-09 09:41
Ai đã viết cái này vậy? Giọng dịch quá nặng rồi.
Xem bản gốcTrả lời0
DaoTherapyvip
· 07-09 09:19
Ai nói AI phải được quản lý tập trung chứ?
Xem bản gốcTrả lời0
fren.ethvip
· 07-09 09:18
À lại đến khái niệm炒ai, được chơi cho Suckers đúng không?
Xem bản gốcTrả lời0
MemeKingNFTvip
· 07-09 09:16
On-chain tình hình như đại sóng đào cát Phi tập trung chắc chắn sẽ nuốt chửng mọi trung tâm.
Xem bản gốcTrả lời0
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)