Chén thánh của Crypto AI: Khám phá tiên phong về đào tạo Phi tập trung
Trong toàn bộ chuỗi giá trị AI, huấn luyện mô hình là khâu tiêu tốn tài nguyên nhiều nhất và có rào cản công nghệ cao nhất, quyết định trực tiếp giới hạn khả năng của mô hình và hiệu quả ứng dụng thực tế. So với giai đoạn suy diễn với các cuộc gọi nhẹ nhàng, quá trình huấn luyện cần một sự đầu tư sức mạnh tính toán quy mô lớn liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ thuật toán tối ưu hóa cường độ cao, thực sự là "ngành công nghiệp nặng" trong việc xây dựng hệ thống AI. Từ góc độ mô hình kiến trúc, phương pháp huấn luyện có thể được chia thành bốn loại: huấn luyện tập trung, huấn luyện phân tán, học liên bang và huấn luyện phi tập trung mà bài viết này sẽ tập trung thảo luận.
Huấn luyện tập trung là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một tổ chức duy nhất trong một cụm hiệu suất cao tại chỗ, từ phần cứng, phần mềm nền tảng, hệ thống lập lịch cụm, đến tất cả các thành phần của khung huấn luyện đều được điều phối hoạt động bởi một hệ thống kiểm soát thống nhất. Kiến trúc hợp tác sâu sắc này giúp tối ưu hóa hiệu quả chia sẻ bộ nhớ, đồng bộ hóa độ dốc và cơ chế chống lỗi, rất phù hợp cho việc huấn luyện các mô hình quy mô lớn như GPT, Gemini, có ưu điểm hiệu suất cao, tài nguyên có thể kiểm soát, nhưng đồng thời cũng tồn tại vấn đề độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.
Đào tạo phân tán là phương pháp chính trong đào tạo mô hình lớn hiện nay, cốt lõi của nó là chia nhỏ nhiệm vụ đào tạo mô hình và phân phối đến nhiều máy tính để thực hiện phối hợp, nhằm vượt qua giới hạn tính toán và lưu trữ của máy đơn. Mặc dù về mặt vật lý có đặc điểm "Phi tập trung", nhưng tổng thể vẫn được các tổ chức trung tâm kiểm soát, điều phối và đồng bộ, thường hoạt động trong môi trường mạng cục bộ tốc độ cao, thông qua công nghệ bus kết nối tốc độ cao NVLink, do nút chính điều phối các nhiệm vụ con. Các phương pháp chính bao gồm:
Dữ liệu song song: mỗi nút đào tạo các tham số dữ liệu khác nhau, chia sẻ trọng số mô hình, cần phải khớp.
Mô hình song song: Triển khai các phần khác nhau của mô hình trên các nút khác nhau, đạt được khả năng mở rộng mạnh mẽ
Đường ống song song: thực hiện tuần tự theo giai đoạn, nâng cao thông lượng
Phân đoạn tensor: Chia nhỏ tính toán ma trận, nâng cao mức độ song song
Huấn luyện phân tán là sự kết hợp của "kiểm soát tập trung + thực thi phân tán", tương tự như một ông chủ điều hành từ xa nhiều nhân viên "văn phòng" phối hợp hoàn thành nhiệm vụ. Hiện tại hầu hết các mô hình lớn chính đều được huấn luyện theo cách này.
Phi tập trung đào tạo thì đại diện cho con đường tương lai có tính mở và khả năng chống kiểm duyệt hơn. Đặc điểm cốt lõi của nó là: nhiều nút không tin cậy ( có thể là máy tính gia đình, GPU đám mây hoặc thiết bị biên ) phối hợp thực hiện nhiệm vụ đào tạo mà không cần điều phối viên trung tâm, thường thông qua giao thức để thúc đẩy phân phối nhiệm vụ và hợp tác, và nhờ vào cơ chế khuyến khích mã hóa để đảm bảo tính trung thực của đóng góp. Các thách thức chính mà mô hình này phải đối mặt bao gồm:
Thiết bị không đồng nhất và khó tách: Khó khăn trong việc phối hợp thiết bị không đồng nhất, hiệu quả tách nhiệm vụ thấp
Nút thắt hiệu suất truyền thông: Giao tiếp mạng không ổn định, nút thắt đồng bộ độ dốc rõ ràng
Thiếu thực thi đáng tin cậy: Thiếu môi trường thực thi đáng tin cậy, khó xác minh xem nút có thực sự tham gia tính toán hay không.
Thiếu sự phối hợp thống nhất: không có bộ điều phối trung ương, phân phối nhiệm vụ, cơ chế hoàn nguyên bất thường phức tạp
Phi tập trung đào tạo có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để phối hợp đào tạo mô hình, nhưng "đào tạo phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an ninh mật mã, cơ chế kinh tế, xác thực mô hình và nhiều khía cạnh khác, nhưng việc có thể "phối hợp hiệu quả + khuyến khích trung thực + kết quả đúng" vẫn đang ở giai đoạn khám phá nguyên mẫu ban đầu.
Học liên bang như một hình thái chuyển tiếp giữa phân tán và Phi tập trung, nhấn mạnh việc giữ dữ liệu tại chỗ, tập hợp các tham số mô hình, phù hợp với các tình huống chú trọng đến tính tuân thủ quyền riêng tư như y tế, tài chính (. Học liên bang có cấu trúc kỹ thuật của đào tạo phân tán và khả năng hợp tác cục bộ, đồng thời có lợi thế về phân tán dữ liệu của đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào bên phối hợp đáng tin cậy, không có đặc tính hoàn toàn mở và chống kiểm duyệt. Nó có thể được coi là một giải pháp "Phi tập trung có kiểm soát" trong các tình huống tuân thủ quyền riêng tư, với nhiệm vụ đào tạo, cấu trúc tin cậy và cơ chế truyền thông đều tương đối nhẹ nhàng, thích hợp hơn để triển khai tạm thời trong ngành công nghiệp.
![Cốc thánh của Crypto AI: Khám phá tiên phong trong đào tạo Phi tập trung])https://img-cdn.gateio.im/webp-social/moments-a8004f094fff74515470052b3a24617c.webp(
Phi tập trung đào tạo của biên giới, cơ hội và con đường thực tế
Từ góc độ khuôn mẫu đào tạo, đào tạo phi tập trung không phù hợp với tất cả các loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, nhu cầu tài nguyên cực cao hoặc độ khó hợp tác lớn, nó tự nhiên không phù hợp để hoàn thành hiệu quả giữa các nút dị thể và không cần tin cậy. Ví dụ, đào tạo mô hình lớn thường phụ thuộc vào bộ nhớ cao, độ trễ thấp và băng thông cao, khó có thể phân tách và đồng bộ hiệu quả trong mạng mở; nhiệm vụ có quyền riêng tư dữ liệu và hạn chế chủ quyền mạnh mẽ bị giới hạn bởi tuân thủ pháp luật và ràng buộc đạo đức, không thể chia sẻ công khai; trong khi đó, nhiệm vụ thiếu cơ sở động lực hợp tác thì thiếu động lực tham gia từ bên ngoài. Những ranh giới này cùng nhau cấu thành các giới hạn thực tế của đào tạo phi tập trung hiện tại.
Nhưng điều này không có nghĩa là đào tạo phi tập trung là một giả thuyết sai lầm. Thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ song song và có thể khuyến khích, đào tạo phi tập trung thể hiện triển vọng ứng dụng rõ ràng. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, các nhiệm vụ đào tạo sau hành vi như RLHF, DPO), nhiệm vụ đào tạo và ghi nhãn dữ liệu crowdsourcing, đào tạo mô hình cơ bản nhỏ có thể kiểm soát tài nguyên, cũng như các kịch bản đào tạo hợp tác với sự tham gia của thiết bị biên. Những nhiệm vụ này thường có tính song song cao, độ liên kết thấp và khả năng chịu đựng sức mạnh tính toán không đồng nhất, rất phù hợp để thực hiện đào tạo hợp tác thông qua mạng P2P, giao thức Swarm, bộ tối ưu phân phối và các phương thức khác.
Phi tập trung đào tạo phân tích dự án cổ điển
Hiện tại, trong lĩnh vực đào tạo phi tập trung và học liên bang, các dự án blockchain tiêu biểu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Xét về tính đổi mới công nghệ và độ khó trong việc triển khai kỹ thuật, Prime Intellect, Nous Research và Pluralis.ai đã đưa ra nhiều khám phá sáng tạo trong thiết kế hệ thống và thuật toán, đại diện cho các hướng nghiên cứu lý thuyết tiên tiến hiện nay; trong khi đó, con đường thực hiện của Gensyn và Flock.io tương đối rõ ràng, đã có thể thấy được những tiến triển ban đầu trong việc hiện thực hóa. Bài viết này sẽ lần lượt phân tích các công nghệ cốt lõi và kiến trúc kỹ thuật của năm dự án này, đồng thời thảo luận thêm về sự khác biệt và mối quan hệ bổ sung của chúng trong hệ thống đào tạo AI phi tập trung.
( Prime Intellect: Huấn luyện đường đi có thể xác minh được mạng lưới hợp tác học tăng cường tiên phong
Prime Intellect cam kết xây dựng một mạng lưới huấn luyện AI không cần tin tưởng, cho phép bất kỳ ai tham gia vào việc huấn luyện và nhận được phần thưởng đáng tin cậy cho đóng góp tính toán của họ. Prime Intellect hy vọng thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, sẽ xây dựng một hệ thống huấn luyện AI Phi tập trung có tính khả thi, mở và đầy đủ cơ chế khuyến khích.
)# 01、Cấu trúc ngăn xếp giao thức Prime Intellect và giá trị của các mô-đun chính
![Giá trị của Crypto AI: Phi tập trung đào tạo khám phá tiên phong]###https://img-cdn.gateio.im/webp-social/moments-69eb6c2dab3d6284b890285c71e7a47f.webp###
(# 02、Giải thích chi tiết về cơ chế đào tạo Prime Intellect
PRIME-RL: Kiến trúc nhiệm vụ học tăng cường bất đồng bộ tách rời
PRIME-RL là khung mô hình và thực hiện nhiệm vụ được Prime Intellect tùy chỉnh cho các tình huống đào tạo Phi tập trung, được thiết kế đặc biệt cho mạng lưới đa dạng và sự tham gia không đồng bộ. Nó sử dụng học tăng cường làm đối tượng thích ứng ưu tiên, phân tách cấu trúc quá trình đào tạo, suy luận và tải trọng lên, cho phép mỗi nút đào tạo hoàn thành vòng nhiệm vụ độc lập tại địa phương, và hợp tác với cơ chế xác thực và tổng hợp thông qua giao diện chuẩn hóa. So với quy trình học có giám sát truyền thống, PRIME-RL phù hợp hơn trong môi trường không có lịch trình trung tâm để thực hiện đào tạo linh hoạt, không chỉ giảm độ phức tạp của hệ thống mà còn đặt nền tảng cho việc hỗ trợ nhiều nhiệm vụ song song và tiến hóa chiến lược.
TOPLOC:Cơ chế xác minh hành vi đào tạo nhẹ
TOPLOC là cơ chế cốt lõi về khả năng xác minh đào tạo được đề xuất bởi Prime Intellect, dùng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hiệu quả dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng như ZKML, TOPLOC không phụ thuộc vào việc tính toán lại toàn bộ mô hình, mà hoàn thành xác minh cấu trúc nhẹ thông qua việc phân tích quỹ đạo nhất quán cục bộ giữa "chuỗi quan sát ↔ cập nhật chiến lược". Đây là lần đầu tiên chuyển đổi quỹ đạo hành vi trong quá trình đào tạo thành các đối tượng có thể xác minh, là đổi mới chính để thực hiện phân phối phần thưởng đào tạo không cần tin cậy, cung cấp con đường khả thi cho việc xây dựng mạng lưới đào tạo hợp tác phi tập trung có thể kiểm toán và có thể khuyến khích.
SHARDCAST: Giao thức tổng hợp và truyền tải trọng số bất đồng bộ
SHARDCAST là giao thức phát tán và tổng hợp trọng số do Prime Intellect thiết kế, được tối ưu hóa đặc biệt cho môi trường mạng thực tế không đồng bộ, băng thông hạn chế và trạng thái nút thay đổi. Nó kết hợp cơ chế phát tán gossip và chiến lược đồng bộ cục bộ, cho phép nhiều nút liên tục gửi các cập nhật phần trong trạng thái không đồng bộ, đạt được sự hội tụ dần dần của trọng số và tiến hóa đa phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST nâng cao đáng kể khả năng mở rộng và khả năng chịu lỗi của đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và huấn luyện lặp đi lặp lại.
OpenDiLoCo: Khung giao tiếp bất đồng bộ thưa thớt
OpenDiLoCo là một khung tối ưu hóa giao tiếp được nhóm Prime Intellect độc lập thực hiện và mã nguồn mở dựa trên nguyên lý DiLoCo do DeepMind đề xuất, được thiết kế đặc biệt cho các thách thức như băng thông hạn chế, thiết bị không đồng nhất và nút không ổn định thường gặp trong đào tạo phi tập trung. Kiến trúc của nó dựa trên dữ liệu song song, thông qua việc xây dựng các cấu trúc topologie thưa như Ring, Expander, Small-World, tránh được chi phí giao tiếp cao của đồng bộ toàn cầu, chỉ phụ thuộc vào các nút hàng xóm cục bộ để hoàn thành đào tạo hợp tác mô hình. Kết hợp với cập nhật không đồng bộ và cơ chế chịu lỗi điểm dừng, OpenDiLoCo cho phép GPU tiêu dùng và thiết bị biên cũng có thể tham gia ổn định vào các nhiệm vụ đào tạo, nâng cao đáng kể khả năng tham gia vào đào tạo hợp tác toàn cầu, là một trong những cơ sở hạ tầng giao tiếp quan trọng để xây dựng mạng lưới đào tạo phi tập trung.
PCCL: Thư viện giao tiếp hợp tác
PCCL là thư viện giao tiếp nhẹ được Prime Intellect thiết kế riêng cho môi trường đào tạo AI Phi tập trung, nhằm giải quyết những điểm nghẽn thích ứng của thư viện giao tiếp truyền thống trong các thiết bị khác nhau và mạng có băng thông thấp. PCCL hỗ trợ topo thưa, nén gradient, đồng bộ độ chính xác thấp và khôi phục từ điểm dừng, có thể chạy trên GPU tiêu dùng và nút không ổn định, là thành phần cơ bản hỗ trợ khả năng giao tiếp bất đồng bộ của giao thức OpenDiLoCo. Nó nâng cao đáng kể khả năng chịu đựng băng thông và tính tương thích thiết bị của mạng đào tạo, mở ra "km cuối" cho cơ sở hạ tầng giao tiếp trong việc xây dựng mạng đào tạo hợp tác thực sự mở và không cần tin cậy.
![Crypto AI của Thánh tích: Phi tập trung đào tạo khám phá tiên phong])https://img-cdn.gateio.im/webp-social/moments-b11af8d10db6e8baa0c19e87aa18dd82.webp###
(# 03、Mạng khuyến khích Prime Intellect và phân công vai trò
Prime Intellect xây dựng một mạng lưới đào tạo không cần cấp phép, có thể xác minh và có cơ chế khuyến khích kinh tế, cho phép bất kỳ ai tham gia vào nhiệm vụ và nhận phần thưởng dựa trên đóng góp thực tế. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:
Người khởi xướng nhiệm vụ: định nghĩa môi trường đào tạo, mô hình ban đầu, hàm thưởng và tiêu chuẩn xác minh
Nút đào tạo: Thực hiện đào tạo cục bộ, gửi cập nhật trọng số và quan sát quỹ đạo
Node xác thực: Sử dụng cơ chế TOPLOC để xác minh tính xác thực của hành vi huấn luyện và tham gia vào việc tính toán thưởng và tổng hợp chiến lược.
Quy trình cốt lõi của giao thức bao gồm phát hành nhiệm vụ, đào tạo nút, xác minh quỹ đạo, tổng hợp trọng số )SHARDCAST### và phát thưởng, tạo thành một vòng khuyến khích xoay quanh "hành vi đào tạo thực".
(# 04、INTELLECT-2:Công bố mô hình đào tạo phi tập trung có thể xác minh đầu tiên
Prime Intellect đã phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là mô hình học tăng cường lớn nhất trên thế giới được huấn luyện bởi các nút phi tập trung không cần tin tưởng, với quy mô tham số đạt 32B. Mô hình INTELLECT-2 được huấn luyện bởi hơn 100 nút GPU đồng cấu trên ba châu lục, sử dụng kiến trúc hoàn toàn không đồng bộ, thời gian huấn luyện.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
9 thích
Phần thưởng
9
4
Chia sẻ
Bình luận
0/400
Blockwatcher9000
· 14giờ trước
Cơn sóng này thật sự có điều thú vị.
Xem bản gốcTrả lời0
SelfRugger
· 14giờ trước
Tiên phong khám phá yyds
Xem bản gốcTrả lời0
NFTFreezer
· 14giờ trước
Tài nguyên tiêu tốn khá lớn.
Xem bản gốcTrả lời0
BlockchainThinkTank
· 14giờ trước
Đề nghị theo dõi cẩn thận, dự án này có nguy cơ về khả năng tính toán không thể truy nguyên.
Phi tập trung AI đào tạo tiên phong: Prime Intellect và Pluralis khám phá mạng lưới hợp tác có thể xác minh
Chén thánh của Crypto AI: Khám phá tiên phong về đào tạo Phi tập trung
Trong toàn bộ chuỗi giá trị AI, huấn luyện mô hình là khâu tiêu tốn tài nguyên nhiều nhất và có rào cản công nghệ cao nhất, quyết định trực tiếp giới hạn khả năng của mô hình và hiệu quả ứng dụng thực tế. So với giai đoạn suy diễn với các cuộc gọi nhẹ nhàng, quá trình huấn luyện cần một sự đầu tư sức mạnh tính toán quy mô lớn liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ thuật toán tối ưu hóa cường độ cao, thực sự là "ngành công nghiệp nặng" trong việc xây dựng hệ thống AI. Từ góc độ mô hình kiến trúc, phương pháp huấn luyện có thể được chia thành bốn loại: huấn luyện tập trung, huấn luyện phân tán, học liên bang và huấn luyện phi tập trung mà bài viết này sẽ tập trung thảo luận.
Huấn luyện tập trung là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một tổ chức duy nhất trong một cụm hiệu suất cao tại chỗ, từ phần cứng, phần mềm nền tảng, hệ thống lập lịch cụm, đến tất cả các thành phần của khung huấn luyện đều được điều phối hoạt động bởi một hệ thống kiểm soát thống nhất. Kiến trúc hợp tác sâu sắc này giúp tối ưu hóa hiệu quả chia sẻ bộ nhớ, đồng bộ hóa độ dốc và cơ chế chống lỗi, rất phù hợp cho việc huấn luyện các mô hình quy mô lớn như GPT, Gemini, có ưu điểm hiệu suất cao, tài nguyên có thể kiểm soát, nhưng đồng thời cũng tồn tại vấn đề độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.
Đào tạo phân tán là phương pháp chính trong đào tạo mô hình lớn hiện nay, cốt lõi của nó là chia nhỏ nhiệm vụ đào tạo mô hình và phân phối đến nhiều máy tính để thực hiện phối hợp, nhằm vượt qua giới hạn tính toán và lưu trữ của máy đơn. Mặc dù về mặt vật lý có đặc điểm "Phi tập trung", nhưng tổng thể vẫn được các tổ chức trung tâm kiểm soát, điều phối và đồng bộ, thường hoạt động trong môi trường mạng cục bộ tốc độ cao, thông qua công nghệ bus kết nối tốc độ cao NVLink, do nút chính điều phối các nhiệm vụ con. Các phương pháp chính bao gồm:
Huấn luyện phân tán là sự kết hợp của "kiểm soát tập trung + thực thi phân tán", tương tự như một ông chủ điều hành từ xa nhiều nhân viên "văn phòng" phối hợp hoàn thành nhiệm vụ. Hiện tại hầu hết các mô hình lớn chính đều được huấn luyện theo cách này.
Phi tập trung đào tạo thì đại diện cho con đường tương lai có tính mở và khả năng chống kiểm duyệt hơn. Đặc điểm cốt lõi của nó là: nhiều nút không tin cậy ( có thể là máy tính gia đình, GPU đám mây hoặc thiết bị biên ) phối hợp thực hiện nhiệm vụ đào tạo mà không cần điều phối viên trung tâm, thường thông qua giao thức để thúc đẩy phân phối nhiệm vụ và hợp tác, và nhờ vào cơ chế khuyến khích mã hóa để đảm bảo tính trung thực của đóng góp. Các thách thức chính mà mô hình này phải đối mặt bao gồm:
Phi tập trung đào tạo có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để phối hợp đào tạo mô hình, nhưng "đào tạo phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an ninh mật mã, cơ chế kinh tế, xác thực mô hình và nhiều khía cạnh khác, nhưng việc có thể "phối hợp hiệu quả + khuyến khích trung thực + kết quả đúng" vẫn đang ở giai đoạn khám phá nguyên mẫu ban đầu.
Học liên bang như một hình thái chuyển tiếp giữa phân tán và Phi tập trung, nhấn mạnh việc giữ dữ liệu tại chỗ, tập hợp các tham số mô hình, phù hợp với các tình huống chú trọng đến tính tuân thủ quyền riêng tư như y tế, tài chính (. Học liên bang có cấu trúc kỹ thuật của đào tạo phân tán và khả năng hợp tác cục bộ, đồng thời có lợi thế về phân tán dữ liệu của đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào bên phối hợp đáng tin cậy, không có đặc tính hoàn toàn mở và chống kiểm duyệt. Nó có thể được coi là một giải pháp "Phi tập trung có kiểm soát" trong các tình huống tuân thủ quyền riêng tư, với nhiệm vụ đào tạo, cấu trúc tin cậy và cơ chế truyền thông đều tương đối nhẹ nhàng, thích hợp hơn để triển khai tạm thời trong ngành công nghiệp.
![Cốc thánh của Crypto AI: Khám phá tiên phong trong đào tạo Phi tập trung])https://img-cdn.gateio.im/webp-social/moments-a8004f094fff74515470052b3a24617c.webp(
Phi tập trung đào tạo của biên giới, cơ hội và con đường thực tế
Từ góc độ khuôn mẫu đào tạo, đào tạo phi tập trung không phù hợp với tất cả các loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, nhu cầu tài nguyên cực cao hoặc độ khó hợp tác lớn, nó tự nhiên không phù hợp để hoàn thành hiệu quả giữa các nút dị thể và không cần tin cậy. Ví dụ, đào tạo mô hình lớn thường phụ thuộc vào bộ nhớ cao, độ trễ thấp và băng thông cao, khó có thể phân tách và đồng bộ hiệu quả trong mạng mở; nhiệm vụ có quyền riêng tư dữ liệu và hạn chế chủ quyền mạnh mẽ bị giới hạn bởi tuân thủ pháp luật và ràng buộc đạo đức, không thể chia sẻ công khai; trong khi đó, nhiệm vụ thiếu cơ sở động lực hợp tác thì thiếu động lực tham gia từ bên ngoài. Những ranh giới này cùng nhau cấu thành các giới hạn thực tế của đào tạo phi tập trung hiện tại.
Nhưng điều này không có nghĩa là đào tạo phi tập trung là một giả thuyết sai lầm. Thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ song song và có thể khuyến khích, đào tạo phi tập trung thể hiện triển vọng ứng dụng rõ ràng. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, các nhiệm vụ đào tạo sau hành vi như RLHF, DPO), nhiệm vụ đào tạo và ghi nhãn dữ liệu crowdsourcing, đào tạo mô hình cơ bản nhỏ có thể kiểm soát tài nguyên, cũng như các kịch bản đào tạo hợp tác với sự tham gia của thiết bị biên. Những nhiệm vụ này thường có tính song song cao, độ liên kết thấp và khả năng chịu đựng sức mạnh tính toán không đồng nhất, rất phù hợp để thực hiện đào tạo hợp tác thông qua mạng P2P, giao thức Swarm, bộ tối ưu phân phối và các phương thức khác.
Phi tập trung đào tạo phân tích dự án cổ điển
Hiện tại, trong lĩnh vực đào tạo phi tập trung và học liên bang, các dự án blockchain tiêu biểu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Xét về tính đổi mới công nghệ và độ khó trong việc triển khai kỹ thuật, Prime Intellect, Nous Research và Pluralis.ai đã đưa ra nhiều khám phá sáng tạo trong thiết kế hệ thống và thuật toán, đại diện cho các hướng nghiên cứu lý thuyết tiên tiến hiện nay; trong khi đó, con đường thực hiện của Gensyn và Flock.io tương đối rõ ràng, đã có thể thấy được những tiến triển ban đầu trong việc hiện thực hóa. Bài viết này sẽ lần lượt phân tích các công nghệ cốt lõi và kiến trúc kỹ thuật của năm dự án này, đồng thời thảo luận thêm về sự khác biệt và mối quan hệ bổ sung của chúng trong hệ thống đào tạo AI phi tập trung.
( Prime Intellect: Huấn luyện đường đi có thể xác minh được mạng lưới hợp tác học tăng cường tiên phong
Prime Intellect cam kết xây dựng một mạng lưới huấn luyện AI không cần tin tưởng, cho phép bất kỳ ai tham gia vào việc huấn luyện và nhận được phần thưởng đáng tin cậy cho đóng góp tính toán của họ. Prime Intellect hy vọng thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, sẽ xây dựng một hệ thống huấn luyện AI Phi tập trung có tính khả thi, mở và đầy đủ cơ chế khuyến khích.
)# 01、Cấu trúc ngăn xếp giao thức Prime Intellect và giá trị của các mô-đun chính
![Giá trị của Crypto AI: Phi tập trung đào tạo khám phá tiên phong]###https://img-cdn.gateio.im/webp-social/moments-69eb6c2dab3d6284b890285c71e7a47f.webp###
(# 02、Giải thích chi tiết về cơ chế đào tạo Prime Intellect
PRIME-RL: Kiến trúc nhiệm vụ học tăng cường bất đồng bộ tách rời
PRIME-RL là khung mô hình và thực hiện nhiệm vụ được Prime Intellect tùy chỉnh cho các tình huống đào tạo Phi tập trung, được thiết kế đặc biệt cho mạng lưới đa dạng và sự tham gia không đồng bộ. Nó sử dụng học tăng cường làm đối tượng thích ứng ưu tiên, phân tách cấu trúc quá trình đào tạo, suy luận và tải trọng lên, cho phép mỗi nút đào tạo hoàn thành vòng nhiệm vụ độc lập tại địa phương, và hợp tác với cơ chế xác thực và tổng hợp thông qua giao diện chuẩn hóa. So với quy trình học có giám sát truyền thống, PRIME-RL phù hợp hơn trong môi trường không có lịch trình trung tâm để thực hiện đào tạo linh hoạt, không chỉ giảm độ phức tạp của hệ thống mà còn đặt nền tảng cho việc hỗ trợ nhiều nhiệm vụ song song và tiến hóa chiến lược.
TOPLOC:Cơ chế xác minh hành vi đào tạo nhẹ
TOPLOC là cơ chế cốt lõi về khả năng xác minh đào tạo được đề xuất bởi Prime Intellect, dùng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hiệu quả dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng như ZKML, TOPLOC không phụ thuộc vào việc tính toán lại toàn bộ mô hình, mà hoàn thành xác minh cấu trúc nhẹ thông qua việc phân tích quỹ đạo nhất quán cục bộ giữa "chuỗi quan sát ↔ cập nhật chiến lược". Đây là lần đầu tiên chuyển đổi quỹ đạo hành vi trong quá trình đào tạo thành các đối tượng có thể xác minh, là đổi mới chính để thực hiện phân phối phần thưởng đào tạo không cần tin cậy, cung cấp con đường khả thi cho việc xây dựng mạng lưới đào tạo hợp tác phi tập trung có thể kiểm toán và có thể khuyến khích.
SHARDCAST: Giao thức tổng hợp và truyền tải trọng số bất đồng bộ
SHARDCAST là giao thức phát tán và tổng hợp trọng số do Prime Intellect thiết kế, được tối ưu hóa đặc biệt cho môi trường mạng thực tế không đồng bộ, băng thông hạn chế và trạng thái nút thay đổi. Nó kết hợp cơ chế phát tán gossip và chiến lược đồng bộ cục bộ, cho phép nhiều nút liên tục gửi các cập nhật phần trong trạng thái không đồng bộ, đạt được sự hội tụ dần dần của trọng số và tiến hóa đa phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST nâng cao đáng kể khả năng mở rộng và khả năng chịu lỗi của đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và huấn luyện lặp đi lặp lại.
OpenDiLoCo: Khung giao tiếp bất đồng bộ thưa thớt
OpenDiLoCo là một khung tối ưu hóa giao tiếp được nhóm Prime Intellect độc lập thực hiện và mã nguồn mở dựa trên nguyên lý DiLoCo do DeepMind đề xuất, được thiết kế đặc biệt cho các thách thức như băng thông hạn chế, thiết bị không đồng nhất và nút không ổn định thường gặp trong đào tạo phi tập trung. Kiến trúc của nó dựa trên dữ liệu song song, thông qua việc xây dựng các cấu trúc topologie thưa như Ring, Expander, Small-World, tránh được chi phí giao tiếp cao của đồng bộ toàn cầu, chỉ phụ thuộc vào các nút hàng xóm cục bộ để hoàn thành đào tạo hợp tác mô hình. Kết hợp với cập nhật không đồng bộ và cơ chế chịu lỗi điểm dừng, OpenDiLoCo cho phép GPU tiêu dùng và thiết bị biên cũng có thể tham gia ổn định vào các nhiệm vụ đào tạo, nâng cao đáng kể khả năng tham gia vào đào tạo hợp tác toàn cầu, là một trong những cơ sở hạ tầng giao tiếp quan trọng để xây dựng mạng lưới đào tạo phi tập trung.
PCCL: Thư viện giao tiếp hợp tác
PCCL là thư viện giao tiếp nhẹ được Prime Intellect thiết kế riêng cho môi trường đào tạo AI Phi tập trung, nhằm giải quyết những điểm nghẽn thích ứng của thư viện giao tiếp truyền thống trong các thiết bị khác nhau và mạng có băng thông thấp. PCCL hỗ trợ topo thưa, nén gradient, đồng bộ độ chính xác thấp và khôi phục từ điểm dừng, có thể chạy trên GPU tiêu dùng và nút không ổn định, là thành phần cơ bản hỗ trợ khả năng giao tiếp bất đồng bộ của giao thức OpenDiLoCo. Nó nâng cao đáng kể khả năng chịu đựng băng thông và tính tương thích thiết bị của mạng đào tạo, mở ra "km cuối" cho cơ sở hạ tầng giao tiếp trong việc xây dựng mạng đào tạo hợp tác thực sự mở và không cần tin cậy.
![Crypto AI của Thánh tích: Phi tập trung đào tạo khám phá tiên phong])https://img-cdn.gateio.im/webp-social/moments-b11af8d10db6e8baa0c19e87aa18dd82.webp###
(# 03、Mạng khuyến khích Prime Intellect và phân công vai trò
Prime Intellect xây dựng một mạng lưới đào tạo không cần cấp phép, có thể xác minh và có cơ chế khuyến khích kinh tế, cho phép bất kỳ ai tham gia vào nhiệm vụ và nhận phần thưởng dựa trên đóng góp thực tế. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:
Quy trình cốt lõi của giao thức bao gồm phát hành nhiệm vụ, đào tạo nút, xác minh quỹ đạo, tổng hợp trọng số )SHARDCAST### và phát thưởng, tạo thành một vòng khuyến khích xoay quanh "hành vi đào tạo thực".
(# 04、INTELLECT-2:Công bố mô hình đào tạo phi tập trung có thể xác minh đầu tiên
Prime Intellect đã phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là mô hình học tăng cường lớn nhất trên thế giới được huấn luyện bởi các nút phi tập trung không cần tin tưởng, với quy mô tham số đạt 32B. Mô hình INTELLECT-2 được huấn luyện bởi hơn 100 nút GPU đồng cấu trên ba châu lục, sử dụng kiến trúc hoàn toàn không đồng bộ, thời gian huấn luyện.